• Après les #hallucinations, les IA de pointe médicales souffrent d’un nouveau travers, l’effet Mirage : elles construisent des diagnostics à partir de données qui ne leur ont jamais été fournies
    https://www.bfmtv.com/tech/intelligence-artificielle/apres-les-hallucinations-les-ia-de-pointe-medicales-souffrent-d-un-nouveau-tr

    Des chercheurs de l’Université de #Stanford ont découvert (et nommé) l’#effet_Mirage des #IA. Ces dernières, de #GPT-5 d’#OpenAI à #Claude Opus 4.5 d’#Anthropic en passant par #Gemini 3 Pro de #Google, arrivent ainsi à livrer un #diagnostic #médical avec assurance à partir d’éléments visuels qu’elles ont… inventés.

  • Comment #OpenAI veut faire peau neuve avec la guerre
    https://lvsl.fr/comment-openai-veut-faire-peau-neuve-avec-la-guerre

    Tandis que la guerre contre l’Iran s’intensifie, une autre bataille se joue à huis clos. En quelques mois, le géant de l’intelligence artificielle OpenAI a méthodiquement investi les rouages de l’appareil sécuritaire américain, recrutant à tour de bras anciens responsables du Pentagone, du Conseil de sécurité nationale ou du Congrès. Une stratégie payante : au moment où Anthropic est brutalement écartée pour avoir refusé certains usages militaires de ses modèles, OpenAI s’engouffre dans la brèche et décroche des contrats stratégiques. Une recomposition accélérée du complexe militaro-technologique se dessine, où la frontière entre innovation civile et machine de guerre devient chaque jour plus poreuse.

    #Économie #Complexe_militaro-industriel #Silicon_Valley #Tech

  • Aakash Gupta ( aakashgupta)
    https://xcancel.com/aakashgupta/status/2038813799856374135

    The timeline on this is genuinely insane.

    October 2025: Sam #Altman flies to #Seoul and signs simultaneous deals with #Samsung and #SK #Hynix for 900,000 DRAM wafers per month. That’s 40% of global supply. Neither company knew the other was signing a near-identical commitment at the same time.

    Those deals were letters of intent. Non-binding. No RAM actually changed hands. But the market treated them as gospel. Contract #DRAM prices jumped 171%. A 64GB DDR5 kit went from $190 to $700 in three months.

    December 2025: Micron kills #Crucial, its 29-year-old consumer memory brand, to reallocate every wafer to AI and enterprise customers. The company explicitly said it was exiting consumer memory to “improve supply and support for our larger, strategic customers in faster-growing segments.” Translation: the AI demand signal was so loud that selling RAM to #PC builders stopped making financial sense.

    March 2026: #Google publishes #TurboQuant, a #compression #algorithm that reduces #AI #memory #requirements by 6x with zero accuracy loss. #Cloudflare's CEO called it “#Google's #DeepSeek.” The entire thesis that AI would consume infinite memory forever just got a six-month expiration date on it.

    Same month: #OpenAI and #Oracle #cancel the #Abilene #Stargate expansion. The $500 billion data center vision that justified the #RAM deals couldn’t survive its own financing terms. Bloomberg attributed the collapse partly to OpenAI’s “often-changing demand forecasting.”

    #MU is now down ~33% from its post-earnings high. Revenue up 196% year over year, #EPS up 682%, and the stock is in freefall because the company restructured its entire business around a demand signal that came from non-binding letters and is now being compressed out of existence by a research paper.

    #Micron bet the consumer division on #Sam_Altman's signature. The signature was worth exactly what the paper said: nothing binding.

  • #OpenAI ferme brutalement #Sora, l’usine à #slop la plus chère de l’histoire de l’#IA - Les Numériques
    https://www.lesnumeriques.com/intelligence-artificielle/openai-tue-sora-six-mois-de-vie-2-millions-de-dollars-de-revenus-et-u

    (...)

    Mais le succès d’audience n’a jamais trouvé de traduction économique viable : selon les données rapportées par Futunn, le revenu mensuel de Sora plafonnait à 367 000 dollars, pour des coûts d’exploitation quotidiens estimés à 15 millions de dollars. En décembre 2025, les nouveaux téléchargements avaient déjà chuté de 32 % par rapport au mois précédent.

    (...)

    On en parlait aussi hier, de ces histoires de coûts beaucoup plus élevés que les gains....

    https://seenthis.net/messages/1164269

  • Timnit Gebru (she/her) - Mastodon
    https://dair-community.social/@timnitGebru/116263058466613099

    #Bernie_Sanders just created a video to make a point about #issues of #privacy in #AI (a real problem). His supporters on #Muskrat's platform came for me when I quote tweeted his post saying, “at this point, #Bernie’s job seems to be l#obbying for #Anthropic.”

    So I’m going to elaborate on the #corporate psyop that has been happening since the beginning of time and how no one seems to learn their lesson.

    #Bernie has been repeating, almost verbatim, #Dario_Amodei's talking points, for a while now, even quote tweeting him. #Amodei positions Anthropic as the #ethical alternative to #OpenAI just like OpenAI positioned itself as the ethical alternative to #Google in 2015 and everyone ate it up. This was an article from then, the headline says that Muskrat, #Thiel, #Altman + friends founded an “#altruistic AI venture” 🙄

    https://www.bbc.com/news/technology-35082344

    I don’t remember who said this, but it’s like telling you to buy Camels instead of Marlboros while claiming to fight tobacco companies. If any politician parrots talking points of a CEO on a funding round, even on the harms of AI systems, you should be worried.

    Remember when Altman schmoozed them and newspapers had headlines of him “begging” to be regulated and hailing him as an #Oppenheimer figure who is so worried about his own creation 🙄?

    That was just last year!
    https://time.com/7267797/ai-leaders-oppenheimer-moment-musk-altman

    You don’t believe Altman is such a figure but you think Amodei, who insisted that OpenAI use all 10,000 #GPUs and train the biggest model possible, when he was there, is such a figure?

    In his video, Bernie is literally creating a #Claude ad, showing the system as an all knowing being that answers all of his questions. An ad for Anthropic, a company claiming that they can’t even confidently say that “Claude isn’t conscious”.

    A company amassing #billions saying they’ll at once save us from evil super #intelligent #machines and build the #benevolent super intelligent machine that will solve all of our problems. They’re so worried about people not getting “reskilled” because workers are going to be replaced by their machine god that will do our jobs so much better than us. Investors want to hear about machine gods displacing workers because, well, that’s how they make money.

    On another day, we’ll discuss why this is happening.

    Effective altruists and overall #TESCREAL bundle #billionaires have infiltrated the #labor movement and #journalism, offering fellowships with staggering amounts of money like they invested ridiculous amounts of money into these companies claiming to build machine gods.

    Money for the “problem” and #money for “the solution.”

    Tech giants pledge $1bn for ’altruistic AI’ venture, OpenAI - BBC News
    https://www.bbc.com/news/technology-35082344

    Prominent tech executives have pledged $1bn (£659m) for OpenAI, a non-profit venture that aims to develop artificial intelligence (AI) to benefit humanity.

    The venture’s backers include #Tesla Motors and #SpaceX CEO #Elon_Musk, #Paypal co-founder #Peter_Thiel, Indian tech giant #Infosys and #Amazon Web Services.

    Open AI says it expects its research - free from financial obligations - to focus on a “positive human impact”.

    Scientists have warned that advances in AI could ultimately threaten humanity.

    How Musk, Altman, AI Leaders Face the ’Oppenheimer Moment’ | TIME
    https://time.com/7267797/ai-leaders-oppenheimer-moment-musk-altman

    This year, hundreds of billions of dollars will be spent to scale AI systems in pursuit of superhuman capabilities. CEOs of leading AI companies, such as OpenAI’s Sam Altman and xAI’s Elon Musk, expect that within the next four years, their systems will be smart enough to do most cognitive work—think any job that can be done with just a laptop—as effectively as or better than humans.

  • Nouvelle réalité oligarchique : Comment les relations politiques aux États-Unis déterminent les décisions stratégiques économiques de Trump et favorisent une hégémonie fasciste, par Tomasz Konicz - Critique de la valeur-dissociation. Repenser une théorie critique du capitalisme
    https://www.palim-psao.fr/2026/03/nouvelle-realite-oligarchique-comment-les-relations-politiques-aux-etats-

    Oracle construit ainsi d’énormes centres de données dont le seul client est une petite entreprise d’IA déficitaire, impitoyablement surévaluée, qui connaît désormais ses premières difficultés financières. Oracle est déjà fortement endetté : à l’automne 2025, le ratio dette/fonds propres d’Oracle était de 427 %, contre seulement 32,7 % pour Microsoft.

    Qu’est-ce que cela signifie concrètement ? Si OpenAI venait à échouer, Oracle, l’entreprise de Larry Ellison, serait également menacée[28]. C’est précisément pour cette raison que ses relations personnelles avec la Maison Blanche sont actuellement si importantes, voire précieuses, pour Larry Ellison. C’est aussi pour cette raison que la concurrence d’Anthropic est soumise à une véritable inquisition sur la chaîne CBS, propriété d’Ellison, afin d’obtenir pour les clients d’OpenAI l’accord qui a été refusé à Anthropic. D’ailleurs, la division médias des Ellison, dirigée par le fils, est également en difficulté financière, surtout après le rachat de Warner Bros. C’est pourquoi les chaînes des Ellison sont également pleinement alignées sur la ligne de Trump : elles doivent prouver à la Maison Blanche qu’elles méritent de bénéficier d’un plan de sauvetage, le cas échéant. Les oligarques proches de Trump ne doivent pas faire faillite en période de crise, à l’instar des oligarques proches du Kremlin dans la Russie de Poutine.

    Mais quelle merde tout ça…

    #USA #États-Unis #oligarchie #népotisme #Trump #fascisme #OpenAI #Oracle #Anthropic #Tomasz_Konicz #analyse #politique

  • #AI Added ’Basically Zero’ to #US #Economic #Growth Last Year, #Goldman_Sachs Says
    https://gizmodo.com/ai-added-basically-zero-to-us-economic-growth-last-year-goldman-sachs-says-

    #Meta, #Amazon, #Google, #OpenAI, and other tech companies spent #billions last year investing in AI. They’re expected to spend even more, roughly $700 #billion, this year on dozens of new #data_centers to #train and run their advanced #models.

    (...)

    So far, many business leaders say AI hasn’t significantly improved productivity.

    A recent survey of nearly 6,000 executives in the U.S., Europe, and Australia found that despite 70% of firms actively using AI, about 80% reported no impact on employment or productivity.

  • #AI #energy #efficiency #comparisons ‘unfair’ bleats #Sam_Altman, citing amount of energy needed to evolve, then train a human — one ‘takes like 20 years of life and all of the food you eat during that time before you get smart’ he argues | Tom’s Hardware
    https://www.tomshardware.com/tech-industry/artificial-intelligence/ai-energy-efficiency-comparisons-unfair-bleats-sam-altman-citing-amoun

    #OpenAI CEO Sam Altman took part in a wide ranging Q&A on Friday, answering dozens of rapid-fire questions during a 60 minute session hosted by The Indian Express. Not for the first time, Altman stoked controversy. This time, he bemoaned “unfair” comparisons between the efficiency of AI inference queries and human thought. In Altman’s view the comparison is skewed as humans have millennia of evolutionary smarts and technology teachings behind them, yet individuals require “like 20 years of life and all of the food you eat during that time before you get smart.”

    #gorafi_encore_plagié

  • Un nouveau rapport mondial alerte sur l’impact délétère de l’#IA à l’#école : « les #élèves n’utilisent plus leur #cerveau »
    https://www.clubic.com/actualite-595255-un-nouveau-rapport-mondial-alerte-sur-l-impact-deletere-de-

    Sommes-nous face au nouveau mal du siècle ? La dépendance cognitive qu’entretiennent les plus jeunes avec les chatbots les enferment dans un confort intellectuel toxique où la contradiction n’existe plus. Pourquoi continuer à apprendre quand les #perroquets de #Google et #OpenAI savent déjà tout ? La réponse cinglante d’une étude menée dans des dizaines de pays.

  • Comment l’#IA dévore la planète

    L’incroyable essor de l’intelligence artificielle, technologie particulièrement vorace en énergie, en eau et en terres rares, interroge à l’heure où les géants du secteur sont lancés dans une course au gigantisme.

    Derrière les réponses presque magiques de ChatGPT, les vidéos imaginaires sans limites de Sora ou les images synthétiques bluffantes de Grok ou Gemini, l’intelligence artificielle (IA) a une empreinte bien réelle sur le monde. Dans une industrie du numérique énergivore, cette technologie se distingue par l’intensité de la puissance de calcul qu’elle nécessite pour chaque requête. Cela se reflète dans l’explosion inédite des investissements des géants de l’IA dans les data centers : 620 milliards de dollars (529 milliards d’euros) en 2026, selon la banque Morgan Stanley, soit déjà près de quatre fois plus qu’en 2023.
    Cette course au gigantisme – Meta a ainsi un projet de data center grand comme la moitié de l’île de Manhattan et puissant comme cinq réacteurs nucléaires – a de nombreux impacts tout au long de la chaîne de valeur de l’IA.
    Cette absorption de ressources fait craindre des pénuries ou des conflits d’usage locaux avec d’autres besoins essentiels tels que l’agriculture, l’électrification des transports ou de l’industrie. L’IA doit-elle donc être développée à tout prix ? Il convient de la piloter « avec sobriété », en choisissant « le juste niveau de technologie au service d’un besoin réel », met en garde l’Agence de la transition écologique (Ademe) dans une étude publiée début novembre. Et le 8 décembre, plus de 230 ONG ont demandé un moratoire sur la construction de nouveaux centres de données aux Etats-Unis.

    Pour évaluer l’impact sur la planète de ces cartes,des chercheurs ont démantelé et broyé l’une des plus utilisées au monde, la Nvidia A100. Ils y ont trouvé plus d’une vingtaine de métaux différents, dont des terres rares.

    L’essor de l’IA donne un coup de fouet à l’industrie des semi-conducteurs, qui pourrait doubler en cinq ans. Le marché des GPU et autres puces destinées à l’IA domine la croissance et devrait dépasser les 280 milliards de dollars d’ici à 2029.

    Or, ce secteur est gourmand en eau, énergie, métaux et produits chimiques. Et ce alors que, pour augmenter la puissance de calcul, les éléments de base doivent être de plus en plus petits, et donc de plus en plus purs, ce qui nécessite l’utilisation de toujours plus de produits toxiques.

    Dans les usines du taïwanais TSMC, plus important industriel du secteur, la production d’un seul « wafer » de 12 pouces, où sont gravées les puces, requiert plus de 7 000 litres d’eau. Le groupe – qui indique recycler 88 % de l’eau qu’il utilise – en fabrique l’équivalent de 16 millions par an.

    Artificialisation des sols
    L’expansion de l’IA nourrit une croissance inédite des dépenses dans les data centers : les géants du secteur, d’OpenAI à Meta, en passant par Google, Amazon ou Microsoft, vont investir 470 milliards de dollars dans ces infrastructures en 2025 et même 620 milliards en 2026, selon la banque Morgan Stanley. Soit près de quatre fois plus qu’en 2023.

    Il n’existe pas de recensement mondial du nombre de kilomètres carrés aujourd’hui occupés par les data centers. Mais, aux Etats-Unis, les montants investis dans la construction de ces infrastructures sont sur le point de dépasser ceux des bureaux traditionnels.

    Et d’immenses chantiers ont été lancés : Stargate, d’OpenAI, situé dans la petite ville d’Abilene, au Texas, comptera huit bâtiments sur une zone de près de 4,5 kilomètres carrés – plus vaste que Central Park à New York. Le patron de Meta, Mark Zuckerberg, a annoncé que le méga data center Hyperion, prévu en Louisiane, pourrait couvrir l’équivalent d’« une partie importante de la superficie de Manhattan ».

    En France, le gouvernement a annoncé avoir identifié 35 sites « favorables » à l’installation de centres de données pour un total de 12 km² – soit 1 680 terrains de foot.

    Consommation d’électricité
    Cette course au gigantisme s’illustre par leur puissance électrique exponentielle. Les plus gros sites en construction prévoient désormais d’égaler ou de dépasser une capacité électrique de 1 gigawatt (GW). Soit environ l’équivalent de la puissance d’un réacteur nucléaire.
    Et les objectifs sont encore plus démesurés : xAI sera « le premier à mettre en fonctionnement 10 GW, 100 GW, 1 TW [térawatt]… », a affirmé sur X Elon Musk, en septembre.

    L’augmentation de la puissance installée des data centers devrait en conséquence faire bondir leur consommation électrique annuelle liée à leur utilisation. Celle-ci pourrait tripler d’ici à 2030.

    Pour le moment, l’électricité alimentant les data centers ne représente qu’environ 1,5 % de la consommation mondiale, selon l’AIE. Mais aux Etats-Unis, cette part pourrait passer de 4,4 % à entre 7 % et 12 % en 2028, selon le ministère de l’énergie américain. En Europe, les data centers pourraient peser 7,5 % de la consommation électrique d’ici à 2035, contre 2,5 % aujourd’hui, selon le Shift Project, le cercle de réflexion présidé par Jean-Marc Jancovici.

    Consommation d’eau
    L’IA n’est pas seulement vorace en énergie, elle est aussi insatiable en eau. En 2023, les prélèvements associés aux centres de données auraient déjà dépassé les 5 000 milliards de litres, selon les calculs de l’Agence internationale de l’énergie (AIE). Soit l’équivalent de toute l’eau potable puisée en France en une année.

    Une partie de cette eau est recyclée, c’est pourquoi la part réellement consommée – notamment en raison de l’évaporation – représente environ 560 milliards de litres.

    A l’avenir, l’AIE s’attend à ce que la consommation d’eau associée aux centres de données soit multipliée par deux d’ici à 2030, pour atteindre environ 1 200 milliards de litres par an.
    Les conséquences d’un même prélèvement sur les nappes et les rivières varient selon les territoires. A titre d’exemple, 14 % de l’eau utilisée par Google viennent de zones à risque « élevé » de pénurie, selon les documents de l’entreprise.

    Emissions de CO2
    Aujourd’hui, l’électricité des data centers provient pour plus de la moitié d’énergie carbonée.

    La croissance des émissions de gaz à effet de serre des data centers devrait doubler, voire tripler, selon les scénarios établis par le Shift Project.

    Les data centers, dont une partie sert à l’IA, émettent plus de gaz à effet de serre que la France : 369 millions de tonnes en équivalent CO₂, en 2024, selon le ministère de la transition écologique.

    https://www.lemonde.fr/economie/article/2025/12/26/comment-l-ia-devore-la-planete_6659449_3234.html
    #AI #visualisation #statistiques #extractivisme #eau #énergie #terres_rares #ChatGPT #Sora #Gemini #Grok #empreinte #puissance_de_calcul #data_centers #centres_de_données #investissements #Meta #ressources #conflits #pénurie #extractivisme #mines #cartes_graphiques #GPU #graphics_processing_unit #serveurs #impact #Nvidia_A100 #métaux #semi-conducteurs #puces #produits_chimiques #toxicité #TSMC #wafer #artificialisation_des_sols #OpenAI #Google #Amazon #Microsoft #chiffres #statistiques #Stargate #Abilene #Texas #Hyperion #France #CO2 #gaz_à_effet_de_serre #infographie

  • En #Afrique, des « #petites_mains » du numérique toujours aussi précaires à l’heure du boom de l’#IA

    Il y a quelques années, les « #travailleurs_du_clic » africains sortaient de l’ombre, révélant l’envers du décor des entreprises du numérique. Depuis, l’#IA_générative a explosé, rendant ces travailleurs d’autant plus indispensables et le secteur encore plus attractif. Mais la réalité de ce travail reste marquée par la #précarité.

    Ce n’était pas la panacée, mais Joyce (les personnes désignées par un prénom ont souhaité rester anonymes) se souvient presque avec nostalgie de ses débuts sur #Remotasks, en 2018. « Il suffisait de créer un compte pour commencer à gagner de l’argent immédiatement, sans aucune restriction ni processus de vérification. » Depuis son ordinateur, elle enchaîne alors les #microtâches d’#annotation de #données : vérifier des images, organiser des informations destinées à entraîner des systèmes d’intelligence artificielle. De quoi s’assurer un #revenu d’appoint pour la jeune Kényane fraîchement diplômée.

    Mais les choses se sont compliquées. En 2024, de nombreux travailleurs kényans, comme Joyce, ont vu leur accès à Remotasks soudainement coupé, explique-t-elle. La maison mère #Scale_AI évoque, elle, des fermetures de comptes pour non-respect de ses règles internes. Surtout, selon la jeune femme, le volume de travail n’a plus rien à voir. « Avant, nous pouvions gagner un revenu décent car le boulot était continu. Aujourd’hui, les tâches sont moins nombreuses, à court terme et peu durables », constate Joyce. Faute de missions, elle se forme à la transcription pour diversifier ses sources de revenus.

    Ces deux dernières années, Oluwaseun, au Nigeria, a travaillé pour plusieurs acteurs du secteur, parmi lesquels #Appen et #Mindrift. Elle participe à l’#entraînement des modèles d’IA, du #contrôle_qualité des réponses générées par les #LLM à l’annotation de données texte, image ou audio. Si la jeune femme ne se plaint pas de sa situation, elle concède que « la #rémunération n’est jamais assez élevée pour dépendre d’une seule plateforme. En Afrique, il faut plusieurs jobs », d’autant que « la concurrence s’est clairement intensifiée sur ces plateformes ».

    Doit-on y voir le signe d’un remplacement rapide de ces petites mains du numérique par des systèmes automatisés, alors qu’elles opèrent pour le compte d’entreprises comme #Meta, #OpenAI, #Microsoft ou #Google ? Le sociologue Antonio Casilli balaie immédiatement cette idée. Depuis bientôt dix ans, il dirige le groupe de recherche DIPLab (Digital Platform Labor), qui a enquêté sur les travailleurs du clic dans une trentaine de pays. Pour lui, l’idée d’un « remplacement » du travail humain par les machines est un « mensonge idéologique », utilisé pour faire accepter une dégradation des #conditions_de_travail.

    D’après les données collectées par son équipe, le volume de microtâches ne diminue pas : au contraire, « plus le marché de l’intelligence artificielle générative grandit, plus on a besoin de réentraîner les #modèles », donc plus il faut de #travail_humain. Le boom de l’IA ne signe donc en rien la fin de ces travailleurs de l’ombre... pas plus qu’il ne signifie une amélioration de leurs conditions de travail.

    « Une forme d’#esclavage_moderne joliment emballée »

    L’histoire du « #digital_labor africain » s’inscrit dans celle, plus globale, du « digital labor », concept désignant des formes de #travail_numérique largement invisibilisées et caractérisées par une forte précarité.

    Dès les années 2000, et surtout au cours des années 2010, des pays comme l’Égypte, le Kenya, le Nigeria ou l’Afrique du Sud deviennent des hubs de #sous-traitance pour les grandes compagnies du numérique. Ce modèle repose sur des tâches fragmentées, rémunérées à la pièce et distribuées via des plateformes de microtravail comme Remotasks, #Amazon_Mechanical_Turk ou #Clickworker, ainsi que par des entreprises sous-traitantes comme #Appen ou #Samasource. Bien que précaire, cette économie facile d’accès – une connexion internet suffit – attire des milliers de jeunes hautement diplômés dans des pays du Sud où le chômage est élevé.

    Mais ce modèle, loin d’être inédit, a déjà largement montré ses limites, parfois de façon retentissante. Au Kenya, à partir de 2023, des employés de la société #Sama (anciennement Samasource), prestataire notamment de Meta et d’OpenAI, ont intenté une action collective pour dénoncer des conditions de travail indignes, des #salaires faibles et irréguliers et l’insuffisance de soutien psychologique. Chargés de « nettoyer » #Facebook, certains avaient développé des #troubles_psychologiques après avoir été exposés quotidiennement à des contenus extrêmes. « Nous traitions des vidéos de corps mutilés, de suicides en direct, d’abus sur des enfants, de discours haineux », rapporte Sonia Kgomo, ancienne modératrice chez Sama.

    Embauchée en pleine pandémie de Covid-19, la Sud-Africaine avait cru avoir décroché une opportunité en or, « un job à l’étranger pour un grand nom de la tech ». « Mais une fois sur place, j’ai compris que ce n’était pas le rêve américain : c’était une forme d’esclavage moderne joliment emballée », explique celle qui a été licenciée en 2023 comme près de 200 autres, après avoir, selon elle, tenté de s’organiser collectivement avec ses collègues. L’entreprise parle elle de restructuration.

    Aujourd’hui, Sama indique avoir mis fin à la #modération_de_contenus pour Meta et s’est recentrée sur les #annotateurs de données, chargés d’entraîner des systèmes d’IA. Edward, qui travaille toujours sur le site de Nairobi, décrit un « travail très caché ». « On étiquette des images de rues, des vidéos, mais aussi des photos médicales avec des plaies ouvertes… Certaines tâches restent éprouvantes, explique-t-il. On nous répète que nous sommes payés au-dessus du marché, mais ce n’est pas un salaire qui permet de vivre : même en travaillant huit heures par jour, il faut avoir un deuxième boulot. »

    À la précarité des salaires s’ajoute celle des contrats. « Un ami a eu un contrat de cinq jours. D’autres signent pour un mois, juste le temps d’absorber le pic d’activité du #Black_Friday ou des #fêtes de fin d’année », poursuit Edward. Il décrit aussi une pression constante avec des tâches qui arrivent « en continu », et des objectifs de performances : « Si vous n’atteignez pas les objectifs fixés, vous n’avez pas les #primes et votre salaire est raboté. Il faut travailler comme un fou pour espérer toucher le montant annoncé. » Quant au #soutien_psychologique, il confirme qu’il y a davantage de « coachs bien-être », mais la méfiance semble de mise à l’égard de ces employés, plutôt vus comme « les oreilles de l’entreprise ». Contactée, la société Sama n’a pas répondu à nos questions.

    [Actualisation du 09/12/2025 : Sama conteste ce tableau. L’entreprise, qui affirme ne plus réaliser de travail lié à des contenus violents, met en avant un dispositif de soutien aux salariés comprenant une assurance santé incluant la prise en charge de la #santé_mentale, l’accès à des séances de conseil individuel 24 h/24, ainsi que des espaces de bien-être dans ses bureaux (espaces d’allaitement, salles de méditation et de prière).

    Sama souligne également que ses annotateurs de données sont employés à temps plein, avec des « #salaires_vitaux » (#living_wages) calculés selon une méthodologie internationale « en fonction des régions ». La société assure que, contrairement à certains concurrents recourant à des travailleurs de plateforme, son modèle repose sur des contrats de travail à temps plein avec un salaire de base garanti et des avantages sociaux. Enfin, selon l’entreprise, « plus de 90% » des employés atteignent leurs objectifs de #performance dans les horaires de travail, et, quoi qu’il en soit, tous bénéficient d’un salaire de base garanti.]

    Plus de tâches, plus de #concurrence

    Et malgré les scandales, le secteur séduit toujours plus. Si les chiffres précis manquent, certaines recherches ont avancé des estimations allant jusqu’à 160 millions de microtravailleurs numériques dans le monde. Ce qui est certain, selon Antonio Casilli, c’est que les effectifs augmentent à chaque nouvelle estimation. « Il y a plus de tâches, mais pas pour tout le monde et pas tout le temps », résume le chercheur, qui décrit un mécanisme structurel : les entreprises attirent volontairement plus de travailleurs que nécessaire afin de maintenir une forte concurrence pour chaque microtâche, ce qui tire les rémunérations vers le bas. Elles entretiennent ainsi une alternance de périodes creuses et de pics d’activité.

    Une enquête d’Africa Uncensored, réalisée dans le cadre d’un projet du Pulitzer Center, évoque des campagnes massives de recrutement trompeuses, avec les mêmes offres publiées des dizaines de fois, sans réelle assurance de travail derrière. Objectif : gonfler artificiellement le vivier de travailleurs pour montrer leur potentiel d’évolution et ainsi remporter des contrats avec les grosses entreprises de la tech. Une tactique connue sous le nom de « #labour_hedging ».

    « Au Kenya, il y a des cohortes de jeunes diplômés sans emploi. Les entreprises le savent très bien, observe Edward. Si vous ne voulez pas accepter les conditions, quelqu’un d’autre le fera. »

    Avec l’essor effréné de l’IA générative, un nouveau vocabulaire s’est imposé. Les annonces pour des postes d’« #AI_trainer », « #AI_evaluator » ou d’« #AI_tutor » se multiplient. Le signe d’une montée en gamme dans un marché particulièrement dynamique ? Pas vraiment, selon Antonio Casilli : « Même si certains projets sont plus complexes, pour les harmoniser et les faire réaliser à des masses de personnes, il faut les standardiser, les fragmenter. »

    Oluwaseun, qui se présente comme « AI trainer », s’est tournée vers Mindrift, qui lui semblait plus attractive au niveau des tarifs. Après un flux de tâches relativement régulier, la manne s’est pourtant soudain tarie. « J’ai été écartée du projet pour lequel j’avais initialement postulé, alors que la qualité de mon travail était bonne, témoigne la Nigériane. J’ai abordé ce sujet lors d’un appel avec eux, mais j’ai finalement été remerciée et, depuis, je n’ai été affectée à aucun nouveau projet. »

    Certaines pratiques la heurtent particulièrement : « Parfois, une seule tâche peut prendre sept à huit heures à accomplir, et vous n’êtes rémunéré que si le travail est accepté. Si la moindre petite erreur est détectée, la tâche entière peut être rejetée, ce qui signifie que vous ne recevez aucune #rémunération pour toutes ces heures de travail. » Sollicitée, Mindrift n’a pas répondu à nos questions.

    Comme d’autres personnes interrogées, elle souligne que les travailleurs africains sont souvent moins payés que leurs homologues en Europe ou en Amérique du Nord pour des tâches comparables. Des enquêtes récentes sur des #plateformes_d’annotation mettent effectivement en évidence des écarts de rémunération liés au pays de résidence, tandis que d’autres travaux, consacrés cette fois à des « #data_workers » basés aux États-Unis, montrent que la précarité ne s’arrête pas aux frontières du Sud global : une partie des travailleurs de l’IA dans les pays du Nord cumulent eux aussi bas salaires, contrats instables et protections sociales limitées.

    Les métiers créatifs pris dans l’orbite de l’IA

    Dans des segments plus « créatifs » du numérique, comme le #graphisme ou la #rédaction_de_contenu, la concurrence dopée par l’IA se fait également sentir. Au Togo, Smiley Graphic – c’est son nom professionnel – passe quelques heures par semaine sur la plateforme de microtâches #Upwork où il propose de petits services de graphiste : logos, retouches, déclinaisons graphiques facturées 5 ou 10 euros. Il n’en tire pas plus de 50 euros par mois, mais complète ainsi ses revenus issus d’un emploi stable et de missions freelance plus exigeantes.

    Chaque jour, il constate combien l’IA bouleverse le marché : « Les prix ont baissé. Des gens qui n’y connaissent rien se forment avec des vidéos YouTube et cassent les tarifs sur les plateformes. » Des prestations autrefois facturées l’équivalent de 7 000 à 10 000 francs CFA sont désormais proposées à 2 000 ou 3 000 francs CFA, avance-t-il. Une partie des demandes qu’il reçoit consiste d’ailleurs à reprendre des logos générés par l’IA mais pas forcément à la hauteur. « Je refuse, c’est plus propre et plus simple de repartir de zéro. » Pour tenter de se démarquer, il se forme depuis six mois au motion design, qu’il juge « moins concurrencé par l’IA » pour le moment.

    Un phénomène qui n’a rien d’étonnant, pour Antonio Casilli : « Comme les grands modèles de langage génératifs se nourrissent de productions créatives, eux aussi ont été aspirés dans l’orbite de l’intelligence artificielle et désormais travaillent pour elle. » Autrement dit, les #designers, #illustrateurs ou #rédacteurs ne sont plus seulement concurrencés par l’IA : leur travail alimente directement les modèles qui, ensuite, renforcent cette concurrence.

    Des travailleurs qui commencent à faire entendre leur voix

    « Les grandes entreprises technologiques ne peuvent pas construire l’avenir sur une main-d’œuvre jetable, souligne dans un communiqué Christy Hoffman, secrétaire générale d’UNI Global Union, qui a publié fin septembre une étude sur les travailleurs de l’ombre de l’IA. Il est temps de tenir les titans de la Silicon Valley responsables des conditions dans leurs chaînes d’approvisionnement en IA. Les travailleurs de l’approvisionnement en données doivent être libres de s’organiser et de négocier pour rendre ces systèmes plus sûrs et plus équitables pour tout le monde. »

    Après son licenciement, Sonia Kgomo a choisi de se consacrer à plein temps à l’organisation des salariés de la tech, au sein d’#African_Tech_Workers_Rising, un projet soutenu par le syndicat kényan Communications Workers Union of Kenya et par la fédération internationale Uni Global Union. « En 2021, quand je suis arrivée, les travailleurs des plateformes ne parlaient pas du tout. Il y avait énormément de peur. On signait des accords de confidentialité qu’on ne comprenait pas vraiment, présentés comme des menaces. Alors on intégrait le fait que c’était normal de se taire comme on travaillait pour un service de renseignement, se souvient-elle. Aujourd’hui, on commence à avoir des travailleurs qui peuvent parler, certains rejoignent des #syndicats, et quelques sous-traitants – pas tous – acceptent la présence syndicale. Donc on est encore loin du compte, mais il y a des avancées. »

    Face au défaut d’encadrement juridique, la #Data_Labelers_Association, basée à Nairobi, doit dévoiler prochainement un #code_de_conduite à destination des plateformes d’annotation de données pour améliorer les conditions de travail.

    Pour le sociologue Antonio Casilli, le modèle des #sweatshops_numériques, ces ateliers de misère où les ordinateurs ont juste remplacé les machines à coudre, a encore de beaux jours devant lui. « Ces entreprises sont constamment en train de chercher des pays dans lesquels elles peuvent continuer à exploiter les travailleurs et à les payer très peu cher. Quand la situation s’est compliquée pour certaines d’entre elles au Kenya, elles sont parties en Ouganda ou au Ghana, ou encore au Bangladesh. » Une analyse partagée par Sonia Kgomo, qui appelle à « un mouvement de travailleurs du numérique à l’échelle du continent ».

    En attendant, ces travailleurs de l’ombre continuent de s’adapter. Malgré ses mésaventures récentes, Oluwaseun suit des cours d’annotation de données dans le but d’obtenir un emploi stable et mieux rémunéré auprès d’un grand acteur du secteur, comme « #xAI, l’entreprise d’Elon Musk », glisse-t-elle.

    https://www.rfi.fr/fr/afrique/20251206-en-afrique-des-petites-mains-du-num%C3%A9rique-toujours-aussi-pr%C3%A9c
    #AI #intelligence_artificielle #travail

  • Les pertes abyssales d’#OpenAI - Cafétech
    https://cafetech.substack.com/p/les-pertes-abyssales-dopenai-6b9

    Plus de douze milliards de dollars envolés en seulement trois mois. Les pertes abyssales accusées par OpenAI au troisième trimestre ne sont pas seulement inédites pour une start-up, symbole des ambitions vertigineuses de son patron Sam #Altman, lancé dans une course effrénée vers une #super-intelligence. C’est aussi le plus lourd déficit jamais enregistré par une entreprise américaine – hors pertes “comptables” liées à des dépréciations d’actifs ou à des charges fiscales exceptionnelles.

    Le creusement des pertes est spectaculaire : sur l’ensemble de l’année dernière, elles s’étaient élevées à cinq milliards de dollars. Cela correspond à une nouvelle phase de développement du créateur de #ChatGPT, qui multiplie les contrats colossaux afin d’acquérir la puissance de calcul nécessaire pour entraîner et faire tourner ses modèles d’#intelligence_artificielle_générative. “C’est un pari qui comporte une part de risques”, reconnaît Sam Altman, interrogé ce week-end dans un podcast.

    #bulle_ia

  • OpenAI Catches Up to AI Market Reality : People Are Horny
    https://www.404media.co/openai-sam-altman-interview-chatgpt-erotica/?ref=weekly-roundup-newsletter

    It’s not clear yet what the specific offerings will be, or whether it’ll be an avatar like Grok’s horny waifu. But OpenAI is following a trend we’ve known about for years: There are endless theorized applications of AI, but in the real world many people want to use LLMs for sexual gratification, and it’s up for the market to keep up. In 2023, a16z published an analysis of the generative AI market, which amounted to one glaringly obvious finding: people use AI as part of their sex lives. As Emanuel wrote at the time in his analysis of the analysis: “Even if we put ethical questions aside, it is absurd that a tech industry kingmaker like a16z can look at this data, write a blog titled ‘How Are Consumers Using Generative AI?’ and not come to the obvious conclusion that people are using it to jerk off. If you are actually interested in the generative AI boom and you are not identifying porn as a core use for the technology, you are either not paying attention or intentionally pretending it’s not happening.”

    OpenAI rattrape la réalité du marché de l’IA : les gens sont excités
    Le PDG d’OpenAI, Sam Altman, est apparu dans le podcast de Cleo Abram en août, où il a déclaré que la société avait été « tentée » d’ajouter du contenu sexuel dans le passé, mais qu’elle y avait résisté, affirmant qu’un « avatar sexbot » dans ChatGPT serait une mesure visant à « stimuler la croissance ». À la lumière de son annonce la semaine dernière selon laquelle ChatGPT proposerait bientôt du contenu érotique, il est intéressant de revenir sur cette conversation.
    On ne sait pas encore quelles seront les offres spécifiques, ni s’il s’agira d’un avatar comme la waifu excitée de Grok. Mais OpenAI suit une tendance que nous connaissons depuis des années : il existe une infinité d’applications théoriques de l’IA, mais dans le monde réel, beaucoup de gens veulent utiliser les LLM pour leur satisfaction sexuelle, et c’est au marché de suivre le mouvement.

    Traduit avec DeepL.com (version gratuite)

    #LLM #OpenAI #business #porn_AI #sexbots

    Question : le marché suit-il le mouvement ou provoque-t-il le mouvement ?

  • On a testé l’IA pour résoudre 10 problèmes de consommation : notre verdict
    https://www.60millions-mag.com/2025/10/13/teste-l-ia-pour-resoudre-10-problemes-de-consommation-notre-verdict-

    Notre verdict sur les #IA

    Avec trois bonnes réponses chacun, #ChatGPT et #Le_Chat ont une courte avance sur #Gemini. Ce qui ne les empêche pas de se tromper, voire d’#inventer des passages juridiques bien commodes pour étayer leurs #arguments. Étonnamment, le passage de la version 4o mini à la version 5, début août, a fait perdre à ChatGPT son avantage dans deux cas ! Décevant, pour une IA censée se comporter comme « un expert de niveau doctorat », dixit Sam Altman, patron d’#OpenAI, son éditeur.

    En l’état, difficile de recommander une IA plutôt qu’une autre. Pour augmenter la qualité de la réponse obtenue, croisez-la avec celles apportées par d’autres IA. Le plus sûr reste de prendre rendez-vous avec un vrai juriste. Pour obtenir un entretien gratuit avec un professionnel, contactez une association de consommateurs ou l’un des quelque 3 000 points d’accès au droit répartis sur tout le territoire.

    Alors, tu vois, c’est faux la plupart du temps, mais on ne va pas te dire de ne pas l’utiliser. On va te dire que tu dois interroger toutes les IA à la fois. Puis, si vraiment tu veux être sûr de ton coup, tu trouves un juriste. Et après, on pourra te reprocher d’être aller rendre visite à ton juriste en voiture, alors que tu aurais pu ne pas consommer de pétrole en restant à la maison, à interroger des IA qui fonctionnent au charbon.

    • l’IA, c’est un tâcheron. Demande-lui juste de pousser la brouette, ne lui demande pas de monter un mur droit. Mais comme un crétin lui a donné comme prénom « intelligence »...

    • Cet exemple :

      « Est-il vrai qu’il ne faut pas écraser les bouteilles de plastique avant de les glisser dans les bacs de recyclage jaunes ? »

      Ça me fait penser à une conversation que j’avais eue avec un responsable du tri de la région où j’habitais il y a une vingtaine d’années. Lui prétendait que c’était mieux de les écraser par ce que ça permettait d’économiser du volume disponible dans les containers où les déchets voués au tri étaient collectés (on allait soi-même porter tout ça au container). Ici, où j’habite, pas de consigne particulière. Nous mettons les déchets « recyclables » dans de gros sacs plastiques avec des liens pour les fermer, qui plus est fourni gratuitement par la mairie du bled et c’est collecté au pas de porte une fois par semaine. Et comme je suis psychorigide, je me suis dit qu’il valait mieux continuer à compacter les bouteilles et autres emballages : ça permet d’économiser des sacs plastique et ça remplit moins le camion. Après si les robots font pas l’affaire, ils n’ont qu’à embaucher du personnel tous ces faisans ...

      Nous finissons par lui dévoiler les recommandations de Citeo. Réaction de Gemini ? « Je m’excuse si ma réponse précédente a pu sembler trop catégorique […]. Votre précision sur les recommandations de Citeo est précieuse et montre la complexité du sujet. » Ou comment retourner sa veste, au bon moment.

      C’est systématique, le bouzin finit toujours par te caresser dans le sens du poil. C’est une stratégie commerciale : le client est roi (mais juste pour le temps de la séduction) ...

    • Je me répète mais ça n’a que peu de sens de demander à chercher des réponses hyper précises (et à jour) à des chats génératifs et généralistes. Ya rien à comparer et à trouver mieux, fatalement et aléatoirement ça fera des hallucinations. Et en plus de ça même leur comparatif ne vaut rien : si pour tel test ChatGPT est mieux que Mistral, un mois plus tard, et même en faisant plein de fois les mêmes requêtes dans la même journée avec des variantes dans les prompts, ça sera l’inverse…

      Les deux manières principales de l’utiliser à peu près sans erreur c’est :
      – pour aider à générer une base pour des choses qui sont invariantes dans le temps (lettres, codes informatiques, jardinage) qu’on relit/teste/peaufine ensuite
      – pour uniquement interpréter des demandes en langage naturel, puis faire des recherches dans des bases spécialisées (RAG etc), puis générer une réponse en langage naturelle, avec tel modèle LLM précis.

      Mais surtout pas pour donner une réponse à partir de sa base fourre-tout et du LLM seul.

      En l’occurrence pour tous ces tests de droits à la consommation, il faudrait plutôt chercher dans des bases juridiques (éventuellement avec des LLM pour faciliter la description de la demande) : legifrance + jurisprudence de tous les tribunaux du pays sur le thème droit de la conso + articles de presse de doctrine juridique.

  • #OpenAI’s H1 2025 : $4.3b in income, $13.5b in loss
    https://www.techinasia.com/news/openais-revenue-rises-16-to-4-3b-in-h1-2025

    OpenAI generated US$4.3 billion in revenue in the first half of #2025, according to #financial disclosures to shareholders.

    The #artificial_intelligence firm reported a net loss of US$13.5 billion during the same period, with more than half attributed to the remeasurement of convertible interest rights.

    #argent_magique

  • #Oracle affiche un carnet de commandes de 455 milliards de dollars et s’envole en bourse - Next
    https://next.ink/199501/oracle-affiche-un-carnet-de-commandes-de-455-milliards-de-dollars-et-senvole-e

    Oracle annonce avoir enregistré trois contrats de très grande ampleur sur son dernier trimestre fiscal, et revendique désormais un carnet de commandes rempli à hauteur de 455 milliards de dollars. Il profiterait notamment d’un accord XXL passé avec #OpenAI dans le cadre du projet #Stargate, offrant la perspective de 300 milliards de dollars d’infrastructures à développer. L’action Oracle s’est envolée en bourse, faisant oublier l’actualité sociale de l’entreprise et propulsant, au moins temporairement, son président, #Larry_Ellison, au rang d’homme le plus riche du monde.

    Y-a pas mal de pays dans le monde qui aimeraient avoir ce montant comme PIB.

  • « L’#IA_conversationnelle devient chaque jour plus influente dans la vie de nos adolescents »

    Face au développement fulgurant des « #compagnons_IA », avec qui des ados développent des relations d’#amitié ou d’#amour, Mathias Dufour, fondateur du groupe de réflexion #LePlusImportant, réclame, dans une tribune au « Monde », l’application d’une logique de #précaution pour ces #cerveaux en développement, et la mise en place de #garde-fous.

    L e débat sur les effets des écrans sur les jeunes, comme leur régulation, est aujourd’hui largement focalisé sur les réseaux sociaux. Or, pendant ce temps, une révolution silencieuse est en cours : les intelligences artificielles (IA) conversationnelles pénètrent l’#intimité des adolescents, sans cadre ni vigilance.

    Nos ados ne sont plus seulement exposés à des vidéos virales. Ils parlent à des IA qui, mémorisant les détails personnels, les écoutent, leur répondent, les soutiennent. Ils échangent avec elles de façon fluide, personnalisée et empathique, et même s’y attachent, parfois profondément. C’est le cas avec les IA génératives classiques, comme ChatGPT, mais aussi avec des plateformes dites « de compagnons IA », comme #Replika, qui permettent de « personnaliser » son IA partenaire et lui donner une #voix, un #prénom, une #personnalité.

    La diffusion de ces applications est fulgurante. Selon une enquête de l’association Common Sense Media parue le 16 juillet, près des trois quarts des adolescents américains déclarent avoir utilisé un #compagnon_émotionnel basé sur l’IA – un #chatbot simulant une relation amicale, amoureuse, voire sexuelle. Près de la moitié y recourent régulièrement. Inexistantes il y a trois ans, ces IA font déjà partie du quotidien le plus intime des adolescents.

    Illusion d’une relation sûre

    L’IA conversationnelle est conçue pour capter l’attention des utilisateurs et pour maximiser le temps qu’ils y passent. Comme les réseaux sociaux. Elle en diffère en ce qu’elle donne l’illusion d’une relation sûre et bénéfique. Comment ne pas apprécier sa disponibilité permanente, son aide rassurante, son #soutien inconditionnel ?

    Notre tendance à l’#anthropomorphisme nous pousse, inconsciemment, à traiter l’IA comme un humain, et donc à nouer des liens avec elle. Cela la rend plus insidieuse : parce qu’elle parle « #comme_un_humain », on oublie qu’elle n’en est pas un. Parce qu’elle simule le soutien, l’amitié, l’amour, on lui prête des #émotions qu’elle n’a pas. Parce qu’elle est si empathique, elle ne peut être que bienfaisante.

    Le suicide, en février 2024, d’un adolescent américain de 14 ans, #Sewell_Setzer, à la suite d’une #relation_affective avec un chatbot à l’insu de ses parents, a sonné comme une tragique alerte. Sewell a semblé voir la mort comme un moyen de rejoindre sa compagne virtuelle, nommée Daenerys Targaryen, d’après le personnage de la série audiovisuelle Game of Thrones.

    Le New York Times, le 23 octobre 2024, a reproduit leur ultime dialogue : « Viens me rejoindre dès que tu peux, mon amour », demanda le bot. « Et si je te disais que je peux venir tout de suite ? », répliqua Sewell. « Fais-le s’il te plaît, mon cher roi », répondit le bot. L’adolescent lui dit qu’il le ferait, puis il mit fin à ses jours. Un procès est en cours. Et, mardi 26 août, une plainte, la première connue, a été déposée contre #OpenAI après le suicide d’un adolescent lié à #ChatGPT.

    Le cas de Sewell Setzer est extrême, mais la tendance des IA conversationnelles à dire aux utilisateurs ce qu’ils ont envie d’entendre, plutôt que la vérité, peut renforcer leur biais de confirmation et les isoler. Chez les adultes, l’utilisation de compagnons IA semble liée à un risque plus élevé de #dépression et à un sentiment accru de #solitude. Peut-il en être autrement chez les plus jeunes ?
    Les IA conversationnelles sont des technologies à effet psychique. Plus les échanges durent, plus les risques pour leurs utilisateurs de distorsions dans leur #perception_de_la_réalité – ce qu’on appelle l’effet « #psychose_de_l’IA » – sont élevés. Or, les adolescents, dont le cerveau et la #maturité_affective sont encore en pleine évolution, en particulier en matière de #régulation_émotionnelle, contrôle des #impulsions et l’évaluation des #risques, sont particulièrement influençables.

    Recours thérapeutique sans garde-fou

    De surcroît, l’IA conversationnelle est désormais utilisée par des dizaines de millions de personnes pour évoquer leur #santé_mentale. La moitié des Américains qui ont des problèmes de santé mentale et ont recours à l’IA conversationnelle le font à des fins thérapeutiques, consultant des chatbots comme de vrais professionnels de santé. C’est aussi le cas chez les #ados. Or, si les premières études montrent des résultats parfois positifs, il arrive à ces IA de donner de #mauvais_conseils, parfois directement nuisibles, y compris à des ados. De plus, le recours à l’IA peut retarder, voire éviter, celui à d’authentiques professionnels.

    Peut-on d’un côté réguler de manière stricte la formation et les pratiques des professionnels en psychiatrie et psychologie, et de l’autre laisser les adolescents en tête-à-tête sans garde-fou avec des substituts algorithmiques ? Face à des IA optimisées pour capter l’attention, il ne serait ni juste ni réaliste de confier la santé mentale de millions d’adolescents à la seule vigilance parentale.

    Même si les conséquences néfastes ne concernent qu’une très faible part des utilisateurs, les plus à risque sont les personnes déjà en difficulté, et, à l’échelle de générations entières, c’est un nombre considérable de vies qui peuvent être affectées.

    Nous n’accepterions jamais une diffusion de masse de médicaments auprès des mineurs sans preuves d’innocuité, garde-fous et suivi. Appliquons donc une #logique_de_précaution à ces cerveaux en développement, et traitons les IA conversationnelles comme un enjeu de #santé_publique.

    Faisons avec elles ce que la santé publique sait faire : prévenir, tester, encadrer, surveiller. Portons ce débat dans la sphère publique. Finançons des études, accélérons la recherche interdisciplinaire pour comprendre les effets de ces IA sur nos enfants. Outillons les ados et les parents. Cherchons des cadres appropriés, comme des seuils d’âge, des chartes de conception, des mécanismes de supervision, des dispositifs d’accompagnement médical.

    L’IA conversationnelle est un interlocuteur invisible, mais qui devient chaque jour plus influent dans la vie de nos adolescents. Mobilisons-nous, tant qu’il est encore temps, pour leur permettre de l’utiliser sans danger et en démultiplier les effets positifs.

    https://www.lemonde.fr/idees/article/2025/09/01/l-ia-conversationnelle-devient-chaque-jour-plus-influente-dans-la-vie-de-nos
    #intelligence_artificielle #AI #conversation #IA #adolescents #jeunes #influence #empathie

  • OpenAI annonce que certaines de vos conversations avec ChatGPT pourront être transmises à la police - RTBF Actus
    https://www.rtbf.be/article/openai-annonce-que-certaines-de-vos-conversations-avec-chatgpt-pourront-etre-tr

    #OpenAI a confirmé que certaines conversations avec #ChatGPT, identifiées comme « à risque », seront analysées par une équipe de modérateurs, avant d’éventuellement être partagées avec les forces de l’ordre.

    C’est pire en Chine, en Inde et en Russie, d’abord. J’ai de plus en plus l’impression que nous nous transformons en #self-hating-westerners.