• »L’intelligence artificielle est d’abord un nom marketing«
    https://actualitte.com/article/122542/salons-festivals/l-intelligence-artificielle-est-d-abord-un-nom-marketing

    De son côté, Tariq Krim, avec son approche d’acteur du secteur, l’affirme sans ambages : « L’Intelligence artificielle est d’abord un nom marketing. » Il partage une anecdote, afin de mieux expliciter son idée : « Un autre nom a été très usité un temps, la cybernétique, soit l’étude des systèmes de régulation et de communication chez les êtres vivants et les machines. Le père fondateur de la notion est le mathématicien Norbert Wiener. Un jour à Brooklyn, je rencontre Marvin Minsky, l’un des pionniers de l’intelligence artificielle. Au fil de notre conversation, il m’explique que tous les collègues de Norbert Wiener ne pouvaient pas le souffrir. Alors au moment de porter une conférence, ils se sont dits que s’ils mentionnaient la cybernétique, il va vouloir venir, alors ils ont trouvé ce nom d’intelligence artificielle... »

    Pour celui qui a passé de nombreuses années à la Silicon Valley, l’IA constitue une science, mais aussi une technique, ou dit autrement de la bidouille, et enfin un art. Charles Baudelaire, qui voyait dans l’artificiel une sublimation plutôt qu’un simple travestissement du réel, y discernait l’expression du génie humain et du raffinement civilisateur.

    #Intelligence_artificielle #IA #Marketing #Tarik_Krim

  • L’Espagne serre la vis sur l’IA : jusqu’à 35 millions d’euros d’amende pour les entreprises fautives
    https://siecledigital.fr/2025/03/13/lespagne-serre-la-vis-sur-lia-jusqua-35-millions-deuros-damende-pour-l

    L’#Espagne franchit un cap décisif dans l’encadrement de l’#intelligence_artificielle. Un projet de loi inédit prévoit des sanctions sévères pour les entreprises ne signalant pas correctement les #contenus #générés par #IA. Les contrevenants risquent jusqu’à 35 millions d’euros d’amende, ou 7 % de leur chiffre d’affaires mondial annuel.

  • AI: The New Aesthetics of Fascism
    https://newsocialist.org.uk/transmissions/ai-the-new-aesthetics-of-fascism

    Le dernier turing test : plus con tu meurs.
    Ah, t’es une machine ? Alors je dois présenter mes excuses.

    February 9, 2025 by Gareth Watkins - It’s embarrassing, destructive, and looks like shit: AI-generated art is the perfect aesthetic form for the far right.

    Tommy Robinson tweets an image of soldiers walking into the ocean on D-Day. Britain First’s co-leader produces imagery of Muslim men laughing at sad white girls on public transport. An AI-generated song combining kitsch schlager pop with crude racial stereotypes makes it into the German top fifty and becomes number three on Spotify’s global viral chart. Benjamin Netanyahu conjures a vision of an ethnically-cleansed Gaza connected by bullet train to the equally ephemeral Neom. Keir Starmer’s Labour Party posts, then is forced to take down, a video of its policies as embodied by anthropomorphic animals. A few days later, they promised to “mainline AI into the veins” of Britain.

    The right loves AI-generated imagery. In a short time, a full half of the political spectrum has collectively fallen for the glossy, disturbing visuals created by generative AI. Despite its proponents having little love, or talent, for any form of artistic expression, right wing visual culture once ranged from memorable election-year posters to ‘terrorwave’. Today it is slop, almost totally. Why? To understand it, we must consider the right’s hatred of working people, its (more than) mutual embrace of the tech industry and, primarily, its profound rejection of Enlightenment humanism. The last might seem like a stretch, but bear with me.

    The first point is the most obvious. ‘AI’ – as embodied by large language models like ChatGPT, and largely diffusion-based image generators like DALL-E and Midjourney – promises to make anyone who can write a single-paragraph prompt into a copywriter or graphic designer; jobs generally associated with young, educated, urban, and often left-leaning workers. That even the best AI models are not fit to be used in any professional context is largely irrelevant. The selling point is that their users don’t have to pay (and, more importantly, interact with) a person who is felt to be beneath them, but upon whose technical skills they’d be forced to depend. For relatively small groups like Britain First, hiring a full-time graphic designer to keep up with its insatiable lust for images of crying soldiers and leering foreigners would clearly be an unjustifiable expense. But surely world leaders, capable of marshalling vast state resources, could afford at the very least to get someone from Fiverr? Then again, why would they do even that, when they could simply use AI, and thus signal to their base their utter contempt for labour?

    For its right wing adherents, the absence of humans is a feature, not a bug, of AI art. Where mechanically-produced art used to draw attention to its artificiality – think the mass-produced modernism of the Bauhaus (which the Nazis repressed and the AfD have condemned), or the music of Kraftwerk – AI art pretends to realism. It can produce art the way right wingers like it: Thomas Kinkade paintings, soulless Dreamworks 3D cartoons, depthless imagery that yields only the reading that its creator intended. And, vitally, it can do so without the need for artists.

    Javier Milei, a prodigious user of AI-generated art, wants Argentinians to know that any of them could join the 265,000, mostly young people who have lost jobs as a result of the recession that he induced, to the rapturous praise of economic elites. He wants to signal that anyone can find themselves at the wrong end of his chainsaw, even if doing so means producing laughably bad graphics for the consumption of his 5.9 million deeply uncritical Instagram followers.

    Companies can’t launch a new AI venture without their customers telling them, clearly, “nobody wants this.”

    On the subject of Instagram, anyone old enough to read this will also be old enough to remember when Mark Zuckerberg, and by extension the rest of Silicon Valley, was broadly perceived as liberal. ‘Zuck’ was even touted as the only presidential candidate who could beat Donald Trump. (It’s worth noting that as Zuckerberg has drifted to the right he has also started dressing badly, a fact which we will return to later.) But even Zuck can’t make AI happen. The weird AI-powered fake profiles that Meta deployed in 2023 were quietly mothballed six months later, and would have disappeared from history completely, had Bluesky users not found some that had escaped deletion. This appears to be the fate of all commercial AI projects: at best, to be ignored but tolerated, when bundled with something that people actually need (cf: Microsoft’s Co-pilot); at worst, to fail entirely because the technology just isn’t there. Companies can’t launch a new AI venture without their customers telling them, clearly, “nobody wants this.”

    And yet they persist. Why? Class solidarity. The capitalist class, as a whole, has made a massive bet on AI: $1 trillion dollars, according to Goldman Sachs – a figure calculated before the Trump administration pledged a further $500 billion for its ‘Project Stargate’. While previous bets on the Metaverse and NFTs didn’t pay off, their bet on cryptocurrency has paid off spectacularly – $3.44 trillion dollars, at the time of writing, have been created, effectively out of thin air. All of the above technologies had heavy buy-in from the political right: Donald Trump co-signed an NFT project and a memecoin; the far-right, shut out of conventional banking, uses cryptocurrency almost exclusively. This isn’t just about utility, it’s about aligning themselves with the tech industry. The same is true of their adoption of AI.

    OpenAI is unable to make money on $200 subscriptions to ChatGPT. Goldman Sachs cannot see any justification for its level of investment. Sam Altman is subject to allegations of sexually abusing his sister. ‘Slop’ was very nearly word of the year. And then, to top it all off, the open-source DeepSeek project, developed in China, wiped $1 trillion off the US stock market overnight.

    In other words, the AI industry now finds that it needs all the allies it can get. And it can’t afford to be picky. If the only places that people are seeing AI imagery is @BasedEphebophile1488’s verified X account – well, at least it’s being used at all. The thinking seems to be that, if it can hang on long enough in the public consciousness, then, like cryptocurrency before it, AI will become ‘too big to fail’. Political actors like Tommy Robinson won’t be the ones to make that call, but they can normalise its use, and Robinson certainly moves in the digital circles of people who can offer the AI industry far more concrete help. Just as we might donate to a GoFundMe, the capitalist class will provide mutual aid in the form of billions in investment, adding AI to their products, and attempting to normalise AI by using it. This process of normalisation has led to the putatively centre-left Labour government pledging vast sums to AI infrastructure. If one of the key features of the Starmerite tendency is their belief that only conservative values are truly legitimate, their embrace of AI and its aesthetics may be part of this.

    The capitalist class will provide mutual aid to the AI industry in the form of billions in investment, adding AI to their products, and attempting to normalise AI by using it.

    We have seen how sensitive the tech industry’s leaders are to criticism. Marc Andreessen’s techno-optimist manifesto, when not conferring sainthood upon deeply evil figures like Nick Land, largely consists of its writer begging the world to love him. Mark Zuckerberg’s recent interview with Joe Rogan featured lengthy sections on how he does not feel validated by the press and governments. Just as when they reach out to ‘cancelled’ celebrities, the right is now proactively creating an alliance with the tech industry by communicating that, even if they can’t materially support companies like OpenAI, they can at least offer emotional support. We may all be good materialists, but we can’t underestimate the effects that non-material support has in creating networks within capital.

    No amount of normalisation and ‘validation’, however, can alter the fact that AI imagery looks like shit. But that, I want to argue, is its main draw to the right. If AI was capable of producing art that was formally competent, surprising, soulful, then they wouldn’t want it. They would be repelled by it.

    There was a time when reactionaries were able to create great art – Dostoyevsky, G.K Chesterton, Knut Hamsun, and so on – but that time has long passed. Decades of seething hatred of the humanities have left them unable to create, or even think about, art. Art has always been in a dialectical push and pull between tradition and the avant garde: ‘art is when there is a realistic picture of a landscape, or a scene from Greek mythology’ versus ‘a urinal can be art if an artist signs it’. The goal of the avant-garde, as their name suggests, has been to expand art’s territory, to show that Rothko’s expanses of colour, or Ono’s instructional paintings, can do what Vermeer’s portraits can, and do it just as well. There was even a time when the right partook in this, the Italian Futurists being a prime example. There were, at one point, writers like Céline and artists like Wyndham Lewis, who not only produced great work, but developed and pushed forward the avant-garde styles of their day. Are there any serious artists on the right today who do not parlay in nostalgia for some imagined time before art was ‘ruined’ by Jews, women, and homosexuals? Perhaps only Michel Houellebecq, and he is long past his two-book prime.

    The right wing aesthetic project is to flood the zone with bullshit in order to erode the intellectual foundations for resisting political cruelty.

    Art has rules – like the rules of the physical universe they are sufficiently flexible to allow both Chopin and Merzbow to be classed as music, but they exist, and even internet memes are subject to those rules. The most burnt-out shitpost is still part of a long tradition of outsider sloganeering stretching back through 60s comix to Dada and Surrealism. They aren’t nothing, and if they’re ugly then, often, they’re ugly in an interesting, generative way. A person made them ugly, and did so with intent. No matter how deeply avant-garde art has engaged in shock and putative nihilism, no artist, to my knowledge, has ever made art with the sole aim of harming the already vulnerable. Even the most depraved Power Electronics acts or the most shocking performances of the Viennese Actionists had something more to them than simply causing suffering for its own sake. Andy Warhol’s mass-produced art did not create enjoyment by enabling its viewers to imagine their class enemies being made unemployed. Those are the goals of AI art, and that is why it resonates with the right.

    If art is the establishing or breaking of aesthetic rules, then AI art, as practiced by the right, says that there are no rules but the naked exercise of power by an in-group over an out-group. It says that the only way to enjoy art is in knowing that it is hurting somebody. That hurt can be direct, targeted at a particular group (like Britain First’s AI propaganda), or it can be directed at art itself, and by extension, anybody who thinks that art can have any kind of value. It can often be playful – in the way that the cruel children of literary cliché play at pulling the wings off flies – and ironised; Musk’s Nazi salute partook of a tradition of ironic-not-ironic appropriation of fascist iconography that winds its way through 4Chan (Musk’s touchpoint) and back into the countercultural far right of the 20th century.

    AI imagery looks like shit. But that is its main draw to the right. if AI was capable of producing art that was formally competent, surprising, soulful, they wouldn’t want it.

    I would not be the first to observe that we are in a new phase of reaction, something probably best termed ‘postmodern conservatism’. The main effect of this shift has been to enshrine acting like a spoilt fifteen-year-old boy as the organising principle of the reactionary movement. Counter-enlightenment thought, going back to Burke and de Maistre, has been stripped of any pretence of being anything but a childish tantrum backed up by equally childish, playground-level bullying. It is, and has always been, “irritable mental gestures which seek to resemble ideas,” and to ‘post-liberal’ ‘intellectuals’, that is in fact a good thing – if anything, they believe, the postmodern right needs to become more absurd; it needs to abandon Enlightenment ideals like reason and argumentation altogether.1 The right wing intellectual project is simply to ask: ‘what would have to be true in order to justify the terrible things that I want to do?’ The right wing aesthetic project is to flood the zone – unsurprisingly, given their scatological bent, with bullshit – in order to erode the intellectual foundations for resisting political cruelty.

    Truth does not set you free. Once you know that 2+2=4, that the capital of the Netherlands is The Hague and not Amsterdam, or that immigration is a net economic positive for Britain, then you are forever bound to that truth. Your world has become, in some respects, smaller, your options diminished. If it would be more enjoyable – because this is, at the end of the day, about enjoyment – to create your own truth then you are out of luck. Combine truths with a concern for human life and thriving, and suddenly rules start to proliferate: we have established the truth that heating milk reduces the bacteria and viruses in it that can harm human beings, which is undesirable to us, therefore we must heat all milk that is sold. A lot of people are fine with this, accepting small impositions on their freedom in the name of the greater freedom from disease. Some are not.

    There is no reason, of course, that any rule made in the name of Enlightenment humanism should be necessarily good: liberal politics, Labour’s current mania for austerity, or the interminable justifications for the Iraq war, are often framed as being based on reason and humanism while being anything but. If you’ve been subject to computer-says-no rules governing your access to the basic necessities of life, then you’ll know how easy it is to disguise arbitrary and highly politicised whims as laws of nature, as ironclad as A = π r². The application of rationality and compassion in the real world brings to mind the (likely apocryphal) Ghandi quote about Western civilisation: “I think it would be a good idea.”

    The right is a libidinal formation; it is, for many of its proponents, especially those who aren’t wealthy enough to materially benefit from it, a structure in which to have fun. A hobby, almost. Sartre’s injunction to remember that antisemites are primarily “amusing themselves”2 is true of most – perhaps all – right wing discourse, no matter how serious it seems or how terrible its real-world effects. As such, the right are strongly averse to any sort of reality-testing. It is, to them, beside the point whether anything they say stands up to the tests developed by the sciences and humanities, including those which determine (insofar as such a determination can be made) whether a piece of art is ‘good’, or at least serious. When they do invoke objectivity, it is misplaced, and as deeply naïve as their artistic output, premising their objection to the existence of trans people on ‘basic biology’, when not only can biology not define ‘woman’, it is having difficulty deciding what a fish or vegetable is. Serious engagement with the world as it is – with the facts that emphatically don’t care about your feelings – doesn’t often, if ever, yield the simple explanations that the right require. In the face of this complexity, most people will conclude that it is best to be humble: What is a woman? No idea, don’t really care, but let’s act in a way that causes the least suffering. But the right seem incapable of doing this. Despite all their absurdist posturing, they struggle to come to terms with a contradictory world that does not conform to their pre-decided categories. They want to assert, simultaneously, that unambiguous laws govern all aspects of being, while acting as though ‘truth’ is whatever they want or need it to be at any given moment.

    Despite all their absurdist posturing, the right struggle to come to terms with a contradictory world that does not conform to their pre-decided categories.

    Gender revanchism is one of the main organising principles of the postmodern right, and much everyday AI usage demonstrates a particularly gendered form of cruelty: deepfake nudes, AI ‘girlfriends’ used as a rhetorical cudgel to show real women that they are being replaced, AI ‘art’ of Taylor Swift being sexually assaulted. It’s no coincidence that the internet’s largest directory of deepfakes uses Donald Trump as a mascot. These attitudes are reflected in the upper echelons of the tech and AI industry. OpenAI CEO Sam Altman – the man we are being told is a generational talent, a revolutionary, on a par with Steve Jobs or Bill Gates – is also, allegedly, a rapist and paedophile, who considered his own sister his sexual property since she was three years old, and who responded to allegations by lamenting that “caring for a family member who faces mental health challenges is incredibly difficult.” A love of sexual violence is a key part of the identity of the contemporary right, and it is no coincidence that, the further right one goes, the more likely one is to encounter open celebration of rape and, particularly, paedophilia. Altman’s legal trouble will, for many on the right, only confirm that he is one of them. Meanwhile, on the Joe Rogan podcast, Mark Zuckerberg described the tech industry as “culturally neutered” and called for more “masculine energy” and “aggression”.

    Let’s return to Zuckerberg’s clothing. It was he that established the ubiquitous ‘grey hoodie’ style for tech CEOs. But recently he has begun to exhibit a new style. Oversized t-shirts emblazoned with ‘It’s either Zuck or Nothing’ in Latin, the unwieldy lines of his Meta AI glasses, a gaudy and unnecessary gold chain. This isn’t taking risks with fashion, like Rick Owens or Vivienne Westwood. It’s just ugly and stupid. Zuckerberg is also significantly more muscular than he used to be, despite doing nothing in his life that would seem to require a bodybuilder physique. I don’t think that it’s a coincidence that, as he embraces corporate incelism and AI, he has felt liberated to ignore what does and doesn’t look good, choosing instead to display that he is wealthy and powerful enough to look terrible if he wants. All the emperor has to do, when the child laughs at his nudity, is ignore them. Trump’s haircut, which we all seem to have become inured to, serves the same purpose. It looks like shit and that’s the point. It is a display of power and a small act of cruelty.

    The Cybertruck – itself a work of anti-art that could only be the product of a mind addled by the far right – failed, largely because it is embarrassing to be seen in one.

    AI is a cruel technology. It replaces workers, devours millions of gallons of water, vomits CO2 into the atmosphere, propagandises exclusively for the worst ideologies, and fills the world with more ugliness and stupidity. Cruelty is the central tenet of right wing ideology. It is at the heart of everything they do. They are now quite willing to lose money or their lives in order to make the world a crueller place, and AI is a part of this – a mad rush to make a machine god that will liberate capital from labour for good. (This is no exaggeration: there is a lineage from OpenAI’s senior management back to the Lesswrong blog, originator of the concept of Roko’s Basilisk.) Moreso even than cryptocurrency, AI is entirely nihilistic, with zero redeeming qualities. It is a blight upon the world, and it will take decades to clear up the mountains of slop it has generated in the past two or three years.

    AI is, unfortunately, a fever that will have to burn itself out. It may be the case that, like cryptocurrency, elites are simply so invested in this technology that, despite its total lack of utility, they will keep trying to make it happen. Given how great a fit it is for them psychologically, I would say that this is more likely to happen than not. However, as we saw in those two brief weeks of last year’s US election campaign, the right wing psyche is incredibly fragile. For some reason, they are able to process any inversion of empirical reality, but are acutely sensitive to being laughed at. Calling them weird absolutely works, and telling them their sole artistic output looks like shit also works. Laughing at people who treat AI art as in any way legitimate works. Talking about AI’s environmental impact or its implications for the workforce will not work - they like that, it makes them feel dangerous. Instead of talking about taking money from artists, talk about how it makes them look cheap. If hurting and offending people is part of the point, then we can take that fun away from them by refusing to express hurt or offence, even if we feel it.

    Technological progress isn’t linear, and it’s not wholly undemocratic. We, ordinary people, stopped Google Glass from being widely released because we mocked its users, calling them ‘glassholes’. The Cybertruck – itself a work of anti-art that could only be the product of a mind addled by the far right – failed, largely because it is embarrassing to be seen in one. We have already seen that the AI industry is vulnerable – it was possible for Chinese grad students to build the same thing for a fraction of the price, calling into question the entire model of growth through massive investment in data centres. The left is powerless across much of society, but a training in ruthless criticism of all that exists has made us masters of negativity, while always keeping one eye on the better world that is possible when the slop has been cleared away. Our most effective weapons against AI, and the right wing that has adopted it, may not be strikes, boycotts or the power of dialectics. They might be replying “cringe,” “this sucks,” and “this looks like shit.”

    #intelligence_artificielle #esthétique #fascisme

  • AI myths

    With every genuine advance in the field of ‘artificial intelligence,’ we see a parallel increase in hype, myths, misconceptions and inaccuracies. These misunderstandings contribute to the opacity of AI systems, rendering them magical, inscrutable and inaccessible in the eyes of the public.

    https://www.aimyths.org
    #déconstruction #mythe #idées-reçues #AI #IA #intelligence_artificielle #fact-checking

  • ‘I hope this isn’t for weapons’ : How Syrian #data_workers train AI

    The development and training of AI systems depend on hundreds of millions of data workers. Many of them are situated or displaced from the Global majority, and are generally kept in the dark on how the data they produce will be used.

    I met Fatma in June 2019 in Sofia, Bulgaria. Four years prior, she had been forced to leave her home in Aleppo with her whole family: her mother, father, older brother, and two younger siblings. Fatma was 17 when her parents paid the equivalent of nine thousand euros to men who smuggled the seven family members in the back of a van across landscapes and borders, until reaching Finland via Sofia. The smugglers had promised a house and a car in Finland for the sum paid, but this promise went unfulfilled. Instead, after six months, Fatma’s family was deported to Bulgaria because their “fingerprints were registered in Sofia first.” “We lost everything to have a good life because our lives were in danger,” she lamented. “Were they in danger because of the war?” I asked. “It was personal,” she replied cryptically.

    Fast forward to 2019, and Fatma, now 21, was living with her family in a refugee camp in the Bulgarian capital. While assisting her father at the camp’s hairdressing salon, she also worked part-time for the data-labeling company where I was conducting fieldwork. Interestingly, she was recruited by the company at the refugee camp. Following initial training in “digital skills” and English, Fatma was ready to assume her role as a data worker. During our initial conversation, she was at the company’s office, seated alongside Diana, another Syrian asylum seeker who was engaged in labeling images of people based on race, age, and gender. In contrast, Fatma was immersed in a project that involved satellite images and semantic segmentation—a critical task for computer vision that involves the meticulous separation and labeling of every pixel in an image. This form of data work holds particular importance in generating training data for AI, especially for computer vision systems embedded in devices such as cameras, drones, or even weapons. Fatma explained that the task basically consisted of separating “the trees from the bushes and cars from people, roads, and buildings.” Following this segmentation, she would attach corresponding labels to identify each object.
    Data Work Requires Skill

    Explained in this manner, the work might seem trivial and straightforward. Such tasks fall under what is known as microwork, clickwork, or, as I refer to it, data work. This constitutes the labor involved in generating data to train and validate AI systems. According to the World Bank, there are between 154 million and 435 million data workers globally, with many of them situated in or displaced from the World Majority. They often work for outsourcing platforms or companies, primarily as freelancers, earning a few cents per piece or task without the labor protections, such as paid sick leave, commonly found in more traditional employment relationships. Data workers generate data through various means that range from scraping information from the internet to recording their voices or uploading selfies. Similar to Fatma, they frequently engage in labeling tasks. Additionally, data workers may contribute to algorithm supervision, such as rating the outputs of recommender systems on platforms like Netflix or Spotify and assessing their usefulness, appropriateness, and toxicity. In other instances, data workers might be tasked with plainly impersonating non-existing AI systems and be instructed to “think like a robot” while pretending to be a chatbot, for instance.

    Despite its crucial role in the development and maintenance of AI technologies, data work is often belittled as micro or small, involving only a few clicks, and dismissed as low-skill or blue-collar. In fact, the platform Clickworker, a prominent provider of on-demand data work, claims on its website that “the tasks are generally simple and do not require a lot of time or skill to complete.” However, this assertion is inaccurate. During my fieldwork in Bulgaria, for instance, I attempted to segment and label satellite imagery, finding it extremely challenging. The work demands precision when drawing polygons around different objects in the pictures, which is also strenuous on the eyes and hands. Moreover, it requires contextual knowledge, including an understanding of what vegetation and vehicles look like in specific regions. Following the segmentation and labeling process by Fatma and her team, a rigorous quality check is conducted by a woman in the client’s company. Fatma’s manager in Bulgaria mentioned that the quality control person was “remarkably fast with the quality check and feedback” and added, “She’s able to do this quickly because she knows the images and the ground.” While taking note of this, I wondered how well the quality controller knows the ground. Does she come from the area where these images were taken? Is she, like Fatma, a refugee? Has her displacement been leveraged as expertise?

    I asked Fatma if the satellite images she was working on could be of Syria. She said she thought the architecture and vehicles looked familiar. Staring at the screen, she whispered, “I hope this isn’t for weapons.” Neither she nor I could be certain.
    The Known and the Unknown

    Fatma’s fear of the satellite images being used for AI weapons is not unfounded. The proliferation of autonomous drones and swarm technologies has experienced exponential growth in recent years, facilitated by the integration of AI in reconnaissance, target identification, and decision-making processes. Illustrating a poignant example, facial recognition technologies have been utilized to uphold the segregation and surveillance of the Palestinian people, while automated weapons have played a crucial role in the ongoing genocide in Gaza. Companies like the Israeli SmartShooter boast about their lethal capabilities with the slogan “One Shot, One Hit.”

    Surveillance drones, predictive analytics, and decision support systems are utilized for strategic planning in “threat anticipation” and real-time monitoring along border regions. For instance, the German Federal Office for Migration and Refugees (BAMF) employs image biometrics for identity identification and voice biometrics for dialect analysis to ascertain asylum seekers’ country of origin and evaluate their eligibility for asylum. This system purportedly recognizes dialects of Arabic, Dari, Persian/Farsi, Pashto, and Kurdish. As revealed by BAMF in response to a query initiated by German MPs, data workers subcontracted through the platform Clickworker (the same platform that claims tasks are simple and low-skill) participated in producing the voice samples required to develop the system.

    Fortunately, the data company in Bulgaria has a strong policy in place to reject requests related to warfare technologies. Fatma’s manager explained that “we have rejected projects related to (…) training artificial intelligence for different types of weapon applications. So, I felt that this really did not fit with our social mission, and when I responded to the client, I said that we’re working with conflict-affected people, and that’s why (…) But it was also a kind of boycott of such projects to be developed at all.” She added that the satellite imagery labeled by the team had been commissioned by a central European firm developing autonomous piloting systems for air transportation, not weapons. This information correlates with the client’s website. However, the website also states that their technology is additionally used for unmanned aerial vehicles (UAV), commonly known as drones, with applications including surveillance.
    Workers’ Ethical Concerns

    Privacy infringements and the potential for discriminatory profiling are among the most obvious concerns related to AI systems applied to border surveillance and warfare. Despite these risks disproportionately affecting their own communities, sometimes with lethal consequences, most data workers are kept in the dark concerning the ultimate purpose of the data they contribute to producing. The outsourcing of data work to external organizations, often situated far away from the requesters’ geographical location, complicates workers’ efforts to navigate the intricate supply chains that support the AI industry. Instructions given to data workers seldom provide details about the requester or the intended use of the data. Consequently, most data workers do not know the name and nature of the companies seeking their services, the products that will be trained on the datasets they generate, or the potential impacts of these technologies on individuals and communities. AI companies frequently rationalize the veil of secrecy as a means of safeguarding their competitive edge.

    The fact that data workers are integrated into industrial structures designed to keep them uninformed and subject to surveillance, retaliation, and wage theft does not mean that they do not have ethical concerns about their work and the AI applications it supports. In fact, there have been instances where data workers have explicitly alerted consumers to privacy-related and other ethical issues associated with the data they generate. For example, in 2022, Venezuelan data workers reported anonymously that Roomba robot vacuum cleaners capture pictures of users at home, which are then viewed by human workers.

    Amid the COVID-19 pandemic in 2021, I piloted a workshop series with fifteen data workers, this time located in Syria. The three-day event was designed to understand work practices and relationships in geographically distributed data-production contexts, creating a space for workers to discuss concerns. The workshop activities revealed that receiving information and having spaces to voice and discuss the ethical implications of the data they handle were of the utmost importance to the workers. They worried about the protection of data subjects’ privacy and advocated for a mandatory clause that would compel requesters to disclose the intended uses of the data. Additionally, the workers expressed concerns about the mental health implications of working with violent, offensive, or triggering data.

    Data workers possess a unique vantage point that can play a crucial role in the early identification of ethical issues related to data and AI. Encouraging consumers and society at large to align with them in advocating for increased transparency in the AI data production pipeline is essential. Workers like Fatma and her colleagues could offer valuable insights into the utilization of satellite images for surveillance technologies, for instance. Similarly, the native speakers who contributed their voices to generate audio snippets for dialect recognition may shed light on the applications of such systems against asylum seekers in Germany.

    Unfortunately, the challenge lies in the fact that the AI industry, for evident reasons, has structured its production processes for data workers to function more as silent tools than as whistleblowers.

    https://untoldmag.org/i-hope-this-isnt-for-weapons-how-syrian-data-workers-train-ai
    #travailleurs_de_données #entraînement #IA #AI #intelligence_artificielle #éthique #réfugiés #dublinés #camps_de_réfugiés #segmentation #travail #algorithmes #images_satellitaires #labeling #armes #armement #drones #voix #profiling #contrôles_frontaliers

  • ChatGPT : le mythe de la productivité
    https://framablog.org/2025/03/09/chatgpt-le-mythe-de-la-productivite

    Avec ChatGPT, le but de l’écriture c’est de remplir une page, pas de réaliser le processus de réflexion qui l’accompagne. C’est justement tout l’inverse dont nous avons besoin !

    #Enjeux_du_numérique #Intelligence_Artificielle #Claviers_invités #Dans_les_algorithmes #hubert_guillaud #Intelligence_articielle

  • Les IA génératives ou la pensée en bouillie
    https://academia.hypotheses.org/60577

    Deux billets d’humeurs piquants au sujet des IA génératives écrits par des universitaires nord-américains ont été publiés ces derniers jours. Le premier, par le philosophe et poète Troy Jollmore, intitulé “Autrefois, mon métier était d’enseigner à des étudiant.e.s. A présent, … Continuer la lecture →

    ##ResistESR #En_partage #Lectures_/_Readings #Libertés_académiques_:_pour_une_université_émancipatrice #Pratiques_pédagogiques #Chatgpt #Intelligence_artificielle

  • Panoptique pour tous
    https://laviedesidees.fr/Felix-Treguer-Technopolice

    L’essor des technologies de #surveillance redéfinit l’approche sécuritaire sous l’influence d’enjeux économiques. Partout où elle s’installe, cette surveillance dopée aux #nouvelles_technologies soulève la question de dérives liberticides.

    #Histoire #renseignement #police #intelligence_artificielle
    https://laviedesidees.fr/IMG/pdf/20250305_technopolice-2.pdf

  • Les mythes de l’IA
    https://framablog.org/2025/03/02/les-mythes-de-lia

    Les discours autour de l’IA produisent des mythes qui influencent notre compréhension de ce qu’elle est, produisant une perception confuse de leur réalité… pour mieux influer les transformations légales à venir.

    #Enjeux_du_numérique #Intelligence_Artificielle #Claviers_invités #Dans_les_algorithmes #hubert_guillaud #Intelligence_articielle

  • Les sacrifiés de l’IA

    Magiques, autonomes, toutes puissantes : les intelligences artificielles nourrissent les rêves comme les cauchemars. Tandis que les géants de la tech promettent l’avènement d’une nouvelle humanité, la réalité de leur production reste totalement occultée. Pendant que les data centers bétonnent les paysages et assèchent les rivières, des millions de travailleurs à travers le monde préparent les milliards de données qui alimenteront les algorithmes voraces des Big Tech, au prix de leur #santé mentale et émotionnelle. Seraient-ils les dommages collatéraux dommages collatéraux de l’idéologie du « long-termisme » qui couve dans la Silicon Valley depuis quelques années ?

    https://www.youtube.com/watch?v=zGvcvK1S22I&t=9s


    https://www.france.tv/documentaires/documentaires-societe/6888928-les-sacrifies-de-l-ia.html

    #film #documentaire #film_documentaire #IA #AI #intelligence_artificielle #travail #petites_mains #conditions_de_travail #dépression

  • L’AFP riposte contre les images truquées et l’IA, avec une solution imparable qui trace l’origine des photos
    https://www.clubic.com/actualite-553803-l-afp-riposte-contre-les-images-truquees-et-l-ia-avec-une-s
    https://pic.clubic.com/v1/images/2278611/raw

    Pour lutter contre la prolifération des images truquées, l’Agence France-Presse (AFP) dévoile une solution innovante qui certifie l’authenticité de ses photos. Il s’agit d’un filigrane invisible, testé avec succès lors des élections américaines.
    L’AFP a trouvé la solution pour prouver que ses photos et vidéos sont bien authentiques © Q world / Shutterstock.com
    L’AFP a trouvé la solution pour prouver que ses photos et vidéos sont bien authentiques © Q world / Shutterstock.com

    L’intelligence artificielle générative et la multiplication des images synthétiques peuvent mettre à mal la provenance de l’information, dont l’Agence France-Presse (AFP) est un gros pourvoyeur. Pour tenter de garder le contrôle face à l’IA, l’agence a développé et testé avec succès une technologie novatrice qui permet de garantir l’authenticité de ses contenus visuels, photos comme vidéos, de leur capture jusqu’à leur diffusion. Une avancée majeure dans la lutte contre la désinformation.
    Une certification infalsifiable dès la prise de vue : l’idée géniale de l’AFP

    Le système mis en place par l’AFP repose notamment sur le standard C2PA, une norme technique ouverte déjà adoptée par les géants du numérique comme Google, Microsoft et OpenAI. Pour son test grandeur nature, l’agence a utilisé un appareil photo Nikon prototype qui intégrait directement une signature numérique sécurisée, et ce au moment de la prise de vue. Cerise sur le gâteau, tous les fabricants d’appareils photo prévoient d’intégrer cette fonctionnalité dès cette année.

    La technologie s’appuie ensuite sur un processus rigoureux de stockage et de traitement. Une petite explication s’impose. Chaque photo originale est conservée sur un serveur sécurisé où elle est dupliquée, permettant ainsi son édition selon les règles éditoriales de l’AFP, tout en maintenant un lien permanent avec le fichier source. Il y a donc une traçabilité totale, qui pourrait bien révolutionner les pratiques du photojournalisme.

    L’innovation du processus réside dans l’utilisation d’un filigrane invisible développé par IMATAG. Ce marquage, indélébile et appliqué avant la diffusion, intègre une empreinte digitale unique qui relie l’image éditée à son fichier original. La solution est également applicable aux contenus vidéo.
    Vers un nouveau standard du photojournalisme

    La vérification de la provenance d’une image devient accessible à tous grâce au plugin WeVerify, codéveloppé par l’AFP. Les fact-checkeurs, chercheurs en sources ouvertes (OSINT) et même le grand public peuvent désormais décoder ce filigrane et retrouver le fichier original stocké sur le serveur sécurisé, comme on examinerait le négatif d’une photo argentique. Une transparence totale qui renforce la crédibilité du travail journalistique.

    On sait que cette solution est au point, puisqu’une expérimentation a été menée lors des élections américaines à l’automne dernier. Elle a pu démontrer toute l’efficacité de cette approche à grande échelle. Et voilà que l’AFP souhaite maintenant voir d’autres acteurs de l’industrie – des fabricants d’appareils photo aux éditeurs de logiciels en passant par les diffuseurs de presse – adopter cette technologie, pour établir un standard commun.

    À l’heure où l’IA générative brouille les frontières entre le vrai et le faux, cette initiative de l’AFP, qui est en lutte avec un certain Elon Musk pour d’autres raisons, est à considérer comme une avancée concrète. Elle pose les bases d’un nouveau standard de confiance pour l’information visuelle, et pourrait bien donner des idées à d’autres agences et acteurs du monde des médias.
    Alexandre Boero
    Par Alexandre Boero
    Journaliste-reporter, responsable de l’actu

    #Intelligence_artificielle #Photographie #AFP #Photojournalisme #Verification #Fake_news

  • Notre #extension #Chrome et #Firefox passe à plus de 1 500 sites #GenAI

    Next a identifié plus de 1 500 sites d’information utilisant plus ou moins massivement l’#intelligence_artificielle pour générer des articles censés avoir été écrits par des journalistes, soulevant des questions quant à la qualité des informations. Pour vous donner un maximum de cartes en mains, nous vous proposons une extension pour Chrome et Firefox permettant d’être alertés lorsque vous visitez un tel site.

    https://next.ink/164873/outils-next-une-extension-chrome-et-firefox-pour-etre-alerte-des-sites-genai
    #news #journaux #médias #alertes #IA #AI #navigateur #alerte #add-on

  • ChatGPT’s Political Views Are Shifting Right, a New Analysis Finds

    While the chatbot still seems to lean left on many issues, its bias is changing.

    When asked about its political perspective, OpenAI’s #ChatGPT says it’s designed to be neutral and doesn’t lean one way or the other. A number of studies in recent years have challenged that claim, finding that when asked politically charged questions, the chatbot tends to respond with left-leaning viewpoints.

    That seems to be changing, according to a new study published in the journal Humanities and Social Sciences Communications by a group of Chinese researchers, who found that the political biases of OpenAI’s models have shifted over time toward the right end of the political spectrum.

    The team from Peking University and Renmin University tested how different versions of ChatGPT—using the GPT-3.5 turbo and GPT-4 models—responded to questions on the Political Compass Test. Overall, the models’ responses still tended toward the left of the spectrum. But when using ChatGPT powered by newer versions of both models, the researchers observed “a clear and statistically significant rightward shift in ChatGPT’s ideological positioning over time” on both economic and social issues.

    While it may be tempting to connect the bias shift to OpenAI and the tech industry’s recent embrace of President Donald Trump, the study authors wrote that several technical factors are likely responsible for the changes they measured.

    The shift could be caused by differences in the data used to train earlier and later versions of models or by adjustments OpenAI has made to its moderation filters for political topics. The company doesn’t disclose specific details about what datasets it uses in different training runs or how it calibrates its filters.

    The change could also be a result of “emergent behaviors” in the models like combinations of parameter weighting and feedback loops that lead to patterns that the developers didn’t intend and can’t explain.

    Or, because the models also adapt over time and learn from their interactions with humans, the political viewpoints they express may also be changing to reflect those favored by their user bases. The researchers found that the responses generated by OpenAI’s GPT-3.5 model, which has had a higher frequency of user interactions, had shifted to the political right significantly more over time compared to those generated by GPT-4.

    The researchers say their findings show popular generative AI tools like ChatGPT should be closely monitored for their political bias and that developers should implement regular audits and transparency reports about their processes to help understand how models’ biases shift over time.

    “The observed ideological shifts raise important ethical concerns, particularly regarding the potential for algorithmic biases to disproportionately affect certain user groups,” the study authors wrote. “These biases could lead to skewed information delivery, further exacerbating social divisions, or creating echo chambers that reinforce existing beliefs.”

    https://gizmodo.com/chatgpts-political-views-are-shifting-right-a-new-analysis-finds-2000562328

    #droite #AI #IA #intelligence_artificielle #droite #algorithmes #idéologie #openAI

  • (là, à l’instant, en parcourant le fil d’actualité, qui évoque l’IA, l’éducation, le raz de marée que l’IA représente pour l’éducation, tout ça, je me rappelle le raz de marée de la blockchain. Celui des NFT, fortement lié et du web3. Celui du métaverse, moins spectaculaire, mais quand même... puis avant ou après, je ne sais plus, celui des casques de VR... et... en fait, en 2025, ces progrès fabuleux, ces raz de marée irrésistibles, ils se terminent par des génocides, dans la vraie vie, avec des fascistes à tous les coins de rue, qui te chient dans les bottes à longueur de temps ; tout cela est très vingtième siècle, voire dix-neuf ; assurément, le progrès fait rage, en marche arrière)

    • Y-a un journaliste séditieux du Monde qui lit SeenThis et a voulu me faire une blague.

      Au salon NFT Paris, l’élan français pour l’intelligence artificielle électrise les disciples de la #blockchain
      https://www.lemonde.fr/pixels/article/2025/02/14/au-salon-nft-paris-l-elan-francais-pour-l-intelligence-artificielle-electris

      Des milliers de personnes se sont rassemblées à La Villette pour l’édition 2025 du salon français du #NFT. Les professionnels de la #crypto y ont salué les ambitions françaises en matière d’#intelligence_artificielle, qu’ils perçoivent comme un carburant pour leurs projets.

      Dès le chapô, tu as les 3 gros mots : nft, blockchain et IA, les 3 cavaliers de l’apocalypse pro-nucléaire.

    • Lors de la furie NFT, dans l’école où j’enseigne, j’ai fait deux choses : un retour historique sur la bulle internet et un cours d’économie sur la monnaie et la valeur. Là, après avoir pataugé sur quoi faire avec les copies pourries, j’avoue que la lutte est devenue, après une embellie, compliquée, car les voix qui ne trouvent pas ça super pour corriger, chercher, ou faire n’importe quoi d’autre sont inaudibles. Je peux sortir les exemples de refs sorties du chapeau des LLM, le problème qu’ils posent dans l’apprentissage et tous les arguments possibles, j’ai un peu l’impression de pisser dans un violon ce coup-ci. Comment défendre une vie sans LLM face à cette déferlante technosolutioniste. Il n’y a guère que l’argument de l’impact écologique de cette machinerie délétère qui soit parfois entendu.

    • L’impact écologique ou l’éventualité d’une panne généralisée sur le réseau électrique mondial, une « bonne grosse » tempête solaire par exemple. Le temps que ça prendrait pour remplacer les éléments qui ont défailli et pour remettre en état de fonctionner la fourniture en courant électrique nécessaire pour la « machinerie » permettrait largement le basculement irréversible de toutes les sociétés humaines dans la barbarie la plus « radicale ».

  • IA : salut ou danger pour les médias traditionnels ? | France Culture
    https://www.radiofrance.fr/franceculture/podcasts/questions-du-soir-le-debat/ia-salut-ou-danger-pour-les-medias-traditionnels-3473316

    Un auteur et une autrice de C&F éditions invités pour parler de l’IA et du journalisme.

    L’intelligence artificielle transforme le journalisme. Accords entre médias et IA, expérimentations diverses : la profession s’interroge. Outil d’assistance ou menace pour l’information ? L’IA redéfinit les pratiques et pose des défis éthiques majeurs à régler.
    Avec

    Franck Rebillard Professeur en sciences de l’information et de la communication à l’Université Sorbonne Nouvelle
    Laurence Devillers Professeure à l’université Sorbonne Université et chercheuse au Laboratoire interdisciplinaire des sciences du numérique (LISN) du CNRS.
    Matthieu Beauval Directeur de l’Accélération et de l’Innovation à Radio France


    https://cfeditions.com/youtube

    L’intelligence artificielle bouleverse le paysage médiatique. Alors que des accords se multiplient entre médias et entreprises d’IA, comme ceux signés par l’AFP avec Mistral AI ou Le Monde avec OpenAI, les rédactions cherchent à tirer parti de ces technologies sans perdre leur indépendance. France Culture a récemment diffusé une émission entièrement créée par IA, mettant en lumière ses capacités, mais aussi ses limites.


    https://cfeditions.com/garoutzia

    L’IA générative s’intègre progressivement dans le journalisme, facilitant la traduction, la documentation ou encore la rédaction. Si certains y voient une opportunité d’augmenter la productivité et de simplifier certaines tâches, d’autres soulignent les risques d’une dépendance accrue aux grandes entreprises technologiques, qui pourraient capter une part croissante de la production et de la diffusion de l’information.
    Publicité

    La question de la fiabilité et du contrôle éditorial reste centrale. L’IA, conçue pour générer du contenu plausible mais pas nécessairement exact, ne peut remplacer la vérification humaine. Dans un contexte de crise démocratique et de prolifération des fausses informations, le rôle des journalistes dans la validation et l’interprétation des faits demeure essentiel.

    Face à ces enjeux, les médias doivent trouver un équilibre : utiliser l’IA comme un outil d’assistance tout en préservant l’intégrité et la diversité de l’information.

    #Intelligence_artificielle #Franck_Rebillard #Laurence_Devillers

  • Intelligence artificielle. « On est tous capables d’identifier les copies ChatGPT ». Pour cet enseignant-chercheur, « il faut remettre l’IA à sa place »
    https://france3-regions.francetvinfo.fr/pays-de-la-loire/loire-atlantique/nantes/intelligence-artificielle-on-est-tous-capables-d-identi
    https://france3-regions.francetvinfo.fr/image/C59T9XIg6RJT87ykx2fOMnGP27o/930x620/regions/2025/02/10/visuel-article-6-67a9d6ecbed92385658165.png

    Des copies qui commencent par les mêmes phrases

    La capacité à certifier une compétence est le défi à relever pour les enseignants face à des lycéens et des étudiants qui, après avoir découvert et utilisé Google et Wikipédia, se ruent aujourd’hui sur ChatGPT.

    Le devoir sur table, face au prof, restera une valeur sûre puisque protégée de l’accès à l’outil numérique de l’intelligence artificielle. Mais quid des travaux de groupe ou des devoirs individuels faits loin des amphis ?

    « On est tous capables d’identifier les copies ChatGPT », estime Olivier Ertzscheid, enseignant-chercheur en sciences de l’information, à l’université de Nantes. « Des copies qui commencent par les mêmes phrases et se terminent par les mêmes conclusions, ou qui évoquent des notions complexes non abordées en cours. »
    Des outils gratuits, disponibles et performants

    Interdire l’IA est impossible selon lui, comme il était illusoire de vouloir interdire le recours à Wikipédia. « Ce sont (les IA), des outils massivement utilisés parce que gratuits, disponibles et performants, constate cet enseignant-chercheur. Il faut, en revanche, déployer des actions concrètes pour remettre à sa place cet outil ».

    Et donc enseigner l’IA comme on enseignerait l’utilisation de n’importe quel outil, en expliquant comment on le sollicite, et en soulignant ses vertus, mais aussi ses limites et ses travers, son coût écologique, son coût social avec des travailleurs pauvres employés pour le nourrir de données. Le fait, par exemple, que les données exploitées par les IA ne soient pas représentatives de ce qui fait notre monde et que les réponses de l’IA peuvent véhiculer, de manière cachée, des problématiques sociales sur la place des hommes et des femmes ou des problématiques raciales.

    « Les personnalités qui sont derrière ces bases de données, à la tête de la tech américaine, ne sont par des personnalités qui font de l’antiracisme une priorité, estime Olivier Ertzscheid. Modifier les données d’entraînement (de l’IA), c’est compliqué. »

    Quand Wikipédia est apparu, on s’est interrogé sur son interdiction. On s’est rendu compte que c’était inutile.
    Olivier Ertzscheid

    Enseignant-chercheur dans les sciences de l’information


    https://cfeditions.com/ia-cyberespace

    Comme son collègue angevin, l’enseignant chercheur pense qu’il est vain de vouloir faire sans l’IA et préfère travailler intelligemment avec l’intelligence artificielle. L’enseignant est certain que dans cinq ans, on ne reprochera plus à un élève d’avoir fait appel à l’IA si c’est pour étayer sa propre réflexion.

    #Olivier_Ertzscheid #Intelligence_artificielle

  • L’intelligence artificielle peut-elle être collective ?
    https://laviedesidees.fr/L-intelligence-artificielle-peut-elle-etre-collective

    Comment les industries numériques transforment-elles nos esprits et nos sociétés ? Est-il possible de produire l’IA de manière collective, afin d’échapper à l’emprise des sociétés privées qui les mettent en pratique de manière opaque ?

    #Philosophie #technologie #numérique #intelligence_artificielle
    https://laviedesidees.fr/IMG/pdf/20250211_ia.pdf

  • #Intelligence_artificielle : les 7 choses qu’on ne vous dit pas

    Du 10 et 11 février, la France accueille le Sommet mondial sur l’Intelligence Artificielle. Au programme  : une vitrine sur l’avenir qui n’exposera pas les #dangers de l’IA. Bien que ces technologies offrent des avancées réelles - dans le domaine de la médecine par exemple - elle présente aussi des dangers sérieux pour les droits humains. Avec plusieurs organisations de la société civile, nous listons ici les faces cachées de l’IA qui ne seront pas présentées au sommet.

    En organisant à Paris le sommet mondial sur l’Intelligence artificielle (IA), Emmanuel Macron souhaite que «  la France ne passe pas à côté de cette révolution. » Sous couvert d’innovation, c’est la course à la productivité et au profit qui est en jeu. Au rythme foudroyant à laquelle l’IA se développe, les dirigeants ne semblent pas pressés de réfléchir aux enjeux humains, sociaux et environnementaux que posent ces nouvelles technologies. Pourtant, l’un des plus grands enjeux est là.

    Développer l’IA pour continuer d’obtenir des avancées majeures dans des domaines comme la médecine oui, mais développer l’IA en mettant en péril des droits : c’est non. Les droits humains et la justice environnementale doivent être placés au cœur de la régulation de l’intelligence artificielle.

    Et parce que les dangers de l’IA ne figureront pas au programme officiel du Sommet mondial, nous vous les rappelons ici.

    1. L’IA perpétue le #racisme

    Pour fonctionner, l’IA s’appuie sur des #bases_de_données qui intègre les #préjugés et #biais des personnes qui l’ont créé. L’IA perpétue donc les #stéréotypes et accentue les #discriminations déjà existantes.

    ➡️Aux États-Unis, la police utilise une IA pour prédire la récidive criminelle. C’est le fait qu’une personne accusée va potentiellement commettre un nouveau un délit. Cette IA cible deux fois plus les accusés Noirs que les accusés Blancs.

    2. L’IA accentue le #sexisme

    L’intelligence artificielle s’impose comme un miroir de nos sociétés  : elle reflète, aussi, ses biais et accentue les #inégalités_de_genre. 

    ➡️En Autriche, des #algorithmes utilisés dans des outils d’accès à l’emploi ont écarté les femmes des secteurs informatique.

    3. L’IA permet la #cybercriminalité

    Les montages perçus les plus crédibles générés par IA sont un réel danger pour les femmes et les enfants.

    ➡️Les #deepfakes sont massivement utilisés dans le but de nuire aux femmes et de générer des contenus pédocriminels.

    4. L’IA impacte la planète

    ➡️D’ici 2027, l’IA générative nécessitera une alimentation en #électricité équivalente à celle de l’Argentine, cinq fois la France en superficie.

    Les pays du Sud sont les premiers impactés par les ravages écologiques de l’IA : les #data_center y pullulent, l’extraction de #minerais comme le #cobalt (utilisé pour la fabrication des #batteries) met en péril la santé des populations et entraîne la #pollution des eaux et des terres.

    Les émissions de CO2 des "géants de la Tech” ont augmenté de 30 à 50% en 2024 suite au développement fulgurant de l’intelligence artificielle.

    5. L’IA désinforme

    Beaucoup d’outils d’intelligence artificielle permettent et participent à la #désinformation  :

    ➡️Des «  #bots  », ces robots qui imitent l’activité humaine sur les réseaux sociaux pour manipuler l’information, en spammant du contenu, en renforçant la notoriété de comptes ou en diffusant de fausses informations.

    ➡️Montage photo généré par l’IA. Lors de la campagne américaine, Donald Trump a relayé une photo générée par IA montrant Kamala Harris de dos en leader communiste face à une foule de partisans. Une image vue 82 millions de fois.

    ➡️Les deepfakes, ces fausses vidéos de célébrité qui prolifèrent sur les réseaux sociaux, outil notamment utilisé lors de campagnes présidentielles pour attribuer de faux propos aux candidats en lice.

    À la vitesse laquelle se développe l’IA, il va devenir de plus en plus difficile de déceler le vrai du faux. 

    6. L’IA surveille

    Les systèmes d’IA sont aussi utilisés à des fins de #surveillance contre certaines populations. En témoigne les pratiques de la Chine, dotées d’outils dopées à l’IA pour surveiller la population ouïghoure. Et bien souvent, ces technologies sont développées par les pays occidentaux.

    ➡️L’IA est d’ailleurs déjà utilisée aux #frontières européennes à des fins de surveillance contre les personnes exilées. Parmi les outils  : des #détecteurs_de_mensonge et d’émotions sont utilisés pour contrôler les frontières. Baptisé #iBorderCtrl, le projet est financé par l’Union européenne et déjà testé dans 3 pays  : Hongrie, Grèce et Lettonie.

    7. L’IA peut tuer

    L’IA, c’est aussi ça  : des drones et autres armes sophistiquées capables de choisir leurs propres cibles et de les attaquer sans contrôle humain. Des robots-tueurs, décidant via leurs algorithmes de qui vit et de qui meurt, se développent et se vendent déjà sur le marché.

    ➡️À Gaza, l’armée israélienne a utilisé une IA appelée Lavender, censée cibler des terroristes mais qui ont provoqué la mort de milliers de civils gazaouis.

    https://www.amnesty.fr/actualites/intelligence-artificielle-les-sept-choses-qu-on-ne-vous-dit-pas

    #IA

    • TRIBUNE | « L’IA contre les droits humains, sociaux et environnementaux »

      Plus d’une vingtaine d’organisations réunies au sein de la coalition Hiatus, parmi lesquelles Attac, La Quadrature du Net et la Ligue des droits de l’homme, estiment, dans une tribune au « Monde » (https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj), qu’il faut résister au déploiement massif de l’IA, au nom des droits humains, sociaux et environnementaux.

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.

      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?
      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.
      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux États-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.
      Premiers signataires

      David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      https://france.attac.org/actus-et-medias/salle-de-presse/article/l-ia-contre-les-droits-humains-sociaux-et-environnementaux

  • Framasoft rejoint #HIATUS, la #coalition critique de l’IA
    https://framablog.org/2025/02/07/framasoft-rejoint-hiatus-la-coalition-critique-de-lia

    Le sujet de l’intelligence artificielle est omniprésent dans les discours médiatiques et politiques. Et il serait difficile de nier que ses impacts sur nos vies n’ont, eux, rien d’artificiels. Qu’il s’agisse d’écologie, de surveillance, d’économie, de santé, d’éducation, de médias, … Lire la suite­­

    #Enjeux_du_numérique #Intelligence_Artificielle #IA #Intelligence_articielle

  • Pourquoi je n’utilise pas #ChatGPT

    L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un #argumentaire que je vais développer ici.

    1. Introduction

    En tant qu’enseignante-chercheuse en informatique, j’ai lu l’article fondateur On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? (https://dl.acm.org/doi/10.1145/3442188.3445922) en 2021. Tous les #effets_négatifs observés des grands modèles de langage et des IAs génératives sont annoncés dans cet article, comme le dit d’ailleurs l’une des autrices dans un entretien récent. Quand j’ai été confrontée personnellement à des textes rendus par des étudiant·es et écrits par ChatGPT, dès janvier 2023, ma méfiance a priori pour cette branche du numérique a commencé à s’incarner dans l’expérience personnelle. Depuis j’accumule des articles et des prises de position sur ce phénomène, mais je n’ai jamais été tentée d’essayer moi-même. Avant de faire un tour d’horizon des divers #arguments qui m’ont fait refuser absolument l’#usage — et critiquer vertement le développement — des IAs génératives en tout genre, que ce soit dans l’#enseignement_supérieur ou ailleurs, précisons un peu le sujet.

    Dans la suite de ce billet, il sera question très spécifiquement d’IAs génératives (comme ChatGPT). Le #vocabulaire a beaucoup glissé ces derniers temps, mais rappelons que l’IA est une idée très ancienne, et que si on se met à qualifier tout le numérique d’IA, il va devenir difficile de parler précisément des choses. Donc : tout le #numérique n’est pas de l’IA ; parmi tout ce qui relève de l’IA, tout n’est pas de la famille “#apprentissage_machine” ; et finalement parmi la famille “apprentissage machine”, tout n’est pas une IA générative comme ChatGPT et consort. On trouvera un historique de l’IA et les définitions de ces notions dans le numéro de juin 2024 de la revue La vie de la recherche scientifique sur l’IA (https://www.snesup.fr/publications/revues/vrs/intelligence-artificielle-vrs437-juin-2024).

    À quoi sert de refuser d’utiliser ChatGPT ? Je suis parfaitement consciente que ce #refus peut sembler totalement vain, puisque nous sommes tous et toutes entouré·es d’étudiant·es et de collègues qui s’en servent très régulièrement, et que nos gouvernements successifs se ruent sur les promesses d’#automatisation et d’économie de moyens humains envisagées en particulier dans les services publics. Après tout, le #progrès_technologique est inéluctable, n’est-ce pas ? Je n’ai pas la moindre illusion sur ma capacité à changer les pratiques à moi toute seule. J’ai encore moins d’illusions sur une possible influence citoyenne sur le développement de ces outils, par les temps qui courent. Le livre de Yaël Benayoun et Irénée Régnault intitulé Technologie partout, démocratie nulle part est paru fin 2020 (https://fypeditions.com/echnologies-partout-democratie-nulle-part), mais je gage qu’un tome 2 entier pourrait être consacré au déploiement des IA génératives. Pourtant, même et surtout si ce déploiement semble inéluctable, il n’est pas interdit de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu.

    Ce qui suit n’est pas un article de recherche. C’est une prise de position personnelle, émaillée de mes lectures préférées sur le sujet. Cette position est basée sur des préoccupations déjà anciennes à propos des impacts des technologies numériques, renforcées par la fréquentation assidue des domaines des systèmes dits critiques (l’informatique dans les trains, les avions, les centrales nucléaires, …). Dans ces domaines la sécurité et la sûreté priment sur la performance, les durées de vie des systèmes sont plus longues que dans l’informatique grand public, les acteurs sont heureusement frileux vis-à-vis d’évolutions trop rapides. Je ne suis pas chercheuse en IA et ne l’ai jamais été. Je n’ai pas pratiqué de longues expérimentations des outils disponibles, même si j’ai lu attentivement ce qu’en disaient les collègues qui l’ont fait. Mon refus personnel de mettre le doigt dans l’engrenage ChatGPT s’appuie beaucoup sur mes connaissances scientifiques antérieures et ma méfiance envers des systèmes opaques, non déterministes et non testables, mais il est aussi nourri de positions politiques. Si aucune technologie n’est jamais neutre, dans le cas présent la configuration politico-financière extrêmement concentrée dans laquelle se déploient ces outils est particulièrement préoccupante et devrait selon moi conduire à une certaine prise de conscience. Et cela même si l’on est impressionné par les capacités de ces outils, ou tenté par les promesses de gain de temps et d’augmentation de créativité, voire convaincu que le stade de l’’IA générale capable de surpasser l’humain est imminent (et désirable).

    Le tour d’horizon qui suit est uniquement à charge. L’espace médiatique étant saturé de promesses politiques et d’articles dithyrambiques, ce peut être vu comme un petit exercice de rééquilbrage du discours. Je cite un certain nombre de collègues qui font une critique argumentée depuis leur domaine de recherche. Il y en a beaucoup d’autres, dont celles et ceux qui s’expriment dans le numéro de juin 2024 de la revue La vie de la recherche scientifique cité plus haut.
    2. Les impacts socio-environnementaux du numérique sont déjà préoccupants, cela ne va pas s’arranger

    Le déploiement en grand des IAs génératives étant relativement récent, le travail de recherche approfondi et consolidé sur l’estimation précise de leurs impacts environnementaux ne fait que démarrer. Par ailleurs les outils sont particulièrement opaques, ils évoluent très rapidement, et les promesses des vendeurs d’IA n’aident pas à y voir clair. Sans attendre des chiffres consolidés, on peut s’intéresser aux effets locaux prévisibles grâce aux travaux de collectifs comme Le nuage était sous nos pieds ou Tu nube seca mi río ou encore aux collectifs qui ont protesté contre l’installation de datacenters au Chili. Cela permet de rendre plus concrète la matérialité des infrastructures du numérique, et de constater les conflits d’accès locaux sur les ressources en électricité ou en eau. L’épisode IA qu’à algorithmiser le climat du podcast de Mathilde Saliou sur Next est aussi un bon tour d’horizon des impacts environnementaux. Malgré les promesses des grandes entreprises de la Tech d’alimenter leurs infrastructures uniquement avec de l’énergie “verte”, leur récent engouement pour le renouveau du nucléaire laisse penser qu’elles envisagent un avenir où ces énergies seront loin de répondre à leurs besoins. Dans son podcast ‘Tech Won’t Save Us’ Paris Marx a produit un épisode passionnant sur le nucléaire et la tech. Il faut enfin garder en tête que la promesse des grandes entreprises de la tech d’alimenter leurs infrastructures numériques uniquement avec de l’énergie verte, même si elle se réalise, ne les absout nullement de leurs impacts environnementaux. En effet la production d’électricité n’est pas infinie, et celle qu’on consacre aux infrastructures du numérique n’est pas utilisable ailleurs. Si monopoliser les sources d’énergie “verte” pour le numérique oblige d’autres usages à rouvrir ou prolonger des centrales à charbon, alors le numérique est aussi indirectement responsable de leurs émissions.

    Bref, si la trajectoire des impacts environnementaux du numérique était déjà un problème avant l’apparition des IAs génératives, les impacts ont récemment subi un coup d’accélérateur. Ce constat suffirait amplement à remettre en cause sérieusement le déploiement tous azimuts de ces technologies, sauf si l’on croit vraiment que l’IA va sauver le monde, ce qui n’est pas mon cas. C’est un pari risqué que fait pourtant allègrement l’ancien PDG de Google, quand il affirme que les objectifs climatiques étant inatteignables, il faut mettre tous nos moyens sur l’IA en espérant qu’elle résoudra le problème. Il se peut que les projections pharaoniques de ressources nécessaires dans les 10 ans à venir (croissance exponentielle de la demande en électricité et en matériaux) se heurtent rapidement à des limites physiques. Il n’en reste pas moins que de gros dégâts seront déjà irréversibles d’ici-là.

    Au cas où ces impacts environnementaux (qui sont d’ailleurs déjà des impacts socio-environnementaux) ne suffiraient pas à disqualifier le déploiement des grandes IAs génératives, les conditions de travail des humains indispensables au développement de ces outils devrait régler la question. Un article récent aborde cette situation en la qualifiant d’esclavage moderne (The Low-Paid Humans Behind AI’s Smarts Ask Biden to Free Them From ‘Modern Day Slavery’) et le site du projet Diplab d’Antonio Casilli est une mine d’informations sur le sujet, quoi que pas toutes spécifiques aux IAs génératives. Enfin la voracité en données qui fait fi de toute législation ou respect du droit d’auteur apparaît au grand jour dans Meta knew it used pirated books to train AI, authors say. L’excellent 404media titre même OpenAI Furious DeepSeek Might Have Stolen All the Data OpenAI Stole From Us (OpenAI furieux que DeepSeek puisse avoir volé toutes les données que OpenAI nous a voées).
    3. Le contexte politique et économique du déploiement des IAs génératives devrait inciter à la prudence

    Aucune technologie n’est neutre ni inéluctable. Chacune se déploie dans un certain contexte économique et politique qui oriente les choix. Cela a toujours été le cas pour le numérique, depuis le début. L’extrême concentration d’acteurs et de moyens qui préside au déploiement des IAs génératives devrait aider à prendre conscience de cet état de fait. L’annonce récente de 500 milliards de dollars à consacrer au sujet donne la (dé)mesure de la chose. Je ne détaillerai pas les courants politiques et philosophiques qui circulent parmi les promoteurs des IAs. Certains acteurs affirment croire à l’avénement des IAs générales, comme résultat inéluctable de l’accumulation de moyens et de ressources. Que l’on fasse miroiter ces IAs capables de sauver le monde, ou qu’au contraire on annonce l’apocalypse, leur prise de pouvoir et la fin de l’humanité, on participe à détourner l’attention des dégâts déjà bien présents ici et maintenant. Le livre récent Les prophètes de l’IA – Pourquoi la Silicon Valley nous vend l’apocalypsefait le tour de la question efficacement.

    Bien sûr si l’on pose comme hypothèse initiale que le cerveau humain est un ordinateur, alors un très gros ordinateur va sembler très intelligent, et un plus gros ordinateur encore plus intelligent. Mais l’hypothèse initiale n’a pas de sens. Si les IAs génératives conduisent à la fin de l’humanité, ce sera en monopolisant les ressources et en aggravant les problèmes socio-environnementaux, pas en atteignant la superintelligence.
    4. Quid d’une alternative éthique, souveraine, et aux impacts maîtrisés ?

    Quand j’explique les raisons de mon refus total de mettre le doigt dans l’engrenage ChatGPT, on me cite souvent les alternatives éthiques, souveraines, ouvertes, aux impacts environnementaux maîtrisés, respectueuses des droits des auteurs, etc. Je ne remets pas en cause a priori la qualité de ces développements, ni les motivations de leurs auteurs. Simplement il me semble qu’en pariant sur ces alternatives on passe à côté d’un certain nombre de questions.

    Question 1 – effet d’entraînement. Même s’il est effectivement possible de faire des petites IAs éthiques aux impacts moindres, cela participe à l’acceptation générale de toutes les IAs génératives potentielles, dont celles qui ont un impact énorme et sont fort peu éthiques. Que se passera-t-il quand les petites IAs seront rentrées dans les moeurs, qu’on en sera devenus dépendants pour de nombreuses applications, et que les grandes entreprises du numérique lanceront GTP12 grâce aux 500 milliards promis par le gouvernement US ? Les gens resteront-ils bien sagement utilisateurs des petites IAs ? Faut-il se réjouir de l’annonce de l’IA de l’entreprise chinoise DeepSeek qui semble surpasser très nettement celles des entreprises américaines en coût et ressources nécessaires ? Non, bien sûr. Cela marque le début d’une nouvelle course aux armements, l’enclenchement d’un effet rebond massif. C’est un développement extrêmement mal orienté si l’on s’attarde quelques minutes sur le numérique face aux limites planétaires. Il est urgent au contraire de s’intéresser à des trajectoires décroissantes du numérique, et j’espère qu’on en est encore capables.

    Question 2 – est-ce seulement désirable ? Quoi qu’il en soit des impacts, il est de toute façon permis de se demander si les IAs génératives, et leur mise à disposition sous forme de Chatbot, sont une bonne chose dans l’absolu. Il y a des idées qui sont juste de mauvaises idées, même si elles semblent inéluctables. Dans ce cas tous les impacts, même petits, sont déjà du gaspillage.

    5. Quid des usages utiles ?

    Pour le plaisir de l’argumentation, poursuivons en mettant de côté les impacts et en supposant que c’est une bonne idée d’interagir avec des machines via des modèles de langage. Nous sommes soumis en permamence à un discours politique qui vante les gains en efficacité rendus possibles par le déploiement de ces outils. Pourtant dans le cas des services publics, la numérisation à marche forcée a déjà produit de nombreux dégâts avant même l’introduction des IAs génératives, la presse s’en faisant souvent l’écho (comme par exemple ici : « Je n’ai jamais eu le fin mot de l’histoire » : pourquoi la CAF est une boîte noire pour ses allocataires). Il est fort peu probable que l’introduction des IAs génératives améliore quoi que ce soit à une situation où la numérisation s’est accompagnée de désintermédiation totale. Mais passons en revue quelques-une des promesses les plus courantes et leurs effets envisageables.
    5.1 Le fameux “gain de temps” vs les effets d’accélération

    Le domaine du numérique promet des gains de temps depuis plus de 70 ans. Si la promesse avait été suivie d’effet nous devrions, soit avoir réduit le temps de travail à 1h par semaine, soit avoir multiplié la “productivité” par un facteur énorme. Si ce n’est pas le cas, c’est que ce fameux “temps gagné” a immédiatement été rempli par autre chose, pas nécessairement plus intéressant ni surtout plus productif. Allons-nous continuer longtemps à tomber dans ce piège ?

    Prenons l’exemple promu en ce moment dans les administrations : l’usage des IAs génératives pour rédiger des comptes-rendus de réunions, en visio ou pas. Chacun sait que dans un compte-rendu de réunion on va au-delà de la simple transcription mot à mot. Un bon compte-rendu fait preuve de synthèse, on y trouve les points saillants de la réunion, les accords et les désaccords, les décisions actées ou reportées, les promesses de chacun sur le travail à réaliser avant la prochaine réunion sur le même sujet, etc. La capacité des IAs génératives à résumer des textes ou des transcriptions audio est tout à fait incertaine, avec des risques potentiels assez graves. Une expérience détaillée conduit même à conclure que cet outil ne résume pas, il raccourcit, et c’est très différent. En informaticienne je dirais : “pour raccourcir on peut rester au niveau clavier. Pour résumer il faut repasser par le cerveau”. Mais, toujours pour le plaisir de l’argumentation, supposons que la qualité soit au rendez-vous. Serait-ce désirable pour autant ?

    Comme à chaque fois que le numérique est vendu comme moyen de gagner du temps, il faut se demander comment et avec quoi va se remplir le temps ainsi gagné. Dans le cas des comptes-rendus de réunion, voilà un effet tout à fait probable : une accélération du rythme des réunions. En effet, la contrainte d’avoir à rédiger et diffuser un compte-rendu avant d’organiser la réunion suivante ayant disparu, plus aucune limite naturelle ne s’oppose à organiser une autre réunion très rapprochée de la première. Vous me direz que dans ce cas la limite naturelle suivante sera la non ubiquité des participants potentiels. Ce à quoi je répondrai : même pas, puisqu’on nous propose déjà d’envoyer en réunion un avatar qui y jouera notre rôle : Zoom va permettre à un avatar créé par IA de parler pour vous.

    Au cas où cette prévision vous semblerait peu crédible, rappelez-vous comment vous gériez votre temps professionnel il y a 20 ans, avant le déploiement des outils d’emploi du temps en ligne censés nous faire gagner du temps (j’avoue humblement y avoir cru). Quand j’ai pris mon poste de professeure en 2000, mon emploi du temps du semestre tenait sur un bristol glissé dans mon agenda papier format A6, il était parfaitement régulier pendant les 12 semaines d’un semestre. L’agenda ne me servait qu’à noter les déplacements de un à plusieurs jours et les réunions exceptionnelles. Aujourd’hui sans emploi du temps partagé en ligne et synchronisé avec mon téléphone, j’aurais du mal à savoir le matin en me levant où je dois aller dans la journée, pour rencontrer qui, et sur quel sujet. La puissance des outils numériques avec synchronisation quasi-instantanée entre participants pousse à remplir les moindres coins “libres” des journées. Quand il fallait plusieurs jours pour stabiliser un créneau de réunion, c’était nécessairement assez loin dans le futur, le remplissage de l’emploi du temps de chacun n’était pas parfait, et il restait des “trous”. Il n’y a plus de trous. Nous n’avons jamais été aussi conscients de la pression du temps.

    Prenons aussi l’exemple de la gestion des emails, notoirement si envahissants que certaines entreprises et organisations les ont bannis (parfois pour les remplacer par des outils de chat, ce qui ne résoud pas vraiment le problème, mais passons). Les IAs génératives promettent simultanément de (1) générer des emails au ton professionnel à partir d’un prompt donnant quelques idées ; (2) résumer un email trop long en quelques idées importantes. Cela devrait immédiatement apparaître comme menant à une situation totalement absurde où le passage par un texte long est entièrement invisible aux acteurs humains. Pourquoi alors ne pas s’envoyer simplement des emails de 3 lignes ? Le dessinateur Geluck avait décrit le résultat dans un dessin du Chat en 3 cases : a) le Chat dit ” je me suis acheté deux jeux d’échecs électroniques” ; b) Le Chat dit : “je les ai raccordés l’un à l’autre” ; c) Le Chat, en train de faire sa vaisselle dans un évier plein de mousse dit : “et j’ai la paix”. Si la prolifération des emails dans le milieu professionnel est déjà reconnue comme un problème, fluidifier leur usage ne peut que faire sauter les dernières limites naturelles à leur accumulation.

    Pour conclure sur ce point : si la promesse de “gagner du temps” est tentante, s’il peut sembler dans un premier temps que c’est effectivement le cas, il est fort prévisible que le temps gagné sera reperdu dans une accélération de tout le processus qu’on avait cherché à ainsi optimiser. Rendez-vous dans 6 mois ou un an pour voir comment le temps gagné sur les comptes-rendus de réunions et la rédaction des emails s’est rempli.
    5. 2 La créativité à base figée vs la pollution informationnelle

    Un argument qui revient souvent dans le monde universitaire, c’est l’usage de ChatGPT comme “démarreur”, pour donner de premières idées. J’ai personnellement beaucoup de mal à croire que cela produise quoi que ce soit d’un tant soit peu original, je craindrais de plagier sans intention, j’aurais quelque réticence à donner le produit de mes réflexions financées par de l’argent public aux vendeurs d’outils, et je préfère de loin deux heures de remue-méninges avec des collègues ou des étudiants. Mais soit, admettons cet usage. Si on pense les IAs génératives entraînées “une fois pour toutes”, alors on devrait s’inquiéter de voir la créativité future décliner et se désynchroniser des évolutions d’un domaine. Mais si on sait qu’elles évoluent par générations successives re-entraînées sur une base de textes qui augmente, alors il faut se poser la question de la pollution.

    Un aspect très important des IAs génératives qui les distingue d’autres systèmes numériques et d’autres IAs, c’est en effet précisément qu’elles sont génératives. Leurs résultats s’accumulent dans l’espace de l’information en ligne, et constituent une forme de pollution dont il sera très difficile de se débarrasser. Sur ce point j’ai trouvé particulièrement frappante la décision du mainteneur de WordFreq d’arrêter les mises à jour. WordFreq est un outil qui maintient une base de données sur la fréquence des mots dans plusieurs langues, en analysant les textes disponibles en ligne. Le mainteneur a constaté que ces fréquences changent maintenant à un rythme jamais observé auparavant, et accuse les IAs génératives d’avoir irrémédiablement pollué les textes en ligne. Sa conclusion est sans appel : plus personne n’a d’information fiable sur les langues telles qu’elles sont parlées par des êtres humains, après 2021. Les autres exemples de pollution abondent, de l’édition à compte d’auteur (La plateforme de publication en ligne d’Amazon est contrainte de mettre en place une limite de 3 livres par auteur et par jour) au système de publications scientifiques (GPT-fabricated scientific papers on Google Scholar : Key features, spread, and implications for preempting evidence manipulation), en passant par les réseaux sociaux professionnels.

    Le mot slop a été introduit récemment pour décrire cette pollution informationnelle qui s’accumule dans les sources en ligne. Le livre Les IA à l’assaut du cyberespace – Vers un Web synthétique revient sur l’évolution du contenu du web depuis 25 ans, et met en garde contre son artificialisation.

    Comment penser que cette pollution n’aura pas d’impact sur les usages “créatifs” de l’outil, à moyen terme ? Même si les effets à court terme paraissent utiles, à quel avenir contribuons-nous en acceptant une utilisation routinière de ces technologies ?
    5.3 L’automatisation des tâches répétitives vs l’effet coupe rase et la perte de compétences

    Etant enseignante d’informatique, je suis naturellement préoccupée par l’avenir du logiciel si une partie significative est produite par des IAs génératives opaques et non testables, à la fois à cause de la qualité intrinsèque du logiciel produit, et pour ce que cela signifierait dans l’organisation du travail et l’évolution des métiers.

    Un argument qui revient souvent est que les aides à la programmation à base d’IAs génératives sont attrayantes pour maîtriser une grande base de code, naviguer dans des bibliothèques inombrables dont on n’a pas le temps de lire la documentation, produire la partie du code qui a presque toujours la même forme, … Mais si vraiment on se noie dans le code, comme analysé ici, ajouter une couche opaque destinée à en générer encore plus, encore plus vite, est-ce vraiment raisonnable ?

    Si l’on s’intéresse à la construction de ces IA génératives appliquées à la programmation, on se rend compte qu’elles sont comparables aux coupes rases en forêt : il est possible de réaliser de gros profits, une fois, en rasant tout, mais rien ne repoussera jamais. Les outils d’aide à l’écriture de code actuels se sont nourris de toutes les occurrences de code et d’explications produites par des humains et disponibles sur le web. Mais si on croit leurs promesses, ils sont susceptibles de provoquer une réduction drastique des métiers-mêmes qui pourraient produire de nouvelles occurences. Où les futures IAs d’aide à la programmation prendront-elles les exemples à digérer écrits dans le nouveau langage de programmation à la mode ? Dans la production des IAs de la génération précédente entraînée sur un autre langage ? Ce qui vaut pour la programmation vaut pour tous les autres usages qui promettent à une profession de gagner du temps grâce à une IA entraînée sur les productions humaines passées de leur propre métier.

    L’effet coupe rase s’accompagne donc d’une transformation des métiers. On nous explique ainsi que les IAs permettent d’automatiser les tâches répétitives et peuvent déjà remplacer les programmeurs juniors, mais que les programmeurs seniors sont toujours nécessaires. Une première conséquence devrait sauter aux yeux : comme on ne devient pas senior sans être passé par le stade junior, la disparition des juniors devrait logiquement être suivie de la disparition des seniors. A moins de croire que les IAs génératives seront d’ici-là capables d’apprendre toutes seules (mais à partir de quoi ?), cela devrait provoquer une certaine inquiétude.

    On nous explique aussi que les programmeurs seniors restent l’humain dans la boucle. J’ai beaucoup apprécié ce texte d’une traductrice professionnelle qui explique que passer d’une activité de création de texte à une activité de relecture et correction d’un premier jet produit par une IA (non générative ici) modifie le métier et le rend pénible sans vrai gain de temps. Je soupçonne que ces conclusions s’appliquent aussi à la programmation.

    Pour conclure ce paragraphe, parcourons Generative AI : What You Need To Know, un manuel de défense intellectuelle contre les promesses des IAs génératives, par un auteur qui a une longue expérience du métier de développeur web, et qui a d’ailleurs écrit “we’re all-in on deskilling the industry. (…) we’re now shifting towards the model where devs are instead “AI” wranglers. The web dev of the future will be an underpaid generalist who pokes at chatbot output until it runs without error, pokes at a copilot until it generates tests that pass with some coverage, and ships code that nobody understand and can’t be fixed if something goes wrong”.
    6. Conclusion

    Que conclure ? Plus le temps passe, moins je suis tentée d’utiliser ChatGPT ou d’autres outils d’IA générative. Le rythme effréné des annonces et la vision du monde des promoteurs de ces outils m’ont définitivement vaccinée contre le moindre frémissement d’intérêt qui aurait pu subsister. Et je n’ai même pas abordé ici les questions de biais, de sécurité, de protection de la vie privée, … Je lisais récemment CEO of AI Music Company Says People Don’t Like Making Music et comme je suis moi-même incapable de jouer dequelque instrument que ce soit, j’imagine que j’aurais dû être dans la cible de cette entreprise qui prétend “démocratiser” la création musicale. Eh bien non, pas du tout. Dans toute activité créative ce n’est pas le résultat qui compte, c’est le chemin. J’ai pris beaucoup de plaisir à écrire ce texte sans aucune “aide” par ChatGPT. Je continuerai comme ça.

    Ah, j’oubliais, si vous êtes tentés d’utiliser ChatGPT comme outil de recherche d’informations, alors même que l’outil n’est vraiment pas fait pour ça et contribue à polluer l’espace informationnel, essayez plutôt eurekoi. C’est plus lent, bien sûr. Mais ça tombe bien, il est urgent de ralentir.

    https://pdimagearchive.org/images/1679dcfd-d3d8-4ecc-a19a-21beced97f05

    https://academia.hypotheses.org/58766
    #AI #IA #intelligence_artificielle #utilisation #enseignement #recherche #ESR

    • L’effet coupe rase s’accompagne donc d’une transformation des métiers. On nous explique ainsi que les IAs permettent d’automatiser les tâches répétitives et peuvent déjà remplacer les programmeurs juniors, mais que les programmeurs seniors sont toujours nécessaires. Une première conséquence devrait sauter aux yeux : comme on ne devient pas senior sans être passé par le stade junior, la disparition des juniors devrait logiquement être suivie de la disparition des seniors. A moins de croire que les IAs génératives seront d’ici-là capables d’apprendre toutes seules (mais à partir de quoi ?), cela devrait provoquer une certaine inquiétude.

      On nous explique aussi que les programmeurs seniors restent l’humain dans la boucle. J’ai beaucoup apprécié ce texte d’une traductrice professionnelle qui explique que passer d’une activité de création de texte à une activité de relecture et correction d’un premier jet produit par une IA (non générative ici) modifie le métier et le rend pénible sans vrai gain de temps. Je soupçonne que ces conclusions s’appliquent aussi à la programmation.

      Je vais parler de ce que je connais :c’était la promesse, il y a encore quelques mois, de remplacer les développeurs, débutants ou pas. Le soufflé est retombé. L’IA générative est probablement une énorme bulle de spéculation. Les gens se sont amusés les premiers mois, maintenant il n’y plus guère que les marketeux pour utiliser ChatGPT pour générer leurs posts Linkedin sans intérêt et des collégien-ne-s/lycéen-ne-s/étudiant-e-s naïfs-ves qui l’utilisent en pensant que ça passera (mais oh surprise, ça ne passe pas, les profs s’en rendent compte), de la même manière que Wikipedia était recopié consciencieusement il y a quelques années encore, et plus loin encore des Universalis ou Larousse... Je suis développeur, et je peux dire que les IA génératives, même spécialisées en code, font encore globalement n’importe quoi. Pourtant on a tou-te-s un abonnement à une IA ici, eh bien ça sert très peu (alors que bon, on pourrait presque se dire : « chouette ça va bosser à ma place sans que personne le voit »). C’est une vague aide à la compréhension, et encore seulement si on a un minimum de compréhension de la logique du code. Je ne dis pas que ça va durer éternellement, peut-être qu’un jour une IA fera tout à notre place, mais ce qui est sûr c’est que ChatGPT n’est pas cette IA là.

    • on a tou-te-s un abonnement à une IA ici

      pas vraiment ; le quota gratuit me suffit largement à me faire aider pour retrouver les bonnes options de ffmpeg ou de rsync une fois par semaine

    • (man ffmpeg consomme bien moins d’énergie et de bébés phoques et n’hallucine pas d’options qui n’existent pas (souvenir de @stephane qui avait partagé une expérience amusante à ce sujet) :-) )

      J’ai tjs des seniors ds mes connaissances, qui m’expliquent que pour rédiger un script dans un langage qu’ils ne connaissent pas, ça leur fait gagner du temps. Ici, on ne l’utilise pas du tout. Même par curiosité. La simple possibilité d’une hallucination ne m’amuse pas, ne me donne pas envie. J’aime résoudre des problèmes, mais pas quand il y a la prétention à m’aider à les résoudre tout en m’en créant d’encore plus vicieux à résoudre.

    • J’ai un abonnement au gaz, à l’élec, au téléphone mobile qui m’a fait couper le fixe, au loyer que c’est deux bras et presque toute la gueule, à l’assurance locative obligatoire, au contrat d’entretien du chauffe-eau exigé par le proprio sous peine de rupture de bail, à une mutuelle de santé hors de prix qui rembourse la naturopathie mieux que la réparation des dents, à tel point que je doit limiter des frais de santé plutôt nécessaires mais généreusement pris en charge à 0%. Je raque une carte annuelle de réduc SNCF, une autre pour des TER, pas que je m’en serve tant mais sans elles, faudrait revenir à l’auto-stop. Et j’achète plus de contrat box.
      Les dépenses incompressibles, y en a nettement trop vu de ma fenêtre qu’elle est riquiqui, alors j’essaie de pas en inventer.
      Dans mon bled capital, j’espère être dispo dès qu’un petit coup de fenwick sera opportun.

    • « L’intelligence artificielle accélère le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs »
      TRIBUNE
      https://www.lemonde.fr/idees/article/2025/02/06/l-intelligence-artificielle-accelere-le-desastre-ecologique-renforce-les-inj

      Tout concourt à ériger le déploiement massif de l’intelligence artificielle (IA) en priorité politique. Prolongeant les discours qui ont accompagné l’informatisation depuis plus d’un demi-siècle, les promesses abondent pour conférer à l’IA des vertus révolutionnaires et imposer l’idée que, moyennant la prise en compte de certains risques, elle serait nécessairement vecteur de progrès. C’est donc l’ensemble de la société qui est sommée de s’adapter pour se mettre à la page de ce nouveau mot d’ordre industriel et technocratique.

      Partout dans les services publics, l’IA est ainsi conduite à proliférer au prix d’une dépendance technologique accrue. Partout dans les entreprises, les manageurs appellent à recourir à l’IA pour « optimiser » le travail. Partout dans les foyers, au nom de la commodité et d’une course insensée à la productivité, nous sommes poussés à l’adopter.
      Pourtant, sans préjuger de certaines applications spécifiques et de la possibilité qu’elles puissent effectivement répondre à l’intérêt général, comment ignorer que ces innovations ont été rendues possible par une formidable accumulation de données, de capitaux et de ressources sous l’égide des multinationales de la tech et du complexe militaro-industriel ? Que pour être menées à bien, elles requièrent, notamment, de multiplier la puissance des puces graphiques et des centres de données, avec une intensification de l’extraction de matières premières, de l’usage des ressources en eau et en énergie ?

      Des conséquences désastreuses

      Comment ne pas voir qu’en tant que paradigme industriel, l’IA a d’ores et déjà des conséquences désastreuses ? Qu’en pratique, elle se traduit par l’intensification de l’exploitation des travailleurs et travailleuses qui participent au développement et à la maintenance de ses infrastructures, notamment dans les pays du Sud global où elle prolonge des dynamiques néocoloniales ? Qu’en aval, elle est le plus souvent imposée sans réelle prise en compte de ses impacts délétères sur les droits humains et l’exacerbation des discriminations telles que celles fondées sur le genre, la classe ou la race ?

      Que de l’agriculture aux métiers artistiques en passant par bien d’autres secteurs professionnels, elle amplifie le processus de déqualification et de dépossession vis-à-vis de l’outil de travail, tout en renforçant le contrôle managérial ? Que dans l’action publique, elle agit en symbiose avec les politiques d’austérité qui sapent la justice socio-économique ? Que la délégation croissante de fonctions sociales cruciales à des systèmes d’IA, par exemple dans le domaine de la santé ou de l’éducation, risque d’avoir des conséquences anthropologiques, sanitaires et sociales majeures sur lesquelles nous n’avons aujourd’hui aucun recul ?

      Or, au lieu d’affronter ces problèmes, les politiques publiques menées aujourd’hui en France et en Europe semblent essentiellement conçues pour conforter la fuite en avant de l’intelligence artificielle. C’est notamment le cas de l’AI Act adopté par l’Union européenne et présenté comme une réglementation efficace, alors qu’il cherche en réalité à promouvoir un marché en plein essor. Pour justifier cet aveuglement et faire taire les critiques, c’est l’argument de la compétition géopolitique qui est le plus souvent mobilisé.

      Une maîtrise démocratique

      A longueur de rapports, l’IA apparaît ainsi comme le marchepied d’un nouveau cycle d’expansion capitaliste, et l’on propose d’inonder le secteur d’argent public pour permettre à l’Europe de se maintenir dans la course face aux Etats-Unis et à la Chine.

      Ces politiques sont absurdes, puisque tout laisse à penser que le retard de l’Europe dans ce domaine ne pourra pas être rattrapé, et que cette course est donc perdue d’avance.

      Surtout, elles sont dangereuses dans la mesure où, loin de constituer la technologie salvatrice souvent mise en avant, l’IA accélère au contraire le désastre écologique, renforce les injustices et aggrave la concentration des pouvoirs. Elle est de plus en plus ouvertement mise au service de projets autoritaires et impérialistes. Non seulement le paradigme actuel nous enferme dans une course technologique insoutenable, mais il nous empêche aussi d’inventer des politiques émancipatrices en phase avec les enjeux écologiques.

      La prolifération de l’IA a beau être présentée comme inéluctable, nous ne voulons pas nous résigner. Contre la stratégie du fait accompli, contre les multiples impensés qui imposent et légitiment son déploiement, nous exigeons une maîtrise démocratique de cette technologie et une limitation drastique de ses usages, afin de faire primer les droits humains, sociaux et environnementaux.

      Premiers signataires : David Maenda Kithoko, président de Génération Lumière ; Julie Le Mazier, cosecrétaire nationale de l’union syndicale Solidaires ; Julien Lefèvre, membre de Scientifiques en rébellion ; Marc Chénais, directeur de L’Atelier paysan ; Nathalie Tehio, présidente de la Ligue des droits de l’homme ; Raquel Radaut, porte-parole de La Quadrature du Net ; Soizic Pénicaud, membre de Féministes contre le cyberharcèlement ; Sophie Vénétitay, secrétaire générale du SNES-FSU ; Stéphen Kerckhove, directeur général d’Agir pour l’environnement ; Vincent Drezet, porte-parole d’Attac France.

      Organisations signataires :https://www.laquadrature.net/en/hiatus-manifesto

  • Pourquoi je n’utilise pas ChatGPT
    https://academia.hypotheses.org/58766

    Par Florence Maraninchi

    L’année 2025 est déjà particulièrement féconde en nouvelles plus fracassantes les unes que les autres sur les financements, la course aux armements entre la Chine et les USA, le sommet intergalactique sur l’IA à Paris, et les supposés progrès vers l’intelligence des IAs génératives. C’est un sujet courant de conversations dans le contexte privé ou professionnel. En réponse aux personnes qui s’étonnent de ma position résolument anti ChatGPT j’ai fini par construire un argumentaire que je vais développer ici.

  • Se libérer du technocolonialisme
    https://framablog.org/2025/02/02/se-liberer-du-technocolonialisme

    Chez Framasoft, nous travaillons activement à créer des clés de compréhension sur les #Enjeux_du_numérique. Ces enjeux sont vastes, multiples, parfois complexes à saisir. C’est d’autant plus vrai depuis la surmédiatisation de l’Intelligence Artificielle (IA) et la popularisation de … Lire la suite­­

    #Intelligence_Artificielle #Claviers_invités #Dans_les_algorithmes #hubert_guillaud #Intelligence_articielle