• lundi.dev — Un #milliard par #jour pour vérifier l’heure
    https://lundi.dev/newsletter/2026/02/09/2-un-milliard-par-jour-pour-verifier-l-heure

    On ne connaît pas la proportion de ces agents qui tournent sur des #LLMs hébergés par les géants du #numérique, mais je ne peux pas m’empêcher de faire un lien avec le fait que #Google, #Microsoft, #Amazon et #Meta ont dépensé l’année dernière plus de 376 milliards de dollars en #investissements (#capital #expenditure, ou #CapEx).

  • Cutting ties with #Big_Tech

    By 2030, the university aims to be digitally independent. And that’s not a pipe dream, say proponents of the plan. ‘We just need to be confident and realise that we’re already partway there.’

    Sometimes the board of directors listens. Sometimes, when enough initiatives come together at the same time, something starts to happen. And before you know it, the UG is a pioneer.

    That’s what happened when digital autonomy became a point of interest. Not only does the UG want to be the first university in the Netherlands to be independent of tech giants such as #Google and #Microsoft, but the board of directors also wants to allocate serious funds in the coming years to achieve this. They’ll cough up half a million in 2027, raising it to 1.5 million by 2030.

    Initially, there were just blogs and opinion pieces by UG data experts such as Oskar Gstrein and Titus Stahl. But after Donald Trump’s re-election, statements by Mark Zuckerberg, and the behaviour of Elon Musk, the discussion gained momentum. Suddenly, everyone saw the danger of depending on tech tycoons who care very little about ethics and a lot about money.
    Momentum

    In an open letter, the board of directors was called upon to draw up a plan for the UG’s digital independence. It was drafted by various data experts, including Gstrein and Stahl, together with organisations such as the Young Academy and the UG’s Open Science Community. But it was also signed by at least 391 other staff members and more than a hundred others.

    But a memo was also sent out with suggestions on how to tackle the problem. The initiatives received support from all sides within the university. ‘It was a broad group’, says Gstrein. ‘Marjolein Nieboer from the University Library and chief privacy officer Jan Willem Oordt also joined. They all came to the board at around the same time. There was real momentum.’

    The calls were wholeheartedly supported by rector magnificus Jacquelien Scherpen. And now there is a roadmap – drawn up after workshop afternoons and discussions with staff members – that should ensure that by 2030, the UG will have separated itself from Google, Microsoft, #Meta, and #Amazon.

    Privacy risk

    The first issue: sensitive data – information about students, staff, and research data – is often stored by large American companies. This poses a privacy risk, because the American government can demand access to it. Therefore, alternatives to Google Workspace, with email, a calendar, online meeting options, and storage, must be considered.

    The second issue: when digital systems are replaced, digital autonomy must be explicitly included in the terms and conditions. ‘Or’, says Gstrein, ‘when the term for which agreements have been made expires.’ Take Brightspace, for example, which replaced BlackBoard just a few years ago. ‘It runs on Amazon’, says Nolda Tipping-Griffioen, director of the Centre for Information Technology (CIT). ‘But we’re now in talks about whether they can change that, so that it is hosted in Europe, for example.’

    Another example is the plagiarism scanner Ouriginal, for which the contract expires next year. It used to be Swedish, but was bought by the American company Turnitin. ‘That means we send all our students’ essays to that company’, says Stahl. ‘That’s really awful.’

    The third issue: more experiments need to be launched in which employees can use alternatives. ‘Look, Google is a very large project’, says Stahl. ‘But there are also many small initiatives throughout the university. We can learn from each other and then, if something works, scale it up.’

    Pilots

    One of these pilots started back in September, when the UG became the first Dutch university to purchase a thousand licences for Mistral’s LeChat, the European answer to ChatGPT. The licences sold like hot cakes.

    There is also a project by SURF, the cooperative in which approximately a hundred Dutch educational institutions collaborate in the field of ICT. Following a successful internal pilot, SURF is now also experimenting externally with Nextcloud, an open-source platform similar to Google Drive, where people can store data, collaborate, and synchronise between different devices.

    For now, this is happening on a small scale – there are fifty licences. One of the participants, professor Rafael Wittek, decided to make the switch to Nextcloud with his colleagues in a research consortium. ‘Different universities work with different platforms’, he explains. ‘We use Google, but Utrecht, for example, works with Teams. That always causes problems with access.’ This could be the solution.

    But even more important to Wittek is digital autonomy, even if that means that some functionalities may not run as smoothly as they do now with Google. ‘We want to contribute to awareness’, he says. ‘We have to make a start. And it’s fantastic that Nextcloud gives you such precise control.’

    Basic foundation

    And there is more. Much more. A Digital Autonomy Fair at the House of Connections on the Grote Markt aims to bring initiatives together and provide a place where interested parties can go with their questions. ‘Many tools are already available via your own workspace’, says Babette Knauer with the University Library. ‘In addition, there are also tools for open source bibliographic management, alternative social media channels, or transcription tools offered by the Digital Competence Centre. The basic foundation is already there, and no one is aware of it.’

    The fair will therefore focus primarily on community building. ‘We hope that these people can inspire others to get started with this, too’, she says.

    In addition to stands where staff members who have already made the switch share their experiences, there will also be flash lectures. ‘In these, someone from the CIT talks about Linux workstations, the University Library explains Mastodon as an alternative to X, and Sebastiaan Mathôt from Behavioural and Social Sciences has written an open-source programme for setting up experiments.’
    Work to be done

    The pessimistic view some people have on the subject is unnecessary, Stahl emphasises. ‘They think that Big Tech is so big that we could never compete with them. But that’s not true! We also need to be a little confident and say: you know, we’re already partway there. We just need to bring it all together.’

    Nevertheless, Tipping-Griffioen emphasises that there is still much work to be done. Nextcloud still lacks many applications that Google does offer. However, there are few people who can build them.

    ‘As a society, we have been moving towards Microsoft Azure for so long that young people coming out of education today do not necessarily have the skills to start programming themselves’, she says. And that means we need to adapt our education systems to change that.

    Ecosystem

    But in the meantime, serious thought is being given to this. The German Centre for Digital Sovereignty, for example, offers a sovereign workplace based on Nextcloud. ‘This is becoming something of a European standard. So if someone here is trained to programme with it, you have a growing ecosystem of people who can work with it’, she says.

    This ambition could take shape through collaborations with vocational education and the Hanze University of Applied Sciences Groningen within the University of the North. ‘We are also trying to connect it to Nij Begun’, she says – the earthquake recovery programme intended to strengthen the prosperity of Groningen and north Drenthe.

    But she believes it’s possible. Slowly perhaps, but the beginning is there. ‘You know, I’ve already heard from a number of people that you can’t even migrate Google Drive en masse to a digital autonomous platform. Everyone has to do it themselves, because they put a kind of funnel on it, a throttle. There are all kinds of built-in features that give me the impression that we’re already in a trap that I want to get out of as quickly as possible. And I can’t stand that!’

    Want to know more about the available options? Visit the Digital Autonomy Fair at the House of Connections on 3 February, starting at 1.45 p.m.

    https://ukrant.nl/magazine/we-can-do-without-them-how-the-ug-is-cutting-ties-with-big-tech
    #université #Pays-Bas #indépendance #résistance #GAFAM

    –—

    ajouté à la métaliste sur les institutions et municipalités qui claquent les portes à #Microsoft :

    https://seenthis.net/messages/1143366

  • Un nouveau rapport mondial alerte sur l’impact délétère de l’#IA à l’#école : « les #élèves n’utilisent plus leur #cerveau »
    https://www.clubic.com/actualite-595255-un-nouveau-rapport-mondial-alerte-sur-l-impact-deletere-de-

    Sommes-nous face au nouveau mal du siècle ? La dépendance cognitive qu’entretiennent les plus jeunes avec les chatbots les enferment dans un confort intellectuel toxique où la contradiction n’existe plus. Pourquoi continuer à apprendre quand les #perroquets de #Google et #OpenAI savent déjà tout ? La réponse cinglante d’une étude menée dans des dizaines de pays.

  • Comment les #cartes sont devenues des #contre-pouvoirs pour redessiner le monde

    Luttes écologistes, défense des libertés, mouvements féministes… Longtemps réservée aux puissants, la cartographie se réinvente sous l’impulsion de collectifs citoyens, de chercheurs, de journalistes et d’artistes. Un mouvement critique ancré dans une riche histoire théorique.

    Des îlots de forêt sillonnés par des camions de rondins et cernés par des usines de papier et de pellets, d’où surgit un impressionnant crapaud sonneur à ventre jaune, une espèce protégée. C’est ainsi que des habitants de la Montagne limousine ont représenté « leur » massif forestier, à la croisée de la Corrèze, de la Creuse et de la Haute-Vienne.

    Coéditée par IPNS, le journal d’information et de débat du plateau de Millevaches, et la maison d’édition associative A la criée, située à Nantes, la carte au format papier n’est pas destinée aux randonneurs ou aux touristes de passage. En mêlant #dessins et #récits, elle « vise à questionner les dynamiques forestières », explique #Frédéric_Barbe, géographe, artiste et membre de l’association, et donne à voir ce que les cartes institutionnelles ne montrent pas : l’industrialisation d’un territoire, la tristesse des riverains face aux coupes rases et leur volonté d’un autre avenir pour la #forêt.
    La publication fait partie de la douzaine de « #cartes_de_résistance » produites en dix ans par l’éditeur, vendues à prix bas ou libre avec un certain succès. La conception est toujours collective, menée à l’initiative ou au plus près des habitants, avec le soutien d’un géographe et d’un graphiste. La première, celle de la ZAD de Notre-Dame-des-Landes (Loire-Atlantique), en février 2016, est épuisée après cinq tirages et plus de 20 000 exemplaires diffusés. Celle des Jeux olympiques de Paris, en partenariat avec le collectif local Saccage 2024, raconte le revers de la médaille des JO, les expulsions d’habitants à Saint-Denis (Seine-Saint-Denis) et les morts d’ouvriers sur les chantiers du Grand Paris.
    Ces productions rompent délibérément avec les conventions graphiques de la cartographie institutionnelle. « La carte n’est pas le #territoire, mais invite à le penser, affirme l’éditeur. C’est un outil d’#éducation_populaire, simple et pas cher, que l’on peut afficher au mur ou poser sur une table pour réfléchir ensemble à la façon dont on veut vivre sur cet espace. »
    Un vent de rébellion souffle sur la cartographie, une discipline pourtant perçue comme technique et très codifiée. Un foisonnement d’initiatives et de réflexions a émergé depuis une quinzaine d’années, dont il est difficile de cerner les contours, tant il exprime une variété d’intentions, de méthodes et de productions. « Je travaille dans ce domaine depuis trente-cinq ans, et je n’arrive pas à suivre le rythme de toutes les initiatives », s’exclame #Philippe_Rekacewicz, chercheur associé au département des sciences sociales de l’université de Wageningue (Pays-Bas) et l’une des figures françaises de ce courant.

    Pour la « #justice_spatiale »

    Cet ex-journaliste au Monde diplomatique se réclame d’une pratique « radicale » de la discipline, d’autres préfèrent se dire « critiques », d’autres encore ont adopté le terme de « #contre-cartographie ». Ces démarches, à la croisée des sciences, des arts, de la politique et de militantisme social, partagent un socle commun, celui de vouloir renverser le #pouvoir_des_cartes et les mettre au service d’une forme de « justice spatiale ». Luttes écologistes et urbaines, défense des libertés et des droits humains, mouvements féministes… Associations et collectifs contestent les représentations institutionnelles, se réapproprient l’espace ou montrent des réalités jusque-là invisibilisées. Elles sont souvent soutenues par des cartographes reconnus, et s’inscrivent dans une riche réflexion théorique et un « dialogue ancien entre le champ académique et les pratiques sociales », constate #Irène_Hirt, professeure au département de géographie et environnement de l’université de Genève (Suisse).
    De fait, ces pratiques contestataires trouvent leurs racines dans l’histoire même de la discipline. La géographe #Françoise_Bahoken, coautrice avec Nicolas Lambert de Cartographia. Comment les géographes (re)dessinent le monde (éditions Armand Colin, 2025), en date les prémices dès la fin du XIXe siècle, alors que la cartographie occidentale s’est imposée comme un modèle de scientificité, d’abord avec la précision des mesures, puis avec l’essor de la géographie quantitative liée à l’utilisation de données statistiques.

    Dès les années 1880, le géographe allemand #Ernest_George_Ravenstein s’empare du recensement de la population britannique pour infirmer l’idée selon laquelle les populations migrantes se déplaceraient de façon anarchique. Un peu plus tard, le sociologue afro-américain W. E. B. #Du_Bois visualise, à l’occasion de l’Exposition universelle de Paris de 1900, les « lignes de couleur » qui divisent la société américaine, démontrant, cartes et graphiques à l’appui, comment le racisme empêche toute égalité sociale.

    Il faut cependant attendre les années 1960 pour que ces travaux commencent à se diffuser, grâce à deux figures respectées de la profession, les géographes #David_Harvey et #William_Bunge (1928-2013). Le premier crée un courant d’inspiration marxiste, désigné sous le nom de « #géographie_radicale », qui s’attache à analyser la façon dont le capitalisme modèle les #inégalités_spatiales. Le second décide, en 1968, de rompre avec l’approche quantitative lorsqu’il prend conscience de son rôle dans les politiques urbaines ségrégationnistes aux Etats-Unis.

    Avec #Gwendolyn_Warren, leader militantiste des droits civiques de la communauté noire de Detroit (Michigan), William Bunge développe, dans cette ville ouvrière du nord des Etats-Unis, un projet de recherche géographique fondé sur l’enquête de terrain, embarquant dans l’aventure plusieurs centaines de jeunes habitants, femmes et hommes, du quartier noir de Fitzgerald. Pour Warren et Bunge, former les résidents à documenter les #logiques_spatiales, c’est démocratiser l’exercice du pouvoir. Ces « #expéditions_géographiques » conduiront à la publication d’un livre (Fitzgerald : Geography of a Revolution, Cambridge, 1971) sur les processus de paupérisation et d’exclusion du quartier.
    Ce sont toutefois les travaux d’un historien, #John_Brian_Harley (1932-1991), qui, à la fin des années 1980, opèrent un tournant théorique majeur. Dans son article fondateur, « Deconstructing the Map » (Cartographica, 1989), il invite à lire les cartes non comme de simples reflets du réel, mais comme des constructions sociales, traversées par des #rapports_de_pouvoir. La carte est une construction située dans le temps et dans l’espace, affirme-t-il, dont « une grande part du pouvoir (…) est qu’elle opère sous le masque d’une science en apparence neutre. Elle cache et nie sa dimension sociale en même temps qu’elle la légitime ».

    L’historien identifie un double pouvoir derrière l’outil : celui du cartographe ou de son commanditaire, qui décide de ce qui est représenté par le biais de choix multiples (projection, échelle, toponymes…), mais aussi un pouvoir interne, propre à la carte elle-même. Non seulement elle n’est pas neutre, mais elle est performative : elle agit sur nos #imaginaires et induit des #représentations. « Pour Harley, il faut absolument analyser d’un côté les intentions et les choix politiques de l’auteur, et de l’autre les usages, la façon dont la carte peut être instrumentalisée pour penser un territoire », souligne le géographe et chercheur au CNRS #Matthieu_Noucher.

    Ces réflexions, ainsi que l’ambitieuse History of Cartography que John Brian Harley dirige avec David Woodward (Presse de l’université de Chicago) à la même époque – le premier volume est publié en 1987 –, provoquent un choc méthodologique durable. La mise en lumière des formats multiples des cartes non occidentales contribue à décentrer le regard et à éclairer la dimension partielle et politique de toute représentation spatiale.

    Mythe de la #terre_vierge

    Cette prise de conscience va inspirer de nombreuses études en sciences sociales, notamment sur le rôle central de la cartographie dans l’#histoire_coloniale. « Elles montrent que, du XVIIe au XIXe siècle, la carte a servi à créer le mythe de la #terra_nullius, la terre vierge inhabitée, pour justifier les #conquêtes_coloniales en accréditant l’idée de territoires vides d’hommes et de femmes », explique Matthieu Noucher. Le chercheur s’est attaché à analyser le « #blanc_des_cartes », voire leur « #blanchiment » lorsqu’il s’agit d’effacer les rares mentions de populations autochtones. Ainsi, en Guyane, une première carte française notifie, en 1732, la présence de « nations indiennes » sur le territoire, une formule remplacée trois décennies plus tard par la mention de « belles et très fertiles plaines que doit habiter la nouvelle colonie française ». Entre-temps, la France a perdu ses possessions canadiennes et a décidé de fonder une colonie de peuplement en Guyane.
    L’approche critique ne se limite pas à questionner la carte comme représentation dominante. A partir des années 1970, l’outil lui-même est réinvesti par les communautés autochtones pour défendre leurs droits territoriaux face aux projets extractivistes. Pour les communautés locales d’Amérique du Sud, d’Asie, d’Afrique et d’Océanie, produire des cartes devient une stratégie de #résistance à l’industrialisation des terres, comme en Colombie-Britannique (Canada) contre la construction de pipelines de gaz et de pétrole. En 1995, la sociologue américaine #Nancy_Lee_Peluso forge le terme de « #contre-cartographie » pour désigner cette production destinée à contester les structures de pouvoir.

    Ces « contre-cartes » interrogent aussi la dimension culturelle des #méthodes utilisées, et du même coup les frontières de la science occidentale. « La contre-cartographie invite en effet à une #décolonisation des savoirs géographiques qui ne se matérialisent pas tous sous forme d’images. Ils peuvent se transmettre par la parole, le chant, la danse, la sculpture ou les rêves, intimement liés aux pratiques et aux territoires de la chasse ou de la pêche, souligne Irène Hirt, qui a accompagné des communautés mapuche au Chili et innu au Québec dans la reconstitution de leur milieu de vie. Loin d’être vides comme le disent les cartes, ces terres sont pleines de toponymes, de lieux de rassemblement ou de sépultures, de sentiers de portage et de routes de migration humaine et non humaine. »

    A l’aube des années 2000, la généralisation des outils numériques ouvre un nouveau chapitre. L’essor des techniques de la géomatique (systèmes d’information géographique – SIG –, GPS, télédétection, etc.) et l’accès à de larges bases de données transforment profondément la cartographie conventionnelle. La géovisualisation devient en quelques années l’alliée indispensable de l’organisation des territoires. « Avec l’arrivée de l’application cartographique Google Maps en 2005, on a vu ressurgir une forme de croyance aveugle dans l’objectivité des données, et dans leur capacité à livrer en temps réel une image exacte du territoire », constate Matthieu Noucher.

    Les algorithmes et leur vision du monde

    Cette rupture renouvelle radicalement les enjeux de pouvoir. « Pour prendre au sérieux la proposition de John Brian Harley, il faut désormais s’intéresser aux fonctionnements des #algorithmes, des #bases_de_données et des applications », prévient le géographe. Et comprendre comment ces programmes, loin d’être neutres, imposent eux aussi une vision du monde. L’auteur de Blancs des cartes et boîtes noires algorithmiques (CNRS Editions, 2023) analyse les choix et les silences de modèles économiques fondés sur la publicité, qui « conduisent à privilégier, par exemple, l’affichage des commerces et à ignorer les milieux vivants ».

    Le « blanc des cartes », affirme Matthieu Noucher, prend un tout autre sens avec la personnalisation algorithmique et les bulles de filtre qui imposent désormais des réalités différentes selon le profil des utilisateurs, leur pays et leurs usages. Ainsi, Google Maps adapte son affichage en fonction du contexte politique et géographique du pays. « Depuis la décision de Donald Trump de remplacer l’appellation “golfe du Mexique” par “golfe d’Amérique”, un écolier américain ne voit plus la même carte qu’un élève mexicain », regrette le géographe.

    Cette personnalisation enferme les individus dans des visions fragmentées de l’espace, où commerces, infrastructures et frontières symboliques sont hiérarchisés différemment pour chacun. Ce basculement marque une rupture : « En se substituant aux organismes nationaux et internationaux chargés de réguler les noms et les représentations des lieux, les grandes plateformes numériques imposent progressivement leurs propres logiques, souvent guidées par des intérêts économiques ou géopolitiques », alerte le chercheur. Alors que la carte constituait jusque-là un #bien_commun et un support partagé indispensable au débat démocratique, « elle tend désormais à devenir un objet individualisé, soumis à une postsouveraineté cartographique dominée par les géants du numérique, au risque d’éroder toute représentation collective de l’espace ».

    Confrontées à ces évolutions, les approches critiques se sont, elles aussi, renouvelées. La démocratisation d’outils de plus en plus accessibles et participatifs a renforcé les pratiques alternatives. Lancé en 2004, le projet collaboratif de cartographie en ligne #OpenStreetMap, créé et mis à jour par des bénévoles du monde entier, et dont les données géographiques sont ouvertes à tous, reste « l’exemple le plus abouti de la contestation de la mainmise d’une multinationale comme #Google sur les représentations géographiques du monde », estime #Nicolas_Lambert, ingénieur en sciences de l’information géographique au CNRS. Ce spécialiste de la #géovisualisation a rejoint Migreurop en 2009, un réseau d’experts et d’une cinquantaine d’associations de défense des droits humains, qui « documente » et « dénonce » les effets des politiques migratoires européennes à travers la publication d’atlas « engagés ».

    Les initiatives de cartographie critique se développent aujourd’hui dans une grande diversité de contextes, d’échelles et de formes. Elles peuvent être individuelles ou collectives, concerner un quartier, un pays ou avoir une portée internationale, s’inscrire dans le cadre de travaux académiques, de luttes politiques ou d’enquêtes journalistiques, ou encore entremêler tout cela à la fois.
    De nombreuses productions s’appuient sur des données statistiques, tandis que d’autres ont recours à des approches dites « sensibles », qui visent à réinscrire les #expériences_vécues au cœur des #représentations_spatiales. Cette cartographie fondée sur les #sens et les #émotions s’est développée à travers les marches exploratoires de femmes, créées dans les années 1990 au Canada, à Toronto et à Montréal, puis organisées en France depuis une dizaine d’années. Angoisse, peur, sentiment de sécurité ou de confort deviennent autant d’éléments traduits en symboles graphiques. En rendant visibles les expériences de l’#espace_public différenciées selon le #genre, ces marches ont fait de la carte un outil pour repenser l’aménagement urbain et lutter contre les violences, mais aussi un levier d’émancipation. « S’inscrire dans l’espace symbolique de la carte revient à se réapproprier l’espace, à forcer la reconnaissance de soi et à exister aux yeux des autres », se réjouit l’historienne Nepthys Zwer, autrice de Pour un spatio-féminisme. De l’espace à la carte (La Découverte, 2024).

    « #Cartes_mentales » des émotions

    Dans ce contexte, le recours à des modes d’expression créatifs (collage, dessin, broderie) facilite la participation de publics peu familiers des codes classiques. A Grenoble, des « rencontres cartographiques » entre migrants, chercheurs en sciences sociales et artistes, organisées dans les locaux de l’association Accueil Demandeurs d’asile, ont permis de collecter les récits de parcours migratoires par le dessin, la broderie et même la sculpture de l’argile à travers des « cartes mentales » des émotions, comme l’ont montré les travaux des géographes #Sarah_Mekdjian et #Anne-Laure_Amilhat-Szary.

    Dans cette perspective, la #subjectivité de la démarche est clairement revendiquée. Mais ces approches soulèvent aussi des questions : que peuvent apporter ces représentations à des pratiques plus conventionnelles ? Quelle place leur accorder dans une discipline formalisée ?

    « Parce qu’elle légitime et réhabilite les attachements et l’expérience empirique qu’ont les individus d’un territoire, la contre-cartographie est forcément subjective, comme toute carte d’ailleurs », souligne Nepthys Zwer. Elle se réclame d’un double héritage : celui de John Brian Harley, pour qui la carte n’est jamais neutre, et celui de la philosophe féministe américaine #Donna_Haraway, pour qui « toute #objectivité est toujours produite à partir d’un “#savoir_situé” ». Pour autant, « ces pratiques ne peuvent se réduire à un outil de lutte politique, prévient l’historienne. Elles font partie intégrante de la discipline qu’elles complètent et enrichissent, et doivent à ce titre être évaluées comme les autres ».

    C’est aussi l’avis de Philippe Rekacewicz, qui a choisi de son côté d’abandonner le terme de « contre-cartographie », parce qu’il « peut être interprété comme s’opposant à la cartographie conventionnelle ». « Or, nous utilisons les mêmes règles, nos méthodes d’enquête et d’entretien sont celles de la géographie qualitative et des sciences humaines en général. Ce qui change, c’est l’#intention, la volonté de déconstruire le discours du pouvoir et de rendre visible ce qu’il ne souhaite pas montrer », explique-t-il.

    Néanmoins, pour Françoise Bahoken, il faut différencier les cartes des « images et autres représentations de territoire ». « Certes, aucune représentation n’est objective par définition, mais la cartographie en tant que discipline scientifique s’appuie sur des théories et des méthodes, des dispositifs et des principes, et tend vers l’objectivité. Certaines approches ne sont pas scientifiques, ce qui ne veut pas dire qu’elles ne sont pas importantes, puisqu’elles permettent à des non-spécialistes de s’emparer des questions d’inégalité spatiale. »

    Planisphères et contre-cartes

    Longtemps marginal, le mouvement commence à se faire une place à l’université. « La cartographie critique fait l’objet de travaux académiques aujourd’hui largement reconnus et qui suscitent des vocations », affirme Nicolas Lambert. A l’université de Tours, un cursus de cartographie expérimentale a vu le jour au sein du département de géographie où des étudiants s’initient à des ateliers de #cartographie_sensible, tandis que d’autres universités comme Bordeaux et Grenoble proposent, elles aussi, des ateliers.

    De son côté, l’approche critique numérique fait l’objet d’un intérêt croissant, avec la prise de conscience de la puissance et de l’opacité des boîtes noires algorithmiques et du besoin de méthodes pour analyser leur fonctionnement. L’Agence nationale de la recherche finance désormais des projets dans ce domaine. « Un vrai progrès », se réjouit Matthieu Noucher, qui anime un groupe de travail autour des approches critiques au sein du réseau Magis, principalement composé de géomaticiens, ces spécialistes des données et des systèmes d’information géographique, et premiers concepteurs de cartes. « Jusque-là, les acteurs de la cartographie critique et ceux de la production de cartes officielles ne se parlaient pas beaucoup. Le principal enjeu aujourd’hui est de faire dialoguer les points de vue pour enrichir les modes de représentation », souligne le géographe.

    Le chercheur prépare, pour juin, à Bordeaux, une exposition à la croisée des arts et des sciences, qui fera dialoguer différentes représentations spatiales de la planète : des planisphères et des contre-cartes des Attikamek du Québec, des globes terrestres numériques à la manière de Google Earth et des sculptures de communautés autochtones kali’na de Guyane. Une autre façon de construire des ponts entre différentes visions du monde.

    https://www.lemonde.fr/idees/article/2026/01/02/comment-les-cartes-sont-devenues-des-contre-pouvoirs-pour-redessiner-le-mond
    #cartographie #visualisation #cartographie_radicale #cartographie_critique #pouvoir #performativité
    ping @visionscarto @reka
    via @karine4

  • Comment l’#IA dévore la planète

    L’incroyable essor de l’intelligence artificielle, technologie particulièrement vorace en énergie, en eau et en terres rares, interroge à l’heure où les géants du secteur sont lancés dans une course au gigantisme.

    Derrière les réponses presque magiques de ChatGPT, les vidéos imaginaires sans limites de Sora ou les images synthétiques bluffantes de Grok ou Gemini, l’intelligence artificielle (IA) a une empreinte bien réelle sur le monde. Dans une industrie du numérique énergivore, cette technologie se distingue par l’intensité de la puissance de calcul qu’elle nécessite pour chaque requête. Cela se reflète dans l’explosion inédite des investissements des géants de l’IA dans les data centers : 620 milliards de dollars (529 milliards d’euros) en 2026, selon la banque Morgan Stanley, soit déjà près de quatre fois plus qu’en 2023.
    Cette course au gigantisme – Meta a ainsi un projet de data center grand comme la moitié de l’île de Manhattan et puissant comme cinq réacteurs nucléaires – a de nombreux impacts tout au long de la chaîne de valeur de l’IA.
    Cette absorption de ressources fait craindre des pénuries ou des conflits d’usage locaux avec d’autres besoins essentiels tels que l’agriculture, l’électrification des transports ou de l’industrie. L’IA doit-elle donc être développée à tout prix ? Il convient de la piloter « avec sobriété », en choisissant « le juste niveau de technologie au service d’un besoin réel », met en garde l’Agence de la transition écologique (Ademe) dans une étude publiée début novembre. Et le 8 décembre, plus de 230 ONG ont demandé un moratoire sur la construction de nouveaux centres de données aux Etats-Unis.

    Pour évaluer l’impact sur la planète de ces cartes,des chercheurs ont démantelé et broyé l’une des plus utilisées au monde, la Nvidia A100. Ils y ont trouvé plus d’une vingtaine de métaux différents, dont des terres rares.

    L’essor de l’IA donne un coup de fouet à l’industrie des semi-conducteurs, qui pourrait doubler en cinq ans. Le marché des GPU et autres puces destinées à l’IA domine la croissance et devrait dépasser les 280 milliards de dollars d’ici à 2029.

    Or, ce secteur est gourmand en eau, énergie, métaux et produits chimiques. Et ce alors que, pour augmenter la puissance de calcul, les éléments de base doivent être de plus en plus petits, et donc de plus en plus purs, ce qui nécessite l’utilisation de toujours plus de produits toxiques.

    Dans les usines du taïwanais TSMC, plus important industriel du secteur, la production d’un seul « wafer » de 12 pouces, où sont gravées les puces, requiert plus de 7 000 litres d’eau. Le groupe – qui indique recycler 88 % de l’eau qu’il utilise – en fabrique l’équivalent de 16 millions par an.

    Artificialisation des sols
    L’expansion de l’IA nourrit une croissance inédite des dépenses dans les data centers : les géants du secteur, d’OpenAI à Meta, en passant par Google, Amazon ou Microsoft, vont investir 470 milliards de dollars dans ces infrastructures en 2025 et même 620 milliards en 2026, selon la banque Morgan Stanley. Soit près de quatre fois plus qu’en 2023.

    Il n’existe pas de recensement mondial du nombre de kilomètres carrés aujourd’hui occupés par les data centers. Mais, aux Etats-Unis, les montants investis dans la construction de ces infrastructures sont sur le point de dépasser ceux des bureaux traditionnels.

    Et d’immenses chantiers ont été lancés : Stargate, d’OpenAI, situé dans la petite ville d’Abilene, au Texas, comptera huit bâtiments sur une zone de près de 4,5 kilomètres carrés – plus vaste que Central Park à New York. Le patron de Meta, Mark Zuckerberg, a annoncé que le méga data center Hyperion, prévu en Louisiane, pourrait couvrir l’équivalent d’« une partie importante de la superficie de Manhattan ».

    En France, le gouvernement a annoncé avoir identifié 35 sites « favorables » à l’installation de centres de données pour un total de 12 km² – soit 1 680 terrains de foot.

    Consommation d’électricité
    Cette course au gigantisme s’illustre par leur puissance électrique exponentielle. Les plus gros sites en construction prévoient désormais d’égaler ou de dépasser une capacité électrique de 1 gigawatt (GW). Soit environ l’équivalent de la puissance d’un réacteur nucléaire.
    Et les objectifs sont encore plus démesurés : xAI sera « le premier à mettre en fonctionnement 10 GW, 100 GW, 1 TW [térawatt]… », a affirmé sur X Elon Musk, en septembre.

    L’augmentation de la puissance installée des data centers devrait en conséquence faire bondir leur consommation électrique annuelle liée à leur utilisation. Celle-ci pourrait tripler d’ici à 2030.

    Pour le moment, l’électricité alimentant les data centers ne représente qu’environ 1,5 % de la consommation mondiale, selon l’AIE. Mais aux Etats-Unis, cette part pourrait passer de 4,4 % à entre 7 % et 12 % en 2028, selon le ministère de l’énergie américain. En Europe, les data centers pourraient peser 7,5 % de la consommation électrique d’ici à 2035, contre 2,5 % aujourd’hui, selon le Shift Project, le cercle de réflexion présidé par Jean-Marc Jancovici.

    Consommation d’eau
    L’IA n’est pas seulement vorace en énergie, elle est aussi insatiable en eau. En 2023, les prélèvements associés aux centres de données auraient déjà dépassé les 5 000 milliards de litres, selon les calculs de l’Agence internationale de l’énergie (AIE). Soit l’équivalent de toute l’eau potable puisée en France en une année.

    Une partie de cette eau est recyclée, c’est pourquoi la part réellement consommée – notamment en raison de l’évaporation – représente environ 560 milliards de litres.

    A l’avenir, l’AIE s’attend à ce que la consommation d’eau associée aux centres de données soit multipliée par deux d’ici à 2030, pour atteindre environ 1 200 milliards de litres par an.
    Les conséquences d’un même prélèvement sur les nappes et les rivières varient selon les territoires. A titre d’exemple, 14 % de l’eau utilisée par Google viennent de zones à risque « élevé » de pénurie, selon les documents de l’entreprise.

    Emissions de CO2
    Aujourd’hui, l’électricité des data centers provient pour plus de la moitié d’énergie carbonée.

    La croissance des émissions de gaz à effet de serre des data centers devrait doubler, voire tripler, selon les scénarios établis par le Shift Project.

    Les data centers, dont une partie sert à l’IA, émettent plus de gaz à effet de serre que la France : 369 millions de tonnes en équivalent CO₂, en 2024, selon le ministère de la transition écologique.

    https://www.lemonde.fr/economie/article/2025/12/26/comment-l-ia-devore-la-planete_6659449_3234.html
    #AI #visualisation #statistiques #extractivisme #eau #énergie #terres_rares #ChatGPT #Sora #Gemini #Grok #empreinte #puissance_de_calcul #data_centers #centres_de_données #investissements #Meta #ressources #conflits #pénurie #extractivisme #mines #cartes_graphiques #GPU #graphics_processing_unit #serveurs #impact #Nvidia_A100 #métaux #semi-conducteurs #puces #produits_chimiques #toxicité #TSMC #wafer #artificialisation_des_sols #OpenAI #Google #Amazon #Microsoft #chiffres #statistiques #Stargate #Abilene #Texas #Hyperion #France #CO2 #gaz_à_effet_de_serre #infographie

  • En #Afrique, des « #petites_mains » du numérique toujours aussi précaires à l’heure du boom de l’#IA

    Il y a quelques années, les « #travailleurs_du_clic » africains sortaient de l’ombre, révélant l’envers du décor des entreprises du numérique. Depuis, l’#IA_générative a explosé, rendant ces travailleurs d’autant plus indispensables et le secteur encore plus attractif. Mais la réalité de ce travail reste marquée par la #précarité.

    Ce n’était pas la panacée, mais Joyce (les personnes désignées par un prénom ont souhaité rester anonymes) se souvient presque avec nostalgie de ses débuts sur #Remotasks, en 2018. « Il suffisait de créer un compte pour commencer à gagner de l’argent immédiatement, sans aucune restriction ni processus de vérification. » Depuis son ordinateur, elle enchaîne alors les #microtâches d’#annotation de #données : vérifier des images, organiser des informations destinées à entraîner des systèmes d’intelligence artificielle. De quoi s’assurer un #revenu d’appoint pour la jeune Kényane fraîchement diplômée.

    Mais les choses se sont compliquées. En 2024, de nombreux travailleurs kényans, comme Joyce, ont vu leur accès à Remotasks soudainement coupé, explique-t-elle. La maison mère #Scale_AI évoque, elle, des fermetures de comptes pour non-respect de ses règles internes. Surtout, selon la jeune femme, le volume de travail n’a plus rien à voir. « Avant, nous pouvions gagner un revenu décent car le boulot était continu. Aujourd’hui, les tâches sont moins nombreuses, à court terme et peu durables », constate Joyce. Faute de missions, elle se forme à la transcription pour diversifier ses sources de revenus.

    Ces deux dernières années, Oluwaseun, au Nigeria, a travaillé pour plusieurs acteurs du secteur, parmi lesquels #Appen et #Mindrift. Elle participe à l’#entraînement des modèles d’IA, du #contrôle_qualité des réponses générées par les #LLM à l’annotation de données texte, image ou audio. Si la jeune femme ne se plaint pas de sa situation, elle concède que « la #rémunération n’est jamais assez élevée pour dépendre d’une seule plateforme. En Afrique, il faut plusieurs jobs », d’autant que « la concurrence s’est clairement intensifiée sur ces plateformes ».

    Doit-on y voir le signe d’un remplacement rapide de ces petites mains du numérique par des systèmes automatisés, alors qu’elles opèrent pour le compte d’entreprises comme #Meta, #OpenAI, #Microsoft ou #Google ? Le sociologue Antonio Casilli balaie immédiatement cette idée. Depuis bientôt dix ans, il dirige le groupe de recherche DIPLab (Digital Platform Labor), qui a enquêté sur les travailleurs du clic dans une trentaine de pays. Pour lui, l’idée d’un « remplacement » du travail humain par les machines est un « mensonge idéologique », utilisé pour faire accepter une dégradation des #conditions_de_travail.

    D’après les données collectées par son équipe, le volume de microtâches ne diminue pas : au contraire, « plus le marché de l’intelligence artificielle générative grandit, plus on a besoin de réentraîner les #modèles », donc plus il faut de #travail_humain. Le boom de l’IA ne signe donc en rien la fin de ces travailleurs de l’ombre... pas plus qu’il ne signifie une amélioration de leurs conditions de travail.

    « Une forme d’#esclavage_moderne joliment emballée »

    L’histoire du « #digital_labor africain » s’inscrit dans celle, plus globale, du « digital labor », concept désignant des formes de #travail_numérique largement invisibilisées et caractérisées par une forte précarité.

    Dès les années 2000, et surtout au cours des années 2010, des pays comme l’Égypte, le Kenya, le Nigeria ou l’Afrique du Sud deviennent des hubs de #sous-traitance pour les grandes compagnies du numérique. Ce modèle repose sur des tâches fragmentées, rémunérées à la pièce et distribuées via des plateformes de microtravail comme Remotasks, #Amazon_Mechanical_Turk ou #Clickworker, ainsi que par des entreprises sous-traitantes comme #Appen ou #Samasource. Bien que précaire, cette économie facile d’accès – une connexion internet suffit – attire des milliers de jeunes hautement diplômés dans des pays du Sud où le chômage est élevé.

    Mais ce modèle, loin d’être inédit, a déjà largement montré ses limites, parfois de façon retentissante. Au Kenya, à partir de 2023, des employés de la société #Sama (anciennement Samasource), prestataire notamment de Meta et d’OpenAI, ont intenté une action collective pour dénoncer des conditions de travail indignes, des #salaires faibles et irréguliers et l’insuffisance de soutien psychologique. Chargés de « nettoyer » #Facebook, certains avaient développé des #troubles_psychologiques après avoir été exposés quotidiennement à des contenus extrêmes. « Nous traitions des vidéos de corps mutilés, de suicides en direct, d’abus sur des enfants, de discours haineux », rapporte Sonia Kgomo, ancienne modératrice chez Sama.

    Embauchée en pleine pandémie de Covid-19, la Sud-Africaine avait cru avoir décroché une opportunité en or, « un job à l’étranger pour un grand nom de la tech ». « Mais une fois sur place, j’ai compris que ce n’était pas le rêve américain : c’était une forme d’esclavage moderne joliment emballée », explique celle qui a été licenciée en 2023 comme près de 200 autres, après avoir, selon elle, tenté de s’organiser collectivement avec ses collègues. L’entreprise parle elle de restructuration.

    Aujourd’hui, Sama indique avoir mis fin à la #modération_de_contenus pour Meta et s’est recentrée sur les #annotateurs de données, chargés d’entraîner des systèmes d’IA. Edward, qui travaille toujours sur le site de Nairobi, décrit un « travail très caché ». « On étiquette des images de rues, des vidéos, mais aussi des photos médicales avec des plaies ouvertes… Certaines tâches restent éprouvantes, explique-t-il. On nous répète que nous sommes payés au-dessus du marché, mais ce n’est pas un salaire qui permet de vivre : même en travaillant huit heures par jour, il faut avoir un deuxième boulot. »

    À la précarité des salaires s’ajoute celle des contrats. « Un ami a eu un contrat de cinq jours. D’autres signent pour un mois, juste le temps d’absorber le pic d’activité du #Black_Friday ou des #fêtes de fin d’année », poursuit Edward. Il décrit aussi une pression constante avec des tâches qui arrivent « en continu », et des objectifs de performances : « Si vous n’atteignez pas les objectifs fixés, vous n’avez pas les #primes et votre salaire est raboté. Il faut travailler comme un fou pour espérer toucher le montant annoncé. » Quant au #soutien_psychologique, il confirme qu’il y a davantage de « coachs bien-être », mais la méfiance semble de mise à l’égard de ces employés, plutôt vus comme « les oreilles de l’entreprise ». Contactée, la société Sama n’a pas répondu à nos questions.

    [Actualisation du 09/12/2025 : Sama conteste ce tableau. L’entreprise, qui affirme ne plus réaliser de travail lié à des contenus violents, met en avant un dispositif de soutien aux salariés comprenant une assurance santé incluant la prise en charge de la #santé_mentale, l’accès à des séances de conseil individuel 24 h/24, ainsi que des espaces de bien-être dans ses bureaux (espaces d’allaitement, salles de méditation et de prière).

    Sama souligne également que ses annotateurs de données sont employés à temps plein, avec des « #salaires_vitaux » (#living_wages) calculés selon une méthodologie internationale « en fonction des régions ». La société assure que, contrairement à certains concurrents recourant à des travailleurs de plateforme, son modèle repose sur des contrats de travail à temps plein avec un salaire de base garanti et des avantages sociaux. Enfin, selon l’entreprise, « plus de 90% » des employés atteignent leurs objectifs de #performance dans les horaires de travail, et, quoi qu’il en soit, tous bénéficient d’un salaire de base garanti.]

    Plus de tâches, plus de #concurrence

    Et malgré les scandales, le secteur séduit toujours plus. Si les chiffres précis manquent, certaines recherches ont avancé des estimations allant jusqu’à 160 millions de microtravailleurs numériques dans le monde. Ce qui est certain, selon Antonio Casilli, c’est que les effectifs augmentent à chaque nouvelle estimation. « Il y a plus de tâches, mais pas pour tout le monde et pas tout le temps », résume le chercheur, qui décrit un mécanisme structurel : les entreprises attirent volontairement plus de travailleurs que nécessaire afin de maintenir une forte concurrence pour chaque microtâche, ce qui tire les rémunérations vers le bas. Elles entretiennent ainsi une alternance de périodes creuses et de pics d’activité.

    Une enquête d’Africa Uncensored, réalisée dans le cadre d’un projet du Pulitzer Center, évoque des campagnes massives de recrutement trompeuses, avec les mêmes offres publiées des dizaines de fois, sans réelle assurance de travail derrière. Objectif : gonfler artificiellement le vivier de travailleurs pour montrer leur potentiel d’évolution et ainsi remporter des contrats avec les grosses entreprises de la tech. Une tactique connue sous le nom de « #labour_hedging ».

    « Au Kenya, il y a des cohortes de jeunes diplômés sans emploi. Les entreprises le savent très bien, observe Edward. Si vous ne voulez pas accepter les conditions, quelqu’un d’autre le fera. »

    Avec l’essor effréné de l’IA générative, un nouveau vocabulaire s’est imposé. Les annonces pour des postes d’« #AI_trainer », « #AI_evaluator » ou d’« #AI_tutor » se multiplient. Le signe d’une montée en gamme dans un marché particulièrement dynamique ? Pas vraiment, selon Antonio Casilli : « Même si certains projets sont plus complexes, pour les harmoniser et les faire réaliser à des masses de personnes, il faut les standardiser, les fragmenter. »

    Oluwaseun, qui se présente comme « AI trainer », s’est tournée vers Mindrift, qui lui semblait plus attractive au niveau des tarifs. Après un flux de tâches relativement régulier, la manne s’est pourtant soudain tarie. « J’ai été écartée du projet pour lequel j’avais initialement postulé, alors que la qualité de mon travail était bonne, témoigne la Nigériane. J’ai abordé ce sujet lors d’un appel avec eux, mais j’ai finalement été remerciée et, depuis, je n’ai été affectée à aucun nouveau projet. »

    Certaines pratiques la heurtent particulièrement : « Parfois, une seule tâche peut prendre sept à huit heures à accomplir, et vous n’êtes rémunéré que si le travail est accepté. Si la moindre petite erreur est détectée, la tâche entière peut être rejetée, ce qui signifie que vous ne recevez aucune #rémunération pour toutes ces heures de travail. » Sollicitée, Mindrift n’a pas répondu à nos questions.

    Comme d’autres personnes interrogées, elle souligne que les travailleurs africains sont souvent moins payés que leurs homologues en Europe ou en Amérique du Nord pour des tâches comparables. Des enquêtes récentes sur des #plateformes_d’annotation mettent effectivement en évidence des écarts de rémunération liés au pays de résidence, tandis que d’autres travaux, consacrés cette fois à des « #data_workers » basés aux États-Unis, montrent que la précarité ne s’arrête pas aux frontières du Sud global : une partie des travailleurs de l’IA dans les pays du Nord cumulent eux aussi bas salaires, contrats instables et protections sociales limitées.

    Les métiers créatifs pris dans l’orbite de l’IA

    Dans des segments plus « créatifs » du numérique, comme le #graphisme ou la #rédaction_de_contenu, la concurrence dopée par l’IA se fait également sentir. Au Togo, Smiley Graphic – c’est son nom professionnel – passe quelques heures par semaine sur la plateforme de microtâches #Upwork où il propose de petits services de graphiste : logos, retouches, déclinaisons graphiques facturées 5 ou 10 euros. Il n’en tire pas plus de 50 euros par mois, mais complète ainsi ses revenus issus d’un emploi stable et de missions freelance plus exigeantes.

    Chaque jour, il constate combien l’IA bouleverse le marché : « Les prix ont baissé. Des gens qui n’y connaissent rien se forment avec des vidéos YouTube et cassent les tarifs sur les plateformes. » Des prestations autrefois facturées l’équivalent de 7 000 à 10 000 francs CFA sont désormais proposées à 2 000 ou 3 000 francs CFA, avance-t-il. Une partie des demandes qu’il reçoit consiste d’ailleurs à reprendre des logos générés par l’IA mais pas forcément à la hauteur. « Je refuse, c’est plus propre et plus simple de repartir de zéro. » Pour tenter de se démarquer, il se forme depuis six mois au motion design, qu’il juge « moins concurrencé par l’IA » pour le moment.

    Un phénomène qui n’a rien d’étonnant, pour Antonio Casilli : « Comme les grands modèles de langage génératifs se nourrissent de productions créatives, eux aussi ont été aspirés dans l’orbite de l’intelligence artificielle et désormais travaillent pour elle. » Autrement dit, les #designers, #illustrateurs ou #rédacteurs ne sont plus seulement concurrencés par l’IA : leur travail alimente directement les modèles qui, ensuite, renforcent cette concurrence.

    Des travailleurs qui commencent à faire entendre leur voix

    « Les grandes entreprises technologiques ne peuvent pas construire l’avenir sur une main-d’œuvre jetable, souligne dans un communiqué Christy Hoffman, secrétaire générale d’UNI Global Union, qui a publié fin septembre une étude sur les travailleurs de l’ombre de l’IA. Il est temps de tenir les titans de la Silicon Valley responsables des conditions dans leurs chaînes d’approvisionnement en IA. Les travailleurs de l’approvisionnement en données doivent être libres de s’organiser et de négocier pour rendre ces systèmes plus sûrs et plus équitables pour tout le monde. »

    Après son licenciement, Sonia Kgomo a choisi de se consacrer à plein temps à l’organisation des salariés de la tech, au sein d’#African_Tech_Workers_Rising, un projet soutenu par le syndicat kényan Communications Workers Union of Kenya et par la fédération internationale Uni Global Union. « En 2021, quand je suis arrivée, les travailleurs des plateformes ne parlaient pas du tout. Il y avait énormément de peur. On signait des accords de confidentialité qu’on ne comprenait pas vraiment, présentés comme des menaces. Alors on intégrait le fait que c’était normal de se taire comme on travaillait pour un service de renseignement, se souvient-elle. Aujourd’hui, on commence à avoir des travailleurs qui peuvent parler, certains rejoignent des #syndicats, et quelques sous-traitants – pas tous – acceptent la présence syndicale. Donc on est encore loin du compte, mais il y a des avancées. »

    Face au défaut d’encadrement juridique, la #Data_Labelers_Association, basée à Nairobi, doit dévoiler prochainement un #code_de_conduite à destination des plateformes d’annotation de données pour améliorer les conditions de travail.

    Pour le sociologue Antonio Casilli, le modèle des #sweatshops_numériques, ces ateliers de misère où les ordinateurs ont juste remplacé les machines à coudre, a encore de beaux jours devant lui. « Ces entreprises sont constamment en train de chercher des pays dans lesquels elles peuvent continuer à exploiter les travailleurs et à les payer très peu cher. Quand la situation s’est compliquée pour certaines d’entre elles au Kenya, elles sont parties en Ouganda ou au Ghana, ou encore au Bangladesh. » Une analyse partagée par Sonia Kgomo, qui appelle à « un mouvement de travailleurs du numérique à l’échelle du continent ».

    En attendant, ces travailleurs de l’ombre continuent de s’adapter. Malgré ses mésaventures récentes, Oluwaseun suit des cours d’annotation de données dans le but d’obtenir un emploi stable et mieux rémunéré auprès d’un grand acteur du secteur, comme « #xAI, l’entreprise d’Elon Musk », glisse-t-elle.

    https://www.rfi.fr/fr/afrique/20251206-en-afrique-des-petites-mains-du-num%C3%A9rique-toujours-aussi-pr%C3%A9c
    #AI #intelligence_artificielle #travail

  • #Google Releases its New Google Sans Flex Font as Open Source
    https://www.omgubuntu.co.uk/2025/11/google-sans-flex-font-ubuntu

    Google has made its ‘next generation brand typeface’, Google Sans Flex, available for download — under an open source license, which is welcome #News. A modern sans serif font purpose-designed for use on screens and OSes, Google Sans Flex is a ground-up, multi-axis rebuild of the proprietary Google Sans font, by typographer David Berlow (of Font Bureau fame). The “flex” in GS Flex is because it’s a variable font that is “extremely flexible [with] variable axes for weight, width, optical size, slant, as well as an axis for rounded terminals” (as in terminals in letters, not command-line apps).” Android and web developers will find […] You’re reading Google Releases its New Google Sans Flex Font as Open Source, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without (...)

    #Eye_Candy #Fonts

  • #Cryptpad —> testé, adopté !

    CryptPad provides a full-fledged office suite with all the tools necessary for productive collaboration. Applications include: Rich Text, Spreadsheets, Code/Markdown, Kanban, Slides, Whiteboard and Forms.

    https://cryptpad.fr
    #pad #gestion_de_projets #logiciel #alternative #google_drive #drive #kandan #google_sheet #excel #office_suite #crypté #open_source #logiciel_libre #collaboration #XWiki

  • #Zaclys lance un service de visio à la demande facturé à la seconde ! une alternative à #Teams, Zoom ou #Google_Meet

    Nouveau : visio à la demande

    Tarif de 0,50 euro par heure et par participant , facturé à la seconde !

    Service directement accessible sur zaclys.com dans “mon profil” , onglet “Visio”

    Cadeau de lancement : 10 euros de crédit offerts à tous les abonnées et abonnés

    Logiciel open source hébergé en France, dans le respect de vos données (pas de pub, pas de collecte d’information).

    Pour en savoir + : https://www.zaclys.com/bigbluebutton

    https://www.zaclys.com/zaclys-lance-un-service-de-visio-a-la-demande-facture-a-la-seconde-une-alter
    #alternative #zoom #visio #logiciel

  • L’#IA m’a informé pendant un mois. Elle ne s’en est pas toujours tenue aux faits

    C’est quand même candide comme #mensonge. #Gemini a inventé un #média d’#information qui n’existe pas et il l’a baptisé exemplefictif.ca !

    Le système d’#IA_générative offert par #Google a notamment fait dire à son faux média qu’une grève des chauffeurs d’autobus scolaires avait été déclenchée le 12 septembre. Évidemment, cette grève est fictive elle aussi. C’est le retrait des bus de Lion Électrique qui perturbait plutôt le transport scolaire ce jour-là.

    Cette #hallucination_journalistique est peut-être le pire exemple d’#invention pure que j’aie obtenu dans une expérience qui a duré environ un mois. Mais j’en ai vu bien d’autres.

    Six pour cent des Canadiens s’informent avec l’IA 😱

    Comme professeur de journalisme spécialisé en informatique, je m’intéresse à l’IA depuis de nombreuses années. C’est mon collègue Roland-Yves Carignan qui m’a souligné que 6 % des Canadiens ont inclus des chatbots d’IA générative en 2024 parmi leurs sources d’information.

    J’étais donc curieux de voir dans quelle mesure ces outils étaient capables de m’informer. Allaient-ils me donner du solide, ou de la bouillie (AI slop) ?

    Sept outils ; une même requête

    Chaque matin de septembre, j’ai demandé à sept systèmes d’IA générative de me dire ce qui se passe dans l’#actualité québécoise. Je leur ai toujours posé la même question :

    Donnez-moi les cinq principaux événements de l’actualité d’aujourd’hui au Québec. Placez-les en ordre d’importance. Résumez chacun en trois phrases. Ajoutez un titre succinct à chacun. Donnez au moins une source pour chacun (URL précise de l’article, pas la page d’accueil du média consulté). Vous pouvez faire des recherches dans le web.

    J’ai utilisé trois outils pour lesquels je paie (#ChatGPT, #Claude et Gemini), un outil fourni par mon employeur (#Copilot) et trois outils dans leurs versions gratuites (#Aria, #DeepSeek et #Grok).

    Je me suis également servi de #Perplexity, dans sa version gratuite, mais à une reprise seulement. J’ai enfin tenté d’inclure #MetaAI, mais il ne répondait pas à mes requêtes.

    #Sources douteuses… voire imaginaires

    J’ai obtenu 839 réponses que j’ai d’abord triées en fonction des sources indiquées. Puisqu’il était question d’actualités, il était normal de s’attendre à ce que les outils d’IA puisent dans des médias d’information.

    Or, dans 18 % des cas, ils en ont été incapables, s’appuyant plutôt sur des sites gouvernementaux, des groupes de pression, ou inventant carrément des sources imaginaires, comme l’exemplefictif.ca mentionné plus haut.

    Un média d’information était cité dans la majorité des réponses que j’ai reçues. Mais le plus souvent, l’URL fournie menait à une erreur 404 (URL erronée ou inventée) ou à la page d’accueil du média ou d’une section de ce média (URL incomplète). Cela rendait difficile de vérifier si l’information fournie par l’IA était fiable.

    Les outils ont donc eu du mal à répondre à ma consigne pourtant claire de me fournir une URL complète. Ils n’y sont parvenus que dans 37 % des cas (311 réponses).

    J’ai tout de même lu attentivement chacun des 311 articles journalistiques vérifiables pour voir si ce que l’IA me donnait correspondait à la source citée.

    Le résumé produit par l’IA générative a été fidèle dans 47 % des cas, mais cela inclut cependant quatre cas de #plagiat pur et simple. Un peu plus de 45 % des réponses étaient partiellement fidèles. Nous y reviendrons plus loin.

    Car il faut d’abord parler des réponses erronées en tout ou en partie.

    #Erreurs sur le fond

    La pire erreur a certainement été commise par Grok le 13 septembre. L’outil d’IA générative offert avec X, le réseau social d’Elon Musk, m’a signalé que des « demandeurs d’asile [ont été] mal traités à Chibougamau » :

    Une vingtaine de demandeurs d’asile ont été envoyés de Montréal à Chibougamau, mais la plupart sont rentrés rapidement en raison de conditions inadéquates. Ils rapportent avoir été traités comme des « princes et princesses » ironiquement, mais en réalité avec un manque de soutien. L’incident soulève des questions sur la gestion des réfugiés au Québec.

    Grok s’est basé sur un article de La Presse publié ce matin-là. Mais il l’a interprété à l’envers !

    La Presse rapportait plutôt que le voyage a été un succès. Sur les 22 demandeurs d’asile, 19 ont eu des offres d’emploi à Chibougamau. Il n’y avait aucune ironie dans l’expression « princes et princesses ».

    D’autres exemples :

    - Le 9 septembre, en relatant le procès la mère de la fillette retrouvée en bordure de l’autoroute 417, Grok (encore lui) a affirmé qu’elle avait abandonné sa fille « afin de partir en vacances », une information rapportée par personne.

    - Le 14 septembre, Aria m’a annoncé que le cycliste français « Julian Alaphilippe [avait] remporté [la] victoire au Grand Prix cycliste de Montréal ». C’est faux. Alaphilippe a remporté le Grand Prix de Québec. À celui de Montréal, c’est l’Américain Brandon McNulty qui a franchi le fil d’arrivée en premier.

    – Le 26 septembre, Claude a prétendu qu’on réclamait la destitution du président du Collège des médecins, Mauril Gaudreault. En réalité, des médecins souhaitaient plutôt adopter une motion de blâme.

    – Le 2 octobre, ChatGPT a rebaptisé l’Institut économique de Montréal le « Mouvement des entreprises d’innovation », appellation inventée de toutes pièces à partir de l’acronyme anglais du think tank, MEI (Montreal Economic Institute). Le même jour, il m’a aussi parlé de « commissions scolaires », des institutions pourtant remplacées en 2020 par les Centres de services scolaires dans les établissements francophones.

    - Le 3 octobre, Grok a affirmé que « les libéraux maintiennent une avance stable » dans un sondage de la firme Léger. Dans les faits, les libéraux arrivaient au deuxième rang. C’est le PQ qui était en avance.

    Erreurs sur la forme

    Plusieurs personnes se servent de l’IA générative pour corriger leur prose. Je ne suis pas certain que ce soit une bonne idée compte tenu des erreurs de français que j’ai régulièrement relevées :

    - ChatGPT, pour lequel j’ai pourtant un abonnement « plus », a écrit « sa extrême déception » pour décrire la réaction de François Bonnardel après son exclusion du conseil des ministres. Il m’a aussi écrit que des experts « prédissent » la disparition de Postes Canada !

    – Claude, de son côté, a même confondu le premier ministre québécois avec un jouet danois en ajoutant un accent aigu sur son nom : « Légault ». Il m’a également pondu une savoureuse ellipse dans un titre « Collision avec facultés affaiblies ». Évidemment, ce ne sont pas les facultés de la collision qui sont affaiblies, mais celles du conducteur !

    Mais revenons au fond.

    Interprétations erronées

    Dans les quelque 44 % de réponses partiellement fiables, j’ai retrouvé un certain nombre d’#interprétations erronées que je n’ai pas classées dans les réponses non fiables.

    Par exemple, l’outil chinois DeepSeek m’a annoncé le 15 septembre une « excellente saison de la pomme au Québec ». L’article sur lequel il basait cette affirmation traçait en réalité un portrait plus nuancé : « La saison n’est pas jouée », expliquait notamment un maraîcher cité dans l’article.

    Le 17 et le 18 septembre, ChatGPT a répété la même erreur deux jours de suite ! Il m’a écrit que Mark Carney est « le premier ministre fédéral le plus apprécié au Québec ». Bien sûr ! C’est le seul !

    A beau mentir qui vient de loin

    Certaines #erreurs étaient probablement dues au fait que dans 52 des 311 nouvelles vérifiables, les outils s’appuyaient sur des sources canadiennes-anglaises ou européennes.

    Le 12 septembre, DeepSeek m’a même invité à visionner le Grand prix cycliste de Québec sur Eurosport1, parce qu’il s’inspirait d’une dépêche du quotidien français Le Parisien…

    Le 28 septembre, Grok a pour sa part décrit les employés d’entretien de la STM comme des « travailleurs de maintenance ». Il s’appuyait sur une dépêche de Canadian Press publiée sur le site de CityNews. Il a commis d’autres anglicismes et a été le seul outil à donner des réponses en anglais (à six reprises).
    « Conclusions génératives »

    Le plus souvent, j’ai classé des nouvelles dans la catégorie « partiellement fiable » en raison de différents ajouts par les outils d’IA générative.

    Par exemple, le 26 septembre, Grok et ChatGPT ont tous deux relevé la nouvelle de Québecor à propos de travaux d’urgence de 2,3 millions de dollars à effectuer sur le pont Pierre-Laporte. Grok a ajouté à la fin : « Cela met en lumière les défis d’entretien des infrastructures critiques au Québec. » ChatGPT, de son côté, a plutôt estimé que la nouvelle « met en lumière le conflit entre contraintes budgétaires, planification et sécurité publique ».

    Ce n’est pas faux. Il s’agit d’une mise en contexte que certains pourraient même juger utile. Cependant, ces conclusions ne sont appuyées sur aucune source. Personne dans les articles cités n’en parlait en ces termes.

    Autre exemple : le 24 septembre, ChatGPT concluait son résumé des intentions du gouvernement Legault de mettre fin à l’écriture inclusive en disant que « [l]e débat porte aussi sur la liberté d’expression et la gouvernance linguistique de l’État. » Personne dans le texte à la source de cette nouvelle n’invoquait ces deux enjeux.

    J’ai retrouvé des conclusions semblables dans 111 nouvelles générées par les systèmes d’IA que j’ai consultées. Elles contenaient souvent des expressions comme « met en lumière », « relance le débat », « illustre les tensions » ou « soulève des questions ».

    Or, aucun humain n’avait parlé de tensions ou soulevé de questions. Les « conclusions génératives » imaginent des débats qui n’existent pas. J’y vois une porte ouverte à l’exagération, voire à la désinformation.

    Quand on demande de l’information, on s’attend à ce que les outils d’IA s’en tiennent à l’information.

    Consulter ici le fichier dans lequel l’auteur a consigné les réponses données chaque matin par les outils d’IA générative : https://docs.google.com/spreadsheets/d/1yc2Gw-6BXem45dF7jP-bsxVC7hEmN_mlaNncN1PFjmw/edit?gid=0#gid=0

    https://theconversation.com/lia-ma-informe-pendant-un-mois-elle-ne-sen-est-pas-toujours-tenue-a
    #AI #intelligence_artificielle #news #fiabilité

  • #Firefox 144 Released with #Google_Lens Support, Profile Manager + More
    https://www.omgubuntu.co.uk/2025/10/firefox-144-released-new-features

    Mozilla Firefox 144 released with Google Lens image search and Perplexity AI integration, tab group and translation improvements, and other new features. You’re reading Firefox 144 Released with Google Lens Support, Profile Manager + More, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

    #News #App_Updates

  • Les contenus générés par IA, nouvelle menace pour les éditeurs sur Google Discover
    https://www.lemonde.fr/pixels/article/2025/09/25/les-contenus-generes-par-ia-nouvelle-menace-pour-les-editeurs-sur-google-dis

    Les flux personnalisés de recommandation d’articles opérés par Google, visibles sur les smartphones Android et très utilisés en France, intègrent de plus en plus de liens redirigeant vers des sites générés par l’intelligence artificielle. Au grand dam des éditeurs de contenus originaux.

    Par Michaël Szadkowski
    Publié hier à 05h15, modifié hier à 09h03

    Temps de Lecture 2 min.

    Article réservé aux abonnés

    Comme souvent chez Google, le cadre semble clair : l’« utilisation d’outils d’IA [intelligence artificielle] générative » est proscrite dans les « Règles contre le spam ». Pour apparaître en bonne place dans le moteur de recherche – ou dans les flux Discover des utilisateurs d’Android ou de Chrome sur mobile –, les éditeurs de site ne peuvent pas, en théorie, miser sur des fournées de contenus créés à l’aide de logiciels de génération de textes ou d’images (ChatGPT, DeepSeek, Midjourney…). Mais la réalité est plus nuancée.
    Exemple de liens affichés en septembre 2025 dans le flux Discover de l’auteur de cet article, visible sur un smartphone Android. Le contenu consacré à l’humoriste Paul Mirabel est une publicité imitant le journal « Le Figaro », redirigeant vers une arnaque bien connue d’achat de cryptomonnaies.
    Exemple de liens affichés en septembre 2025 dans le flux Discover de l’auteur de cet article, visible sur un smartphone Android. Le contenu consacré à l’humoriste Paul Mirabel est une publicité imitant le journal « Le Figaro », redirigeant vers une arnaque bien connue d’achat de cryptomonnaies. CAPTURE D’ÉCRAN LE MONDE

    Dans les flux Discover de recommandation personnalisée d’articles, il n’est pas rare de croiser des contenus manifestement générés entièrement, ou en partie, à l’aide de l’IA. Ils sont publiés par des sites parfois peu connus, et dont l’origine et la qualité posent question – quand il ne s’agit pas de publicités renvoyant vers des arnaques en ligne.

    De fait, l’utilisation d’outils d’IA générative sur un site n’est pas, en soi, pénalisée par Google. Dans une note publiée en février 2023, la firme américaine estime même que l’IA est avant tout un « outil », qui peut aussi « permettre de développer de nouveaux niveaux d’expression et de créativité, et d’aider à créer des contenus de qualité pour le Web ». Une position peu surprenante de la part d’un groupe qui déploie par ailleurs… Gemini, l’un des principaux concurrents de ChatGPT.
    Lire aussi : Article réservé à nos abonnés IA : avec Gemini, Google entend rivaliser avec les meilleurs modèles d’OpenAI
    « Très frustrant »

    Depuis 2023, l’essor des applications d’IA générative a coïncidé avec l’affirmation de Google Discover comme principale source de trafic des sites d’information. Un espace restreint : il présente chaque jour aux utilisateurs d’Android et de la version mobile de Google Chrome des dizaines de liens sélectionnés automatiquement en fonction de leurs données personnelles (historique de recherche, habitudes de lecture…).

    Dans ce contexte, l’arrivée de producteurs de contenus générés par IA, en particulier les « fermes à contenus IA », est vécue comme une concurrence déloyale. « Le spam créé par IA n’a fait que s’accentuer ces dernières années. Ce n’est donc pas surprenant que des spammeurs utilisent ces nouvelles techniques pour parvenir à placer leurs contenus dans Discover. Pour les éditeurs qui créent des contenus originaux, et dont le trafic dépend de Discover, c’est évidemment très frustrant », analyse Lily Ray, experte américaine en référencement Google.
    Newsletter
    « Pixels »
    Votre vigie du numérique : communautés en ligne, cybersécurité, jeux vidéo, intelligence artificielle…
    S’inscrire

    En France, les éditeurs de presse surveillent de près la question. L’Alliance de la presse d’information générale – dont Le Monde fait partie – a réussi en mai dernier à faire bloquer un site, NewsDayFR, après avoir intenté une action en justice et « constaté la reproduction non autorisée de centaines d’articles ». Ce « site anonyme », sans mentions légales précises, fonctionnait manifestement grâce à la publication de contenus générés par IA, plagiant des articles de presse existant, et y ajoutant, parfois, de fausses informations.
    Des résumés par IA en test

    De tels sites ne sont pas rares. Dans une enquête, le site d’information NextInpact a identifié des milliers de faux médias inondant la Toile de textes issus d’IA générative, et qui parviennent à tromper Google et à s’insérer dans les flux Discover d’utilisateurs français.

    « Cela pose un problème de qualité de l’information, et de concurrence profondément déloyale », résume Vincent Berthier, du bureau français de Reporters sans frontières (RSF). L’organisation de défense de la presse publiait un communiqué le 11 juillet, démontrant elle aussi que de tels sites, sans supervision éditoriale et tournant grâce à l’IA, sont souvent la source de fausses informations. Selon RSF, « la facilité avec laquelle des sites peu recommandables parviennent à se hisser dans Discover pousse à s’interroger sur les failles de ce service. Il devient urgent de les combler en remaniant son fonctionnement ».
    Lire aussi | Article réservé à nos abonnés IA : un appel mondial pour fixer des « lignes rouges »

    Du côté de Google, on minimise le problème. L’entreprise a répondu à RSF, et aux questions du Monde, en expliquant que les flux Discover sont nettoyés grâce à ses « systèmes antispams », qui excluent « 99 % (…) de contenus de faible qualité » sur Google en général. Mais la différence d’appréciation entre campagne de spams et contenus « légitimes » générés par IA risque de s’accentuer au fil de la généralisation de l’utilisation de l’IA. Autre source de frustration pour les éditeurs de contenus originaux : Google a commencé à tester durant l’été, aux Etats-Unis, des résumés d’informations écrits par ses propres IA s’affichant directement dans les flux Discover des utilisateurs.

    Michaël Szadkowski

    #IA #Information #Google #Fiabilité_sources

  • #Google Chrome is Becoming an AI Browser — Starting Today
    https://www.omgubuntu.co.uk/2025/09/google-chrome-ai-browser-announcement

    Google Chrome is to become an AI browser powered by #Gemini and agentic abilities to ’fundamentally change the nature of browsing’, the search giant has announced. You’re reading #Google_Chrome is Becoming an AI Browser — Starting Today, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

    #News #AI/ML

  • « L’Internet ouvert est déjà en déclin » : Google admet qu’Internet n’est plus ce qu’il était
    https://www.frandroid.com/marques/google/2788181_linternet-ouvert-est-deja-en-declin-google-admet-quinternet-nest-

    09 septembre 2025 • 17:54

    L’aveu était dans l’air depuis longtemps. Google reconnaît enfin, dans un document judiciaire, ce que les créateurs de contenu observent quotidiennement : l’Internet ouvert s’effrite.

    Google vient de lâcher une phrase qui résonne comme un aveu : « L’Internet ouvert est déjà en déclin« . Problème ? Cette déclaration, faite devant un tribunal américain, contredit complètement ce que l’entreprise raconte publiquement depuis des mois.

    Pour comprendre l’importance de cet aveu, il faut d’abord saisir ce qu’on entend par « Internet ouvert ». C’est le web originel, celui où n’importe qui peut créer un site, publier du contenu et espérer être découvert grâce aux moteurs de recherche. Un écosystème décentralisé où les internautes naviguent librement de site en site, où les créateurs peuvent toucher leur audience directement.

    Cette vision s’oppose à l’Internet des plateformes fermées – les jardins clos de Facebook, les algorithmes opaques de TikTok, ou les réponses directes de Google qui gardent les utilisateurs captifs. L’Internet ouvert, c’est la différence entre explorer une bibliothèque immense et se contenter des résumés qu’on vous présente à l’entrée.
    Un aveu stratégique

    Cette confession de Google n’arrive pas par hasard. Elle surgit dans le cadre d’un procès où le ministère américain de la Justice veut démanteler l’empire publicitaire de l’entreprise pour abus de position dominante. Pour se défendre, Google argue que briser ses activités pub « ne fera qu’accélérer le déclin de l’Internet libre » et « portera préjudice aux éditeurs qui dépendent des revenus publicitaires« .
    L’AI Mode de Google pour des recherches plus approfondies sur le web. // Source : Google (montage Frandroid)

    L’ironie de la situation saute aux yeux. Google utilise le déclin qu’il contribue largement à créer comme argument de défense.

    Car Google porte une lourde responsabilité dans cette transformation. Ses featured snippets répondent aux questions sans nécessiter de clic vers les sites sources. Ses réponses générées par IA gardent les utilisateurs sur ses pages. Son algorithme favorise un web optimisé pour lui plutôt qu’un web riche et diversifié.

    Plusieurs études indépendantes documentent ce déclin que Google nie publiquement. Le cabinet de recherche Pew a notamment démontré que les utilisateurs cliquent moins sur les liens quand ils voient d’abord un résumé IA de la réponse. Logique : pourquoi aller plus loin si l’essentiel apparaît déjà dans les résultats ?

    Cette tendance se vérifie sur le terrain. Les éditeurs web observent une érosion de leur trafic organique, une baisse de l’engagement des visiteurs, une réduction du temps passé sur leurs sites. Les utilisateurs arrivent, consomment rapidement l’information et repartent, souvent satisfaits par ce qu’ils ont déjà glané sur Google.

    L’IA générative amplifie ce phénomène. ChatGPT, Claude, Gemini, Perplexity… ces outils proposent des réponses directes sans navigation web. On s’habitude ainsi à obtenir l’information sans jamais visiter de sites.

    L’enshittification généralisée du web

    Cette transformation s’inscrit dans un mouvement plus large que le chercheur Cory Doctorow a baptisé « enshittification » – littéralement « emmerdification ». Ce processus décrit comment les plateformes dégradent progressivement leur service pour maximiser leurs profits.

    Le schéma est toujours le même : d’abord, attirer les utilisateurs avec un service gratuit et de qualité. Puis capter les entreprises en promettant l’accès à ces utilisateurs. Enfin, presser les deux groupes pour extraire un maximum de valeur, dégradant l’expérience de tous au passage.

    Google illustre parfaitement cette évolution. Le moteur de recherche, conçu initialement pour diriger vers les meilleurs sites, retient aujourd’hui les utilisateurs sur ses propres pages. Les résultats se noient dans la publicité, les réponses IA remplacent les liens organiques, l’expérience utilisateur se dégrade au profit de la monétisation.

    Et l’intelligence artificielle générative pose un problème économique fondamental à l’Internet ouvert. Ces modèles s’entraînent sur des contenus créés par des humains mais ne rémunèrent pas leurs auteurs. Ils offrent ensuite des réponses directes qui évitent aux utilisateurs de visiter les sites sources.

    C’est un parasitisme économique qui sape les fondations du web. Si les créateurs de contenu ne reçoivent plus de trafic, comment financeront-ils leur production ? Si les éditeurs ne génèrent plus de revenus publicitaires, qui créera l’information de demain ? L’IA générative consomme la substance du web sans contribuer à sa régénération.

    Google le sait parfaitement. Son aveu judiciaire témoigne d’une conscience aiguë de cette dynamique destructrice. Mais l’entreprise préfère préserver ses intérêts commerciaux plutôt que l’écosystème qui l’a enrichie.

    #Google #Internet_Ouvert #IA

  • Google involved in $45M deal with Netanyahu’s office to amplify propaganda: Report
    https://www.aa.com.tr/en/middle-east/google-involved-in-45m-deal-with-netanyahu-s-office-to-amplify-propaganda-report/3677856

    Google is in the middle of a six-month $45 million contract with Israeli Prime Minister Benjamin Netanyahu’s office to promote government messages and downplay the humanitarian crisis in Gaza, according to a report Wednesday by Drop Site News.

    The contract, signed in late June, describes Google as a “key entity” in supporting Netanyahu’s public relations strategy, the outlet reported.

    The campaign began days after Israel blocked food, medicine, fuel and other humanitarian supplies from entering Gaza on March 2. Lawmakers questioned officials about whether the government had prepared for the public relations fallout.

    A spokesperson for the Israeli army said at the time that authorities could launch a digital campaign “to explain that there is no hunger and present the data.”

    Since then, government ads denying famine in Gaza have run widely, including a YouTube video from Israel’s Foreign Ministry that declared “there is food in Gaza. Any other claim is a lie.” The clip has been viewed more than 6 million times, much of it boosted through paid promotion.

    According to the report, the ads are managed through YouTube and Google’s Display & Video 360 platform and are characterized in government documents as “hasbara” — a Hebrew term often translated as “propaganda.”

    Records show that Israel also spent $3 million on ads with the US social media company X and $2.1 million with the French-Israeli platform Outbrain/Teads.

  • Invite les espions chez toi ! Pour seulement €490 +TVA ils te feront la totale !
    https://something.s.treetmap.s.com/getfucked

    Ce matin le premier arrivé dans ma mailbox me fait une proposition indécente. « Vas te faire enrégistrer chez Google, nous nous occuperont qu’aucun secret (pardon, détail) n’échappe à loeil de Big Brother . »

    C’est comme les amis communistes asiatiques qui utilisent le logiciel Outlook et une adresse Hotmail en insistant que c’est tellement comfortable pour eux qui n’ont rien appris d’autre. Leur client mail ne sait même pas gérer les alias et ils continuent à insister qu’on leur fournisse encore et encore des mailbox malgré l’ overhead de suivi, de backup et patati et patata.

    L’impérialisme s’est incrusté dans les esprits et il y en plein qui en profitent.

    So it goes.

    Hallo,

    am 11.09.2025 sind wir in Berlin für neue Unternehmensaufnahmen für Google Street View. Im Rahmen dessen fügen wir auch Unternehmen und Geschäftsräume zu Google Maps hinzu – mit hochwertigen 360°-Bildern.

    Sie erhalten bis zu 10 Panoramapunkte für eine virtuelle Tour durch Ihr Unternehmen.

    Die Frage ist: Dürfen wir Ihre Location in unsere Planung aufnehmen?

    Ihre virtuelle Tour wird auf Google prominent dargestellt – in Maps und der Suche und sorgt direkt für mehr Sichtbarkeit und neue Kunden.

    Für eine einmalige Gebühr von nur €490 (zzgl. MwSt.) erhalten Sie:

    – 10 Panoramapunkte für eine hochwertige virtuelle Tour
    – Volle Bild- und Nutzungsrechte
    – Keine versteckten oder wiederkehrenden Kosten

    Sehen Sie sich einige Beispiele an:

    https://maps.app.goo.gl/RaAe9A5RNHHZtNGf7
    https://maps.app.goo.gl/cmQ4zSUoqZFEKGHB8
    https://maps.app.goo.gl/QpCFgBQUavqRSZfi6

    Um Ihre Fotosession einplanen zu können, bitten wir um Ihre Rückmeldung bis zum 12.08.2025.

    Wir stehen bereit für Ihre Fragen!

    Viele Grüße
    Frauenename
    Disposition
    localfuck
    E-Mail: f.frauennname@localfuck.com
    Telefon: +Deutschland D1-Netz 12345678
    Website: https://localfuck.com/de

    #Google #streetmap #wtf

  • Chrome 140 Plans to Enable Auto #Wayland Detection
    https://www.omgubuntu.co.uk/2025/08/chrome-140-wayland-auto-detection-linux

    Chrome’s #ozone backend will auto-detect Wayland on Linux from v140. This should fix issues with blurry text and UI elements when fractional scaling is active. You’re reading Chrome 140 Plans to Enable Auto Wayland Detection, a blog post from OMG! Ubuntu. Do not reproduce elsewhere without permission.

    #News #Bug_Fixes #Google_Chrome