• Five of this year’s Pulitzer finalists are AI-powered | Nieman Journalism Lab
    https://www.niemanlab.org/2024/03/five-of-this-years-pulitzer-finalists-are-ai-powered

    Two of journalism’s most prestigious prizes — the Pulitzers and the Polk awards — on how they’re thinking about entrants using generative AI.
    By Alex Perry March 11, 2024, 10:31 a.m.

    Five of the 45 finalists in this year’s Pulitzer Prizes for journalism disclosed using AI in the process of researching, reporting, or telling their submissions, according to Pulitzer Prize administrator Marjorie Miller.

    It’s the first time the awards, which received around 1,200 submissions this year, required entrants to disclose AI usage. The Pulitzer Board only added this requirement to the journalism category. (The list of finalists is not yet public. It will be announced, along with the winners, on May 8, 2024.)

    Miller, who sits on the 18-person Pulitzer board, said the board started discussing AI policies early last year because of the rising popularity of generative AI and machine learning.

    “AI tools at the time had an ‘oh no, the devil is coming’ reputation,” she said, adding that the board was interested in learning about AI’s capabilities as well as its dangers.

    Last July — the same month OpenAI struck a deal with the Associated Press and a $5 million partnership with the American Journalism Project — a Columbia Journalism School professor was giving the Pulitzer Board a crash course in AI with the help of a few other industry experts.

    Mark Hansen, who is also the director of the David and Helen Gurley Brown Institute for Media Innovation, wanted to provide the board with a broad base of AI usage in newsrooms from interrogating large datasets to writing code for web-scraping large language models.

    He and AI experts from The Marshall Project, Harvard Innovation Labs, and Center for Cooperative Media created informational videos about the basics of large language models and newsroom use cases. Hansen also moderated a Q&A panel featuring AI experts from Bloomberg, The Markup, McClatchy, and Google.

    Miller said the board’s approach from the beginning was always exploratory. They never considered restricting AI usage because they felt doing so would discourage newsrooms from engaging with innovative technology.

    “I see it as an opportunity to sample the creativity that journalists are bringing to generative AI, even in these early days,” said Hansen, who didn’t weigh in directly on the new awards guideline.

    While the group focused on generative AI’s applications, they spent substantial time on relevant copyright law, data privacy, and bias in machine learning models. One of the experts Hansen invited was Carrie J. Cai, a staff research scientist in Google’s Responsible AI division who specializes in human-computer interaction.

    #Journalisme #Intelligence_artificielle #Pulitzer

  • Ketty Introduces AI Book Designer: Revolutionizing Book Production
    https://www.robotscooking.com/ketty-ai-designer

    Effortless Book Design with AI

    The AI Book Designer introduces a groundbreaking approach to book design by allowing users to style and format their books using simple, intuitive commands. Users can say “make the book look modern”, “make the text more readable” or click on a chapter title and instruct the AI to “add this to the header,” and the changes are applied instantly. This eliminates the need for knowing complex design software or coding, making professional-grade design accessible to everyone.

    Where we are headed

    As we look towards the future development of the AI Book Designer, there are several ideas we are currently thinking about:

    AI-Generated Cover Designs: Generate a range of cover options based on user input.
    Collaborative AI Design: Enable multiple users to work on the same book design simultaneously (concurrently). This feature could be particularly useful for larger publishing teams or co-authored projects.
    AI-Assisted Image Management: Automatically apply styles and optimize the placement of images within the book layout.

    Join the Movement

    Coko believes AI has the potential to transform book production, making it accessible and efficient for everyone. By combining open-source code and principles with cutting-edge technology, Coko is paving the way for a new era of automated typesetting and book design.

    #Typographie #Coko #Intelligence_artificielle

  • Border security with drones and databases

    The EU’s borders are increasingly militarised, with hundreds of millions of euros paid to state agencies and military, security and IT companies for surveillance, patrols and apprehension and detention. This process has massive human cost, and politicians are planning to intensify it.

    Europe is ringed by steel fences topped by barbed wire; patrolled by border agents equipped with thermal vision systems, heartbeat detectors, guns and batons; and watched from the skies by drones, helicopters and planes. Anyone who enters is supposed to have their fingerprints and photograph taken for inclusion in an enormous biometric database. Constant additions to this technological arsenal are under development, backed by generous amounts of public funding. Three decades after the fall of the Berlin Wall, there are more walls than ever at Europe’s borders,[1] and those borders stretch ever further in and out of its territory. This situation is the result of long-term political and corporate efforts to toughen up border surveillance and controls.

    The implications for those travelling to the EU depend on whether they belong to the majority entering in a “regular” manner, with the necessary paperwork and permissions, or are unable to obtain that paperwork, and cross borders irregularly. Those with permission must hand over increasing amounts of personal data. The increasing automation of borders is reliant on the collection of sensitive personal data and the use of algorithms, machine learning and other forms of so-called artificial intelligence to determine whether or not an individual poses a threat.

    Those without permission to enter the EU – a category that includes almost any refugee, with the notable exception of those who hold a Ukrainian passport – are faced with technology, personnel and policies designed to make journeys increasingly difficult, and thus increasingly dangerous. The reliance on smugglers is a result of the insistence on keeping people in need out at any cost – and the cost is substantial. Thousands of people die at Europe’s borders every year, families are separated, and people suffer serious physical and psychological harm as a result of those journeys and subsequent administrative detention and social marginalisation. Yet parties of all political stripes remain committed to the same harmful and dangerous policies – many of which are being worsened through the new Pact on Migration and Asylum.[2]

    The EU’s border agency, Frontex, based in Warsaw, was first set up in 2004 with the aim of providing technical coordination between EU member states’ border guards. Its remit has been gradually expanded. Following the “migration crisis” of 2015 and 2016, extensive new powers were granted to the agency. As the Max Planck Institute has noted, the 2016 law shifted the agency from a playing “support role” to acting as “a player in its own right that fulfils a regulatory, supervisory, and operational role.”[3] New tasks granted to the agency included coordinating deportations of rejected refugees and migrants, data analysis and exchange, border surveillance, and technology research and development. A further legal upgrade in 2019 introduced even more extensive powers, in particular in relation to deportations, and cooperation with and operations in third countries.

    The uniforms, guns and batons wielded by Frontex’s border guards are self-evidently militaristic in nature, as are other aspects of its work: surveillance drones have been acquired from Israeli military companies, and the agency deploys “mobile radars and thermal cameras mounted on vehicles, as well as heartbeat detectors and CO2 monitors used to detect signs of people concealed inside vehicles.”[4] One investigation described the companies that have held lobbying meetings or attended events with Frontex as “a Who’s Who of the weapons industry,” with guests including Airbus, BAE Systems, Leonardo and Thales.[5] The information acquired from the agency’s surveillance and field operations is combined with data provided by EU and third country agencies, and fed into the European Border Surveillance System, EUROSUR. This offers a God’s-eye overview of the situation at Europe’s borders and beyond – the system also claims to provide “pre-frontier situational awareness.”

    The EU and its member states also fund research and development on these technologies. From 2014 to 2022, 49 research projects were provided with a total of almost €275 million to investigate new border technologies, including swarms of autonomous drones for border surveillance, and systems that aim to use artificial intelligence to integrate and analyse data from drones, satellites, cameras, sensors and elsewhere for “analysis of potential threats” and “detection of illegal activities.”[6] Amongst the top recipients of funding have been large research institutes – for example, Germany’s Fraunhofer Institute – but companies such as Leonardo, Smiths Detection, Engineering – Ingegneria Informatica and Veridos have also been significant beneficiaries.[7]

    This is only a tiny fraction of the funds available for strengthening the EU’s border regime. A 2022 study found that between 2015 and 2020, €7.7 billion had been spent on the EU’s borders and “the biggest parts of this budget come from European funding” – that is, the EU’s own budget. The total value of the budgets that provide funds for asylum, migration and border control between 2021-27 comes to over €113 billion[8]. Proposals for the next round of budgets from 2028 until 2035 are likely to be even larger.

    Cooperation between the EU, its member states and third countries on migration control comes in a variety of forms: diplomacy, short and long-term projects, formal agreements and operational deployments. Whatever form it takes, it is frequently extremely harmful. For example, to try to reduce the number of people arriving across the Mediterranean, member states have withdrawn national sea rescue assets (as deployed, for example, in Italy’s Mare Nostrum operation) whilst increasing aerial surveillance, such as that provided by the Israel-produced drones operated by Frontex. This makes it possible to observe refugees attempting to cross the Mediterranean, whilst outsourcing their interception to authorities from countries such as Libya, Tunisia and Egypt.

    This is part of an ongoing plan “to strengthen coordination of search and rescue capacities and border surveillance at sea and land borders” of those countries. [9] Cooperation with Tunisia includes refitting search and rescue vessels and providing vehicles and equipment to the Tunisian coastguard and navy, along with substantial amounts of funding. The agreement with Egypt appears to be structured along similar lines, and five vessels have been provided to the so-called Libyan Coast Guard in 2023.[10]

    Frontex also plays a key role in the EU’s externalised border controls. The 2016 reform allowed Frontex deployments at countries bordering the EU, and the 2019 reform allowed deployments anywhere in the world, subject to agreement with the state in question. There are now EU border guards stationed in Albania, Montenegro, Serbia, Bosnia and Herzegovina, and North Macedonia.[11] The agency is seeking agreements with Niger, Senegal and Morocco, and has recently received visits from Tunisian and Egyptian officials with a view to stepping up cooperation.[12]

    In a recent report for the organisation EuroMed Rights, Antonella Napolitano highlighted “a new element” in the EU’s externalisation strategy: “the use of EU funds – including development aid – to outsource surveillance technologies that are used to entrench political control both on people on the move and local population.” Five means of doing so have been identified: provision of equipment; training; financing operations and procurement; facilitating exports by industry; and promoting legislation that enables surveillance.[13]

    The report highlights Frontex’s extended role which, even without agreements allowing deployments on foreign territory, has seen the agency support the creation of “risk analysis cells” in a number of African states, used to gather and analyse data on migration movements. The EU has also funded intelligence training in Algeria, digital evidence capacity building in Egypt, border control initiatives in Libya, and the provision of surveillance technology to Morocco. The European Ombudsman has found that insufficient attention has been given to the potential human rights impacts of this kind of cooperation.[14]

    While the EU and its member states may provide the funds for the acquisition of new technologies, or the construction of new border control systems, information on the companies that receive the contracts is not necessarily publicly available. Funds awarded to third countries will be spent in accordance with those countries’ procurement rules, which may not be as transparent as those in the EU. Indeed, the acquisition of information on the externalisation in third countries is far from simple, as a Statewatch investigation published in March 2023 found.[15]

    While EU and member state institutions are clearly committed to continuing with plans to strengthen border controls, there is a plethora of organisations, initiatives, campaigns and projects in Europe, Africa and elsewhere that are calling for a different approach. One major opportunity to call for change in the years to come will revolve around proposals for the EU’s new budgets in the 2028-35 period. The European Commission is likely to propose pouring billions more euros into borders – but there are many alternative uses of that money that would be more positive and productive. The challenge will be in creating enough political pressure to make that happen.

    This article was originally published by Welt Sichten, and is based upon the Statewatch/EuroMed Rights report Europe’s techno-borders.

    Notes

    [1] https://www.tni.org/en/publication/building-walls

    [2] https://www.statewatch.org/news/2023/december/tracking-the-pact-human-rights-disaster-in-the-works-as-parliament-makes

    [3] https://www.mpg.de/14588889/frontex

    [4] https://www.theguardian.com/global-development/2021/dec/06/fortress-europe-the-millions-spent-on-military-grade-tech-to-deter-refu

    [5] https://frontexfiles.eu/en.html

    [6] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [7] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [8] https://www.statewatch.org/publications/reports-and-books/europe-s-techno-borders

    [9] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-

    [10] https://www.statewatch.org/media/4103/eu-com-von-der-leyen-ec-letter-annex-10-23.pdf

    [11] https://www.statewatch.org/analyses/2021/briefing-external-action-frontex-operations-outside-the-eu

    [12] https://www.statewatch.org/news/2023/november/eu-planning-new-anti-migration-deals-with-egypt-and-tunisia-unrepentant-, https://www.statewatch.org/publications/events/secrecy-and-the-externalisation-of-eu-migration-control

    [13] https://privacyinternational.org/challenging-drivers-surveillance

    [14] https://euromedrights.org/wp-content/uploads/2023/07/Euromed_AI-Migration-Report_EN-1.pdf

    [15] https://www.statewatch.org/access-denied-secrecy-and-the-externalisation-of-eu-migration-control

    https://www.statewatch.org/analyses/2024/border-security-with-drones-and-databases
    #frontières #militarisation_des_frontières #technologie #données #bases_de_données #drones #complexe_militaro-industriel #migrations #réfugiés #contrôles_frontaliers #surveillance #sécurité_frontalière #biométrie #données_biométriques #intelligence_artificielle #algorithmes #smugglers #passeurs #Frontex #Airbus #BAE_Systems #Leonardo #Thales #EUROSUR #coût #business #prix #Smiths_Detection #Fraunhofer_Institute #Engineering_Ingegneria_Informatica #informatique #Tunisie #gardes-côtes_tunisiens #Albanie #Monténégro #Serbie #Bosnie-Herzégovine #Macédoine_du_Nord #Egypte #externalisation #développement #aide_au_développement #coopération_au_développement #Algérie #Libye #Maroc #Afrique_du_Nord

  • Médicaments non délivrés, devis et facturation en panne… Une cyberattaque perturbe sérieusement le système de santé aux États-Unis Ingrid Vergara

    La cyberattaque d’une filiale de la plus importante compagnie d’assurance-santé américaine tourne à la crise d’ampleur aux États-Unis. Victime d’un rançongiciel qui affecte une de ses divisions depuis le 21 février, le groupe UnitedHealthcare n’est plus en mesure d’assurer de nombreuses tâches nécessaires au bon fonctionnement du système de santé. Des médecins qui ne peuvent plus savoir si un patient bénéficie ou non d’une assurance-santé, des pharmacies incapables de transmettre les demandes de remboursement de patients, des factures d’hôpitaux non réglées, des retards dans les délivrances d’ordonnances de médicaments…

    Les réactions en chaîne s’étendent et s’aggravent au fur et à mesure que les jours passent. Car UnitedHealthcare est la plus grande plateforme d’échange de paiements entre médecins, pharmacies, prestataires de soins de santé et patients du système de santé américain. Sa filiale Change gère la facturation de quelque 67.000 pharmacies, . . . . .

    #Santé #internet #sécurité_informatique #cyberattaques #cybersécurité #malware #usa #UnitedHealthcare #algorithme #juste_à_temps #dématérialisation #intelligence_artificielle #artificial-intelligence #blockchain #IA

    Source et suite (payante) : https://www.lefigaro.fr/secteur/high-tech/medicaments-non-delivres-devis-et-facturation-en-panne-une-cyberattaque-per

  • ASMA MHALLA

    Les géants de la tech déploient une vision du monde cohérente, comme dans toute folie

    Dans l’essai « Technopolitique », la chercheuse à l’EHESS analyse la façon dont les grandes entreprises technologiques, avec leurs innovations ultrasophistiquées, redessinent les rapports de pouvoir avec l’Etat. Ce qui rend nécessaire une réponse démocratique.

    https://www.liberation.fr/idees-et-debats/asma-mhalla-les-geants-de-la-tech-deploient-une-vision-du-monde-coherente

    https://justpaste.it/bpo3a

  • Intelligence artificielle et traduction, l’impossible dialogue ?
    https://actualitte.com/article/115941/auteurs/intelligence-artificielle-et-traduction-l-impossible-dialogue

    Le recours à ces outils par des éditeurs n’est pas si exceptionnel, si bien que les professionnels craignent d’être relégués au rang de relecteurs des travaux de la machine.

    L’Association des traducteurs littéraires de France (ATLF) et l’Association pour la promotion de la traduction littéraire (ATLAS) rappelaient, en début d’année 2023 : « Tous ceux et celles qui pensent la traduction ou qui l’ont pratiquée le savent : on ne traduit pas des mots, mais une intention, des sous-entendus, l’équivoque, ce qui n’est pas dit et pourtant existe dans les plis d’un texte littéraire. »

    #Edition #Traduction #Intelligence_artificielle

  • Glüxkind AI Stroller - The Best Smart Stroller for your family
    https://gluxkind.com

    Autant de conneries en si peu d’espace... pas mal !!!
    Les enfants, nouvelle victimes de la prédation algorithmique.

    Unlock Your Helping hand

    Designed by parents with sky-high standards, our AI Powered Smart Strollers elevates the happy moments of daily parenting and lightens the stressful ones.

    Feel supported and savour moments of peace and quiet with features like Automatic Rock-My-Baby or the built-in White Noise Machine to help soothe your little one.

    #Poussette #Intelligence_artificielle #Parentalité

  • One big thing missing from the AI conversation | Zeynep Tufekci - GZERO Media
    https://www.gzeromedia.com/gzero-world-clips/one-big-thing-missing-from-the-ai-conversation-zeynep-tufekci

    When deployed cheaply and at scale, artificial intelligence will be able to infer things about people, places, and entire nations, which humans alone never could. This is both good and potentially very, very bad.

    If you were to think of some of the most overlooked stories of 2023, artificial intelligence would probably not make your list. OpenAI’s ChatGPT has changed how we think about AI, and you’ve undoubtedly read plenty of quick takes about how AI will save or destroy the planet. But according to Princeton sociologist Zeynep Tufekci, there is a super important implication of AI that not enough people are talking about.

    “Rather than looking at what happens between you and me if we use AI,” Tufekci said to Ian on the sidelines of the Paris Peace Forum, “What I would like to see discussed is what happens if it’s used by a billion people?” In a short but substantive interview for GZERO World, Tufekci breaks down just how important it is to think about the applications of AI “at scale” when its capabilities can be deployed cheaply. Tufekci cites the example of how AI could change hiring practices in ways we might not intend, like weeding out candidates with clinical depression or with a history of unionizing. AI at scale will demonstrate a remarkable ability to infer things that humans cannot, Tufekci explains.

    #Intelligence_artificielle #Zeynep_Tufekci

  • Le coût du travail humain reste généralement inférieur à celui de l’IA, d’après le MIT FashionNetwork.com ( Bloomberg )

    Pour le moment, employer des humains reste plus économique que de recourir à l’intelligence artificielle pour la majorité des emplois. C’est en tout cas ce qu’affirme une étude menée par le Massachusetts Institute of Technology, alors que bon nombre de secteurs se sentent menacés par les progrès faits par l’IA.

    Il s’agit de l’une des premières études approfondies réalisées à ce sujet. Les chercheurs ont établi des modèles économiques permettant de calculer l’attractivité de l’automatisation de diverses tâches aux États-Unis, en se concentrant sur des postes “digitalisables“, comme l’enseignement ou l’intermédiation immobilière.

    Source : https://fr.fashionnetwork.com/news/premiumContent,1597548.html

    #ia #intelligence_artificielle #algorithme #surveillance #ai #google #technologie #facebook #technologisme #travail #biométrie #bigdata #coût #MIT

  • Test Yourself : Which Faces Were Made by A.I.? - The New York Times
    https://www.nytimes.com/interactive/2024/01/19/technology/artificial-intelligence-image-generators-faces-quiz.html

    Faites le test (j’ai seulement eu 40% de bonnes réponses !!!).

    Distinguishing between a real versus an A.I.-generated face has proved especially confounding.

    Research published across multiple studies found that faces of white people created by A.I. systems were perceived as more realistic than genuine photographs of white people, a phenomenon called hyper-realism.

    Researchers believe A.I. tools excel at producing hyper-realistic faces because they were trained on tens of thousands of images of real people. Those training datasets contained images of mostly white people, resulting in hyper-realistic white faces. (The over-reliance on images of white people to train A.I. is a known problem in the tech industry.)

    The confusion among participants was less apparent among nonwhite faces, researchers found.

    Participants were also asked to indicate how sure they were in their selections, and researchers found that higher confidence correlated with a higher chance of being wrong.

    “We were very surprised to see the level of over-confidence that was coming through,” said Dr. Amy Dawel, an associate professor at Australian National University, who was an author on two of the studies.

    “It points to the thinking styles that make us more vulnerable on the internet and more vulnerable to misinformation,” she added.

    #Intelligence_artificielle #faux_portraits

  • Usbek & Rica - Détournement, droit d’auteur… 5 outils pour embrouiller les IA
    https://usbeketrica.com/fr/article/detournement-droit-d-auteur-5-outils-pour-embrouiller-les-ia

    « ChatGPT n’est qu’une version très poussée et à très grande échelle de tout ce qu’on sait faire depuis longtemps en termes d’apprentissage automatique. » Ainsi l’historien américain Fred Turner, auteur de plusieurs études primées sur l’impact des nouvelles technologies sur la culture américaine, résume-t-il dans nos colonnes son scepticisme face à l’emballement médiatique autour de l’intelligence artificielle.

    Il n’empêche : comme Fred Turner le reconnaît lui-même, l’émergence de ChatGPT, Dall-E et autres MidJourney achève de nous faire basculer dans un monde où cette « très grande échelle » change à peu près tout, notamment du point de vue de la création.

    Articles écrits par des robots, illustrations générées par quelques lignes de code… Derrière ces prouesses apparentes, on retrouve des algorithmes d’apprentissage automatique, bâtis à partir d’immenses bases de données en ligne plutôt banales, pas toujours protégées… et donc potentiellement faillibles. Pour envoyer balader ces systèmes, faire valoir leurs droits ou tout simplement sécuriser leurs données, certains ingénieurs bâtissent depuis quelques mois des outils en tout genre, du site amateur au logiciel professionnel. Nous en avons recensé cinq.

    #Fred_Turner #Intelligence_artificielle

  • A “robot” should be chemical, not steel, argues man who coined the word | Ars Technica
    https://arstechnica.com/information-technology/2024/01/a-robot-should-be-chemical-not-steel-argues-man-who-coined-the-word

    In 1921, Czech playwright Karel Čapek and his brother Josef invented the word “robot” in a sci-fi play called R.U.R. (short for Rossum’s Universal Robots). As Even Ackerman in IEEE Spectrum points out, Čapek wasn’t happy about how the term’s meaning evolved to denote mechanical entities, straying from his original concept of artificial human-like beings based on chemistry.

    In a newly translated column called “The Author of the Robots Defends Himself,” published in Lidové Noviny on June 9, 1935, Čapek expresses his frustration about how his original vision for robots was being subverted. His arguments still apply to both modern robotics and AI. In this column, he referred to himself in the third-person:

    #Intelligence_artificielle #Robots #Karel_Capek

  • New MIT CSAIL study suggests that AI won’t steal as many jobs as expected | TechCrunch
    https://techcrunch.com/2024/01/22/new-mit-csail-study-suggests-that-ai-wont-steal-as-many-jobs-expected

    Will AI automate human jobs, and — if so — which jobs and when?

    That’s the trio of questions a new research study from MIT’s Computer Science and Artificial Intelligence Laboratory (CSAIL), out this morning, tries to answer.

    There’s been many attempts to extrapolate out and project how the AI technologies of today, like large language models, might impact people’s’ livelihoods — and whole economies — in the future.

    Goldman Sachs estimates that AI could automate 25% of the entire labor market in the next few years. According to McKinsey, nearly half of all work will be AI-driven by 2055. A survey from the University of Pennsylvania, NYU and Princeton finds that ChatGPT alone could impact around 80% of jobs. And a report from the outplacement firm Challenger, Gray & Christmas suggests that AI is already replacing thousands of workers.

    But in their study, the MIT researchers sought to move beyond what they characterize as “task-based” comparisons and assess how feasible it is that AI will perform certain roles — and how likely businesses are to actually replace workers with AI tech.

    Contrary to what one (including this reporter) might expect, the MIT researchers found that the majority of jobs previously identified as being at risk of AI displacement aren’t, in fact, “economically beneficial” to automate — at least at present.

    The key takeaway, says Neil Thompson, a research scientist at MIT CSAIL and a co-author on the study, is that the coming AI disruption might happen slower — and less dramatically — than some commentators are suggesting.

    Early in the study, the researchers give the example of a baker.

    A baker spends about 6% of their time checking food quality, according to the U.S. Bureau of Labor Statistics — a task that could be (and is being) automated by AI. A bakery employing five bakers making $48,000 per year could save $14,000 were it to automate food quality checks. But by the study’s estimates, a bare-bones, from-scratch AI system up to the task would cost $165,000 to deploy and $122,840 per year to maintain . . . and that’s on the low end.

    “We find that only 23% of the wages being paid to humans for doing vision tasks would be economically attractive to automate with AI,” Thompson said. “Humans are still the better economic choice for doing these parts of jobs.”

    Now, the study does account for self-hosted, self-service AI systems sold through vendors like OpenAI that only need to be fine-tuned to particular tasks — not trained from the ground up. But according to the researchers, even with a system costing as little as $1,000, there’s lots of jobs — albeit low-wage and multitasking-dependent — that wouldn’t make economic sense for a business to automate.

    #Intelligence_artificielle #travail

  • Le #règlement européen sur l’IA n’interdira pas la #surveillance_biométrique de masse

    Le 8 décembre 2023, les législateurs de l’#Union_européenne se sont félicités d’être parvenus à un accord sur la proposition de #règlement tant attendue relative l’intelligence artificielle (« #règlement_IA »). Les principaux parlementaires avaient alors assuré à leurs collègues qu’ils avaient réussi à inscrire de solides protections aux #droits_humains dans le texte, notamment en excluant la #surveillance_biométrique_de_masse (#SBM).

    Pourtant, malgré les annonces des décideurs européens faites alors, le règlement IA n’interdira pas la grande majorité des pratiques dangereuses liées à la surveillance biométrique de masse. Au contraire, elle définit, pour la première fois dans l’#UE, des conditions d’utilisation licites de ces systèmes. Les eurodéputés et les ministres des États membres de l’UE se prononceront sur l’acceptation de l’accord final au printemps 2024.

    L’UE entre dans l’histoire – pour de mauvaises raisons

    La coalition #Reclaim_Your_Face soutient depuis longtemps que les pratiques des SBM sont sujettes aux erreurs et risquées de par leur conception, et qu’elles n’ont pas leur place dans une société démocratique. La police et les autorités publiques disposent déjà d’un grand nombre de données sur chacun d’entre nous ; elles n’ont pas besoin de pouvoir nous identifier et nous profiler en permanence, en objectifiant nos #visages et nos #corps sur simple pression d’un bouton.

    Pourtant, malgré une position de négociation forte de la part du Parlement européen qui demandait l’interdiction de la plupart des pratiques de SBM, très peu de choses avaient survécu aux négociations du règlement relatif à l’IA. Sous la pression des représentants des #forces_de_l’ordre, le Parlement a été contraint d’accepter des limitations particulièrement faibles autour des pratiques intrusives en matière de SBM.

    L’une des rares garanties en la matière ayant apparemment survécu aux négociations – une restriction sur l’utilisation de la #reconnaissance_faciale a posteriori [par opposition à l’utilisation en temps réel] – a depuis été vidée de sa substance lors de discussions ultérieures dites « techniques » qui se sont tenues ces dernière semaines.

    Malgré les promesses des représentants espagnols en charge des négociations, qui juraient que rien de substantiel ne changerait après le 8 décembre, cette édulcoration des protections contre la reconnaissance faciale a posteriori est une nouvelle déception dans notre lutte contre la #société_de_surveillance.

    Quel est le contenu de l’accord ?

    D’après ce que nous avons pu voir du texte final, le règlement IA est une occasion manquée de protéger les #libertés_publiques. Nos droits de participer à une #manifestation, d’accéder à des soins de #santé_reproductive ou même de nous asseoir sur un #banc pourraient ainsi être menacés par une surveillance biométrique omniprésente de l’#espace_public. Les restrictions à l’utilisation de la reconnaissance faciale en temps réel et a posteriori prévues par la loi sur l’IA apparaissent minimes et ne s’appliqueront ni aux entreprises privées ni aux autorités administratives.

    Nous sommes également déçus de voir qu’en matière de « #reconnaissance_des_émotions » et les pratiques de #catégorisation_biométrique, seuls des cas d’utilisation très limités sont interdits dans le texte final, avec d’énormes lacunes.

    Cela signifie que le règlement IA autorisera de nombreuses formes de reconnaissance des émotions – telles que l’utilisation par la police de systèmes d’IA pour évaluer qui dit ou ne dit pas la #vérité – bien que ces systèmes ne reposent sur aucune base scientifique crédible. Si elle est adoptée sous cette forme, le règlement IA légitimera une pratique qui, tout au long de l’histoire, a partie liée à l’#eugénisme.

    Le texte final prévoit également d’autoriser la police à classer les personnes filmées par les caméras de #vidéosurveillance en fonction de leur #couleur_de_peau. Il est difficile de comprendre comment cela peut être autorisé étant donné que la législation européenne interdit normalement toute #discrimination. Il semble cependant que, lorsqu’elle est pratiquée par une machine, les législateurs considèrent de telles #discriminations comme acceptables.

    Une seule chose positive était ressorti des travaux techniques menés à la suite des négociations finales du mois de décembre : l’accord entendait limiter la reconnaissance faciale publique a posteriori aux cas ayant trait à la poursuite de crimes transfrontaliers graves. Bien que la campagne « Reclaim Your Face » ait réclamé des règles encore plus strictes en la matière, cela constituait un progrès significatif par rapport à la situation actuelle, caractérisée par un recours massif à ces pratiques par les États membres de l’UE.

    Il s’agissait d’une victoire pour le Parlement européen, dans un contexte où tant de largesses sont concédées à la surveillance biométrique. Or, les négociations menées ces derniers jours, sous la pression des gouvernements des États membres, ont conduit le Parlement à accepter de supprimer cette limitation aux #crimes_transfrontaliers graves tout en affaiblissant les garanties qui subsistent. Désormais, un vague lien avec la « #menace » d’un crime pourrait suffire à justifier l’utilisation de la #reconnaissance_faciale_rétrospective dans les espaces publics.

    Il semblerait que ce soit la #France qui ait mené l’offensive visant à faire passer au rouleau compresseur notre droit à être protégés contre les abus de nos données biométriques. À l’approche des #Jeux_olympiques et paralympiques qui se tiendront à Paris cet été, la France s’est battue pour préserver ou étendre les pouvoirs de l’État afin d’éradiquer notre anonymat dans les espaces publics et pour utiliser des systèmes d’intelligence artificielle opaques et peu fiables afin de tenter de savoir ce que nous pensons. Les gouvernements des autres États membres et les principaux négociateurs du Parlement n’ont pas réussi à la contrer dans cette démarche.

    En vertu du règlement IA, nous serons donc tous coupables par défaut et mis sous #surveillance_algorithmique, l’UE ayant accordé un blanc-seing à la surveillance biométrique de masse. Les pays de l’UE auront ainsi carte blanche pour renforcer la surveillance de nos visages et de nos corps, ce qui créera un précédent mondial à faire froid dans le dos.

    https://www.laquadrature.net/2024/01/19/le-reglement-europeen-sur-lia-ninterdira-pas-la-surveillance-biometriq
    #surveillance_de_masse #surveillance #intelligence_artificielle #AI #IA #algorithme

    voir aussi :
    https://seenthis.net/messages/1037288

  • Chile searches for those missing from Pinochet dictatorship with the help of artificial intelligence

    At the end of August, Chilean president Gabriel Boric launched the Search Plan for more than 1,000 Chileans. Today, old judicial documents, many typewritten, have been digitized to apply cutting edge technology and cross-reference data.

    On Monday 15 January, at the inauguration of the “Congress of the Future” in Santiago, President Gabriel Boric stated that artificial intelligence, the theme of the 13th version of the conference, “will play an important role in the search for our #missing detainees.” He was referring to the #Search_Plan to find over 1,000 individuals who were victims of the Augusto Pinochet dictatorship (1973-1990), which his Administration presented on August 30, 2023, on the eve of the September 11 commemoration of the 50th anniversary of the coup d’état that ousted Salvador Allende, the socialist president.

    The plan, spearheaded by Justice Minister Luis Cordero, is an initiative that is intended to become a permanent State policy. According to Justice data, after the dictatorship in Chile there were 1,469 victims of forced disappearance and of these, 1,092 are missing detainees, while 377, who were executed, are missing as well. So far only 307 have been identified.

    To embark on this new search, which has already been initiated by the courts, Cordero tells EL PAÍS that he is working with two main sources. On the one hand, the judicial investigations, which comprise millions of pages. And on the other, the administrative records of the cases that are scattered around state agencies. These include the Human Rights Program, created in 1997, which falls under the Ministry of Justice, as well as previous investigations in military Prosecutor’s Offices (which used to close the cases) and the files that provided the basis for the 1991 National Commission for Truth and Reconciliation Report, driven by the former president, Patricio Aylwin (1990-1994), and in which an account of the victims was given for the first time.

    Typewritten documents

    Unsholster, a company specialized in data analysis, data science and software development, whose general manager is the civil engineer Antonio Díaz-Araujo, is behind the technological analysis of the information. The Human Rights Program has already digitalized the information, while the Judicial Branch is 80% digitalized. The firm was awarded the project in a bidding process in the context of the Search Plan — it is in charge of the implementation of artificial intelligence.

    Something of relevance in this investigation is that the judicial files, separated according to each case, were processed in the old Chilean justice system (changed in 2005), which implies that the judges’ inquiries are on paper — most of them have the pages sewn into a notebook by hand, written on typewriters, and there are even several handwritten parts. These are the ones containing statements, black and white photographs, photocopies of photos, forensic reports and old police reports.

    However, in addition, the judicial inquiries that have been undertaken since 2000 will provide a more up-to-date and crucial basis of information in the analysis. Since then, hundreds of cases that had been shelved during the dictatorship have been reopened by judges with exclusive dedication to cases of human rights violations with sentences.

    Cordero points out that “there is a lot of information in the hands of the State and there is no human capacity to process it, because it needs to be interconnected. For example, there are testimonies that appear in some files and not in others. And, in addition, depending on the judges, there were lines of investigation, so there may have been precedents that were useful for some and not for others.” For this reason, the justice minister says artificial intelligence can play a key role, as he believes that in these cases, the cross-referencing of information will be crucial.

    “All that information is in judicial and administrative files, and what digitization accomplishes first is to integrate them in one place. And then to work with artificial intelligence, which allows us to reduce the investigation gaps using algorithms, which are being tested, and which can read, for example, dates, names, places, for instance, in those files,” the minister adds.
    4.7 million pages and counting

    Unsholster is currently in the pre-project stage, before it starts programming, Díaz-Araujo explains to EL PAÍS. “But we have already touched on most of the file types that we will need to deal with,” he says. The documents that have been coming in, scanned sheet by sheet, are in folders, in PDF format, and therefore do not correspond to a logic that allows data to be searched because they are recorded as images. For this reason, the first step has been to start applying OCR (Optical Character Recognition) technology so that they can be transformed into data.

    They already have information — which does not yet include the thousands of files of the Judicial Branch — totaling 46,768 PDF files, which amounts to more than 4.7 million pages. “If a person were to read every one of those pages, out loud and without understanding or relating facts, they would probably spend eight hours a day reading for 27 years,” explains the civil engineer.

    Once those files are moved to pages, Díaz-Araujo says, “a big classification tree is created, which allows you to classify pages that have images, manuscripts, typewritten pages, or Word-style files. And then you start to apply, on each one of them, the best OCR” for each type of page, because the key, he adds, lies in “what material is brought to each one.”

    Another stage, he explains, is to create different types of dictionaries and entities “that can be learned with use.” For example, nicknames of people, places, streets (many have changed names since the dictatorship), ways of writing and dates.

    This implies, he says, creating a topology of entities in the reading, using technology, of each of the texts “that is capable of rapidly correlating different pages, people, places and dates in a highly flexible way.” He gives an example: “Many of the offenders may have nicknames, and several of them may be written in different ways, but that doesn’t mean that they won’t be linked. What you do is create technology that is capable of suggesting other correlations to the analyst as they occur over time.”

    Therefore, he elaborates, “there is artificial intelligence in the classification of documents; there is high intelligence in transforming documents from an image to searchable data and then, there is a lot of it, in the creation of entities that enable the connection of some documents with others. And, finally, the most necessary thing in a platform is that it should be about the possibility of competing algorithms, with artificial intelligence or without, on this data. But it should not be bound to a technology, because the biggest issue is being open to new technologies of the future. If you keep it closed, it becomes a stumbling block.”

    He continues: “Another key point of this platform is that the original data, and the transformed data, are retained. But you can continue to create other data on top of that. There is no time machine that kind of freezes the ability to produce more algorithms and more information with new platforms in the future.”
    Contreras and Krassnoff

    Five months after technology was first applied to the nearly 47,000 documents of Unsholster’s Human Rights Program, it is already possible, thanks to the implementation of the initial OCR on the identification documents, to find thousands of mentions of at least four military officers who were part of Pinochet’s secret police, the feared DINA (National Intelligence Directorate).

    Manuel Contreras, its director general, sentenced at the time of his death in 2015 to 526 years in prison for hundreds of crimes, appears 2,800 times; Pedro Espinoza and Miguel Krassnoff, both serving sentences in Punta Peuco prison, 2,079 and 2,954 mentions, respectively. And Marcelo Moren Brito, who was the torturer of Ángela Jeria, the mother of former socialist president, Michelle Bachelet, 2,284 times.

    For now they are only mentions. But from now on, names, facts, dates and places can be linked and related, says Díaz-Araujo.

    https://english.elpais.com/international/2024-01-18/chile-searches-for-those-missing-from-pinochet-dictatorship-with-the

    #Chili #intelligence_artificielle #identification #fosses_communes #dictature #AI #IA

  • La #CSNP invite à mieux anticiper l’impact de l’#IA sur la société
    https://www.banquedesterritoires.fr/la-csnp-invite-mieux-anticiper-limpact-de-lia-sur-la-societe

    Après un premier avis en 2020 sur l’#intelligence_artificielle (IA) centré sur sa dimension économique, la commission supérieure du numérique et des postes (CSNP) revient sur le sujet dans son avis(https://csnp.fr/wp-content/uploads/2024/01/AVIS-N%C2%B02024-01-du-17-JANVIER-2024-pour-mieux-encadrer-lusage-de-lintellige) n°2024-01 du 17 janvier 2024. Les parlementaires insistent plus particulièrement sur les enjeux sociétaux de l’IA, le tsunami de l’#IA_générative étant passé par là. Signé de Mireille Clapot, députée de la Drôme et présidente de la CSNP, l’avis souligne l’urgence à réguler l’IA tout en invitant les pouvoirs publics à amortir ses effets sociétaux et à contribuer à l’émergence d’une IA frugale.

    #régulation #formation #administrations_publiques

  • Les dames de l’algorithme
    https://www.radiofrance.fr/franceinter/podcasts/le-code-a-change/le-code-a-change-6-5342040

    Absolument passionnant !

    L’histoire d’un groupe « d’annotatrices » qui entraînent un programme d’IA sur un programme d’anonymisation automatique des décisions de justice qui doivent maintenant être accessibles à tous.

    C’est l’histoire d’une jeune chercheuse qui se lance dans une thèse de sociologie sur l’Intelligence artificielle dans la Justice française. Par un mélange de hasard et de persévérance, elle tombe sur un « terrain » assez inattendu. Quelques bureaux du Palais de Justice, sur l’île de la Cité, à Paris, où on entraîne un algorithme auto-apprenant.

    #Intelligence_artificielle #Justice #Annotation

  • FDA Clearance Granted for First AI-Powered Medical Device to Detect All Three Common Skin Cancers (Melanoma, Basal Cell Carcinoma and Squamous Cell Carcinoma) | Business Wire
    https://www.businesswire.com/news/home/20240117116417/en/FDA-Clearance-Granted-for-First-AI-Powered-Medical-Device-to-Detect-Al

    Bon, c’est avant tout un article promotionnel (i.e. faites plus souvent le test). Mais cela souligne des avancées du matériel médical grace à l’IA.

    MIAMI—(BUSINESS WIRE)—DermaSensor Inc. announces FDA clearance for its real-time, non-invasive skin cancer evaluation system. For the first time, the 300,000 primary care physicians in the U.S. can now be equipped to provide quantitative, point-of-care testing for all types of skin cancer. Better identifying skin cancer in a primary care setting is designed to accelerate patient access to necessary care.

    #Intelligence_artificielle #Cancer #Médecine

  • Zuckerberg’s Meta Is Spending Billions To Buy 350,000 Nvidia H100 GPUs | PCMag
    https://www.pcmag.com/news/zuckerbergs-meta-is-spending-billions-to-buy-350000-nvidia-h100-gpus

    But to get there, Meta is going to need Nvidia’s H100, an enterprise GPU that’s adept at training large language models. “We’re building an absolutely massive amount of infrastructure to support this,” Zuckerberg said. “By the end of this year, we’re going to have around 350,000 Nvidia H100s. Or around 600,000 H100 equivalents of compute if you include other GPUs.”

    #meta #business #ia #intelligence_artificielle #investissement

  • One-Third of Game Developers Say Their Company Was Hit By Layoffs Last Year - IGN
    https://www.ign.com/articles/one-third-of-game-developers-say-their-company-was-hit-by-layoffs-last-year

    In stark contrast to a year of blockbuster video game hits, one of the biggest ongoing industry trends in 2023 was the prevalence of mass layoffs. While actual figures are difficult to get ahold of, estimates suggest the number of workers laid off in games last year approached or exceeded 10,000, and 2024 isn’t looking much better. Now, a GDC survey of developers suggests that one-third of all game developers were impacted by layoffs last year, either directly or by witnessing them happen at their company.

    L’article traite par ailleurs d’IA et de chaîne de blocs basés aussi sur la même enquête de la GDC.

    #jeu_vidéo #jeux_vidéo #business #ressources_humaines #licenciements #blockchain #ia #intelligence_artificielle

  • GPT-4 kostenlos nutzen : Microsoft Copilot für iPhone, iPad und Mac
    https://www.heise.de/news/GPT-4-kostenlos-nutzen-Microsoft-Copilot-fuer-iPhone-iPad-und-Mac-9585553.html

    Encore une offre « gratuite » où on paye avec ses données personnelles. Pourtant c’est tentant d’avoir les générateurs d’images et textes artificiels à sa disposition. Nous avons tellement pris l’habitude de’accepter des pactes avec le diable qu’on peut se permettre celui-ci aussi. On verra bien si c’est vrai.

    2.1.2024 von Malte Kirchner - Wenige Tage nach der Android-Version veröffentlichte Microsoft jetzt auch Copilot für iOS und iPadOS. Auch Mac-Nutzer können die App verwenden.

    Microsoft hat seine App Copilot jetzt auch für iOS, iPadOS und macOS veröffentlicht. Sie ist im App Store kostenlos verfügbar. Der KI-Chatbot erlaubt das Generieren von Texten unter anderem auch mit dem Large Language Model (LLM) GPT-4 – und das kostenlos und ohne Anmeldung. Von Interesse dürfte für einige sicherlich auch der Text-zu-Bild-Generator DALL-E3 sein, der integriert ist.

    Die Variante für Apple-Geräte folgte wenige Tage, nachdem Microsoft die App für Android-Geräte veröffentlicht hatte. Offiziell ist sie nur für iOS und iPadOS vorgesehen. Doch Microsoft lässt es zu, dass sie auch auf Macs mit Apple Silicon aus dem Mac App Store geladen werden kann. Dort gilt sie zwar als ungeprüft, funktionierte aber in unseren Tests einwandfrei.
    Bis zu 30 Antworten pro Thread

    Der zuerst Bing Chat genannte KI-Assistent ist auch ohne Anmeldung nutzbar. Dann allerdings sind pro Thread nur fünf Fragen und Antworten möglich. Das Erzeugen von Bildern ist nur nach Anmeldung möglich. Mit einem Microsoft-Account erhöht sich zudem die Zahl der Antworten pro Thread auf 30. Neben Texteingaben können auch Fotos und Spracheingaben zur Verarbeitung hochgeladen werden. Gegenwärtig lassen sich komplette Chatverläufe nicht sichern. Einzelne Antworten können kopiert werden.

    Microsofts Copilot gesellt sich im App Store zur offiziellen App ChatGPT von OpenAI, die aber nicht für den Mac bereitsteht. Zudem ist die Nutzung von GPT-4 bei ChatGPT nur mit einem kostenpflichtigen Plus-Abo möglich. Der Copilot wurde bereits auch in Windows, in Office-Anwendungen und weiterer Software integriert.

    #Microsift #intelligence_artificielle #service_gratuit

  • Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète

    Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.

    La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.

    A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.

    Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.

    Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.

    La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.

    #Reconnaissance_faciale

    Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.

    Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.

    Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.

    A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.

    « Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.

    « Des progrès dans de nombreux domaines »

    L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.

    La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.

    Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).

    A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».

    Des « systèmes susceptibles de modifier votre #comportement »

    Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.

    La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »

    Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »

    Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.

    Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.

    https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
    #vidéosurveillance #AI #IA #caméras_de_vidéosurveillance

  • « C’est la première fois de l’histoire qu’une IA remporte un prix littéraire »
    https://actualitte.com/article/114902/technologie/c-est-la-premiere-fois-de-l-histoire-qu-une-ia-remporte-un-prix-litterai

    En Chine, un professeur de journalisme a reçu le deuxième prix dans un concours d’écriture de science-fiction. Sauf que ce n’est pas sa création propre qu’il y avait présentée, mais celle d’une IA qu’il avait simplement aidé à écrire l’histoire.

    Publié le :

    27/12/2023 à 16:25

    Ugo Loumé

    3h de temps et 66 prompts choisis minutieusement. Voici la recette pour faire écrire à une intelligence artificielle une nouvelle de science-fiction capable de remporter un prix littéraire en Chine.

    Shen Yang, professeur de journalisme et de communication à l’Université Tsinghua de Pékin, est l’auteur de cette recette qui a débouché sur un récit de 6 000 caractères, Le pays des souvenirs.

    Aux confins du métavers, se trouve le « Pays des souvenirs », un royaume interdit où les humains sont bannis. Des illusions solides créées par des robots humanoïdes amnésiques et des IA ayant perdu la mémoire peuplent ce domaine. Tout intrus, qu’il soit humain ou artificiel, verra ses souvenirs effacés et sera à jamais piégé dans son étreinte interdite.

    Ainsi débute la nouvelle. Ensuite, c’est l’histoire de Li Xiao, une ancienne « ingénieure neuronale » qui a accidentellement perdu toute sa mémoire, et qui tente de la retrouver en explorant tranquillement ce fameux et effrayant « pays des souvenirs ».
    Une nouvelle kafkaïenne dans un monde kafkaïen

    Un récit qui se voulait « kafkaïen », référence, peut-être, à l’absurdité d’un tel endroit où les souvenirs s’évanouissent à peine le seuil en est franchi. L’exercice semble avoir convaincu, puisque la nouvelle a gagné le deuxième prix du concours de science fiction organisé par la Jiangsu Science Writers Association. La travail effectué par l’IA, qui a récolté 3 votes sur 6, concourait avec 17 autres histoires.

    Parmi le jury, un seul membre avait été informé du fait que le récit était le produit d’une intelligence artificielle. Un autre juge, qui a étudié en profondeur la création de contenu par IA, a déclaré avoir reconnu la plume d’un cerveau non-humain, et avoir d’emblée écarté ce récit qui n’était pas conforme aux règles du concours et « manquait d’émotion ».

    Shen Yang, de son côté, se réjouit : « C’est la première fois qu’une IA remporte un prix littéraire dans l’histoire de la littérature et de l’intelligence artificielle. » Il a déclaré vouloir partager au plus vite sa manière de faire pour que chacun puisse à son tour écrire de la bonne fiction assisté d’une IA.

    Dans le contexte actuel, il n’en fallait pas beaucoup plus pour créer du débat, alors que Clarkesworld, célèbre magazine de science fiction, interrompait en février dernier la reception de manuscrit, submergé par les textes produits par des entités non-humaines.

    Fu Ruchu, éditrice chinoise, s’interroge sur le futur de l’écriture de science-fiction, un genre qui selon elle s’intéresse de manière globale un peu moins au langage. Même si elle reconnait que le récit présenté par Shen Yang et son IA est bien construit et n’est pas dénué de logique, elle ajoute : « le rapport au langage dans cette nouvelle est très pauvre, il se pourrait qu’il s’appauvrit encore plus avec le temps. »

    #Intelligence_artificielle #Littérature #Science_fiction

  • EU’s AI Act Falls Short on Protecting Rights at Borders

    Despite years of tireless advocacy by a coalition of civil society and academics (including the author), the European Union’s new law regulating artificial intelligence falls short on protecting the most vulnerable. Late in the night on Friday, Dec. 8, the European Parliament reached a landmark deal on its long-awaited Act to Govern Artificial Intelligence (AI Act). After years of meetings, lobbying, and hearings, the EU member states, Commission, and the Parliament agreed on the provisions of the act, awaiting technical meetings and formal approval before the final text of the legislation is released to the public. A so-called “global first” and racing ahead of the United States, the EU’s bill is the first ever regional attempt to create an omnibus AI legislation. Unfortunately, this bill once again does not sufficiently recognize the vast human rights risks of border technologies and should go much further protecting the rights of people on the move.

    From surveillance drones patrolling the Mediterranean to vast databases collecting sensitive biometric information to experimental projects like robo-dogs and AI lie detectors, every step of a person’s migration journey is now impacted by risky and unregulated border technology projects. These technologies are fraught with privacy infringements, discriminatory decision-making, and even impact the life, liberty, and security of person seeking asylum. They also impact procedural rights, muddying responsibility over opaque and discretionary decisions and lacking clarity in mechanisms of redress when something goes wrong.

    The EU’s AI Act could have been a landmark global standard for the protection of the rights of the most vulnerable. But once again, it does not provide the necessary safeguards around border technologies. For example, while recognizing that some border technologies could fall under the high-risk category, it is not yet clear what, if any, border tech projects will be included in the final high-risk category of projects that are subject to transparency obligations, human rights impact assessments, and greater scrutiny. The Act also has various carveouts and exemptions in place, for example for matters of national security, which can encapsulate technologies used in migration and border enforcement. And crucial discussions around bans on high-risk technologies in migration never even made it into the Parliament’s final deal terms at all. Even the bans which have been announced, for example around emotion recognition, are only in place in the workplace and education, not at the border. Moreover, what exactly is banned remains to be seen, and outstanding questions to be answered in the final text include the parameters around predictive policing as well as the exceptions to the ban on real-time biometric surveillance, still allowed in instances of a “threat of terrorism,” targeted search for victims, or the prosecution of serious crimes. It is also particularly troubling that the AI Act explicitly leaves room for technologies which are of particular appetite for Frontex, the EU’s border force. Frontex released its AI strategy on Nov. 9, signaling an appetite for predictive tools and situational analysis technology. These tools, which when used without safeguards, can facilitate illegal border interdiction operations, including “pushbacks,” in which the agency has been investigated. The Protect Not Surveil Coalition has been trying to influence European policy makers to ban predictive analytics used for the purposes of border enforcement. Unfortunately, no migration tech bans at all seem to be in the final Act.

    The lack of bans and red lines under the high-risk uses of border technologies in the EU’s position is in opposition to years of academic research as well as international guidance, such as by then-U.N. Special Rapporteur on contemporary forms of racism, E. Tendayi Achiume. For example, a recently released report by the University of Essex and the UN’s Office of the Human Rights Commissioner (OHCHR), which I co-authored with Professor Lorna McGregor, argues for a human rights based approach to digital border technologies, including a moratorium on the most high risk border technologies such as border surveillance, which pushes people on the move into dangerous terrain and can even assist with illegal border enforcement operations such as forced interdictions, or “pushbacks.” The EU did not take even a fraction of this position on border technologies.

    While it is promising to see strict regulation of high-risk AI systems such as self-driving cars or medical equipment, why are the risks of unregulated AI technologies at the border allowed to continue unabated? My work over the last six years spans borders from the U.S.-Mexico corridor to the fringes of Europe to East Africa and beyond, and I have witnessed time and again how technological border violence operates in an ecosystem replete with the criminalization of migration, anti-migrant sentiments, overreliance on the private sector in an increasingly lucrative border industrial complex, and deadly practices of border enforcement, leading to thousands of deaths at borders. From vast biometric data collected without consent in refugee camps, to algorithms replacing visa officers and making discriminatory decisions, to AI lie detectors used at borders to discern apparent liars, the roll out of unregulated technologies is ever-growing. The opaque and discretionary world of border enforcement and immigration decision-making is built on societal structures which are underpinned by intersecting systemic racism and historical discrimination against people migrating, allowing for high-risk technological experimentation to thrive at the border.

    The EU’s weak governance on border technologies will allow for more and more experimental projects to proliferate, setting a global standard on how governments will approach migration technologies. The United States is no exception, and in an upcoming election year where migration will once again be in the spotlight, there does not seem to be much incentive to regulate technologies at the border. The Biden administration’s recently released Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence does not offer a regulatory framework for these high-risk technologies, nor does it discuss the impacts of border technologies on people migrating, including taking a human rights based approach to the vast impacts of these projects on people migrating. Unfortunately, the EU often sets a precedent for how other countries govern technology. With the weak protections offered by the EU AI act on border technologies, it is no surprise that the U.S. government is emboldened to do as little as possible to protect people on the move from harmful technologies.

    But real people already are at the centre of border technologies. People like Mr. Alvarado, a young husband and father from Latin America in his early 30s who perished mere kilometers away from a major highway in Arizona, in search of a better life. I visited his memorial site after hours of trekking through the beautiful yet deadly Sonora desert with a search-and-rescue group. For my upcoming book, The Walls have Eyes: Surviving Migration in the Age of Artificial Intelligence, I was documenting the growing surveillance dragnet of the so-called smart border that pushes people to take increasingly dangerous routes, leading to increasing loss of life at the U.S.-Mexico border. Border technologies as a deterrent simply do not work. People desperate for safety – and exercising their internationally protected right to asylum – will not stop coming. They will instead more circuitous routes, and scholars like Geoffrey Boyce and Samuel Chambers have already documented a threefold increase in deaths at the U.S.-Mexico frontier as the so-called smart border expands. In the not so distant future, will people like Mr. Alvarado be pursued by the Department of Homeland Security’s recently announced robo-dogs, a military grade technology that is sometimes armed?

    It is no accident that more robust governance around migration technologies is not forthcoming. Border spaces increasingly serve as testing grounds for new technologies, places where regulation is deliberately limited and where an “anything goes” frontier attitude informs the development and deployment of surveillance at the expense of people’s lives. There is also big money to be made in developing and selling high risk technologies. Why does the private sector get to time and again determine what we innovate on and why, in often problematic public-private partnerships which states are increasingly keen to make in today’s global AI arms race? For example, whose priorities really matter when we choose to create violent sound cannons or AI-powered lie detectors at the border instead of using AI to identify racist border guards? Technology replicates power structures in society. Unfortunately, the viewpoints of those most affected are routinely excluded from the discussion, particularly around areas of no-go-zones or ethically fraught usages of technology.

    Seventy-seven border walls and counting are now cutting across the landscape of the world. They are both physical and digital, justifying broader surveillance under the guise of detecting illegal migrants and catching terrorists, creating suitable enemies we can all rally around. The use of military, or quasi-military, autonomous technology bolsters the connection between immigration and national security. None of these technologies, projects, and sets of decisions are neutral. All technological choices – choices about what to count, who counts, and why – have an inherently political dimension and replicate biases that render certain communities at risk of being harmed, communities that are already under-resourced, discriminated against, and vulnerable to the sharpening of borders all around the world.

    As is once again clear with the EU’s AI Act and the direction of U.S. policy on AI so far, the impacts on real people seems to have been forgotten. Kowtowing to industry and making concessions for the private sector not to stifle innovation does not protect people, especially those most marginalized. Human rights standards and norms are the bare minimum in the growing panopticon of border technologies. More robust and enforceable governance mechanisms are needed to regulate the high-risk experiments at borders and migration management, including a moratorium on violent technologies and red lines under military-grade technologies, polygraph machines, and predictive analytics used for border interdictions, at the very least. These laws and governance mechanisms must also include efforts at local, regional, and international levels, as well as global co-operation and commitment to a human-rights based approach to the development and deployment of border technologies. However, in order for more robust policy making on border technologies to actually affect change, people with lived experiences of migration must also be in the driver’s seat when interrogating both the negative impacts of technology as well as the creative solutions that innovation can bring to the complex stories of human movement.

    https://www.justsecurity.org/90763/eus-ai-act-falls-short-on-protecting-rights-at-borders

    #droits #frontières #AI #IA #intelligence_artificielle #Artificial_Intelligence_Act #AI_act #UE #EU #drones #Méditerranée #mer_Méditerranée #droits_humains #technologie #risques #surveillance #discrimination #transparence #contrôles_migratoires #Frontex #push-backs #refoulements #privatisation #business #complexe_militaro-industriel #morts_aux_frontières #biométrie #données #racisme #racisme_systémique #expérimentation #smart_borders #frontières_intelligentes #pouvoir #murs #barrières_frontalières #terrorisme

    • The Walls Have Eyes. Surviving Migration in the Age of Artificial Intelligence

      A chilling exposé of the inhumane and lucrative sharpening of borders around the globe through experimental surveillance technology

      “Racism, technology, and borders create a cruel intersection . . . more and more people are getting caught in the crosshairs of an unregulated and harmful set of technologies touted to control borders and ‘manage migration,’ bolstering a multibillion-dollar industry.” —from the introduction

      In 2022, the U.S. Department of Homeland Security announced it was training “robot dogs” to help secure the U.S.-Mexico border against migrants. Four-legged machines equipped with cameras and sensors would join a network of drones and automated surveillance towers—nicknamed the “smart wall.” This is part of a worldwide trend: as more people are displaced by war, economic instability, and a warming planet, more countries are turning to A.I.-driven technology to “manage” the influx.

      Based on years of researching borderlands across the world, lawyer and anthropologist Petra Molnar’s The Walls Have Eyes is a truly global story—a dystopian vision turned reality, where your body is your passport and matters of life and death are determined by algorithm. Examining how technology is being deployed by governments on the world’s most vulnerable with little regulation, Molnar also shows us how borders are now big business, with defense contractors and tech start-ups alike scrambling to capture this highly profitable market.

      With a foreword by former U.N. Special Rapporteur E. Tendayi Achiume, The Walls Have Eyes reveals the profound human stakes, foregrounding the stories of people on the move and the daring forms of resistance that have emerged against the hubris and cruelty of those seeking to use technology to turn human beings into problems to be solved.

      https://thenewpress.com/books/walls-have-eyes
      #livre #Petra_Molnar

  • L’usage revendiqué de l’intelligence artificielle par l’armée israélienne questionne le droit de la guerre
    https://www.lemonde.fr/idees/article/2023/12/14/l-usage-revendique-de-l-intelligence-artificielle-par-l-armee-israelienne-qu

    Cette question des applications militaires est importante. Une opération militaire donne le plein pouvoir aux militaires, qui ont en principe un « objectif » fixé par le pouvoir civil, mais ont ensuite la maîtrise des moyens pour y parvenir, sans devoir rendre de compte devant la justice (la CPI reste trop faible). Dès lors si en deuxième main la responsabilité léthale est confiée à une IA, on est encore plus loin de la responsabilité (souvent jugée ultérieurement... pas les vainqueurs) qui pourrait être relevée pour crimes de guerre.

    Enfin, quand la guerre se résume à détruire son voisin en limitant ses risques, on peut s’attendre à des guerre de plus en plus terribles pour les populations civiles. On retrouve le débat sur les drones armés.

    Parmi toutes les horreurs de la guerre qui a éclaté le 7 octobre entre Israël et le Hamas, il en est une qui est venue, de façon inattendue, ajouter une dimension dystopique à ce conflit : le recours assumé, par l’armée israélienne, à la puissance de l’intelligence artificielle (IA) pour maximiser son écrasement du mouvement islamiste. Une IA présentée comme une des composantes-clés de l’un de ses outils de ciblage pour ses campagnes de frappes aériennes sur la bande de Gaza, baptisé Habsora (« Evangile »).

    Difficile de savoir à quel point cette révélation inopinée, début novembre, au lendemain de la trêve de sept jours ayant permis la libération de 110 otages, a été le résultat d’une stratégie de communication maîtrisée. Des enquêtes de presse rapportaient alors les états d’âme d’anciens membres de l’armée israélienne sur l’emploi de ce logiciel capable de proposer des cibles à une vitesse inédite à partir d’une masse de données hétérogènes. Les mots « intelligence artificielle » sont parfois un fourre-tout qui englobe beaucoup d’applications numériques, qu’elles soient civiles ou militaires.

    Une chose apparaît néanmoins évidente, depuis, aux yeux d’experts : l’ampleur des destructions et le nombre inédit de victimes civiles à Gaza – plus de 18 000, selon le ministère de la santé du Hamas – pourraient faire bouger les lignes sur l’encadrement de l’IA dans les systèmes d’armes. « Cela fait des années que le sujet ne fait l’objet d’aucun consensus chez les spécialistes. Cette guerre pourrait permettre d’accélérer certains débats », soutient ainsi Julien Nocetti, chercheur associé à l’Institut français des relations internationales (IFRI), spécialiste des conflits numériques.
    Lire le décryptage : Article réservé à nos abonnés Israël-Hamas : « Le Monde » face à la guerre des images

    Les armements sont en effet aujourd’hui divisés en deux grandes catégories. D’un côté, les systèmes d’armes létales autonomes, totalement automatisés, dont il n’existe pas réellement d’exemples sur le marché. De l’autre, les systèmes d’armes létales « intégrant » de l’autonomie (SALIA), qui permettent en principe à l’homme de rester « dans la boucle ». Or l’immense majorité des puissances militaires occidentales – dont Israël avec Habsora – assurent aujourd’hui avoir fait le choix des SALIA, et peuvent ainsi jurer être du côté respectable de l’emploi de la force.

    Mais, pour Laure de Roucy-Rochegonde, également chercheuse à l’IFRI, autrice d’une thèse sur la régulation des systèmes d’armes autonomes, les spécificités de la guerre entre Israël et le Hamas pourraient ringardiser ces catégories aux contours flous et redonner de la vigueur à un autre concept de régulation, celui de « contrôle humain significatif ». Une définition plus stricte, poussée sans grand succès jusqu’ici par certains défenseurs des droits de l’homme, dont une ONG dénommée Article 36. « Le problème, c’est que l’on ne sait pas quel type d’algorithme est utilisé [par l’armée israélienne], ni comment les données ont été agrégées. Ce ne serait pas un problème s’il n’y avait pas, au bout, une décision de vie ou de mort », reprend Mme de Roucy-Rochegonde.

    #Intelligence_artificielle #militarisme #Guerre

    • Article36
      https://article36.org

      Article 36 is a specialist non-profit organisation, focused on reducing harm from weapons. We are a small and effective team of advocacy and policy experts based in the UK.

      We partner with civil society groups and governments to develop new policies and legal standards to prevent civilian harm from existing and future weapons.

      Our team has more than a decade of experience in diplomatic negotiations and developing practical, actionable policies.

    • Traités de DIH - Protocole additionnel (I) aux Conventions de Genève, 1977 - Article 36
      https://ihl-databases.icrc.org/fr/ihl-treaties/api-1977/article-36

      Article 36 - Armes nouvelles
      Dans l’étude, la mise au point, l’acquisition ou l’adoption d’une nouvelle arme, de nouveaux moyens ou d’une nouvelle méthode de guerre, une Haute Partie contractante à l’obligation de déterminer si l’emploi en serait interdit, dans certaines circonstances ou en toutes circonstances, par les dispositions du présent Protocole ou par toute autre règle du droit international applicable à cette Haute Partie contractante.

      Protocole I — Wikipédia
      https://fr.wikipedia.org/wiki/Protocole_I

      Ratification
      En février 2020, ce protocole avait été ratifié par 174 États ; certains pays importants n’ayant pas ratifié le protocole sont les États-Unis, Israël, l’Iran, le Pakistan, l’Inde et la Turquie.

      surprise !