• Zeynep Tufekci : Get a red team to ensure AI is ethical | Verdict
    https://www.verdict.co.uk/zeynep-tufekci-ai-red-team

    In cybersecurity, red team professionals are tasked with finding vulnerabilities before they become a problem. In artificial intelligence, flaws such as bias often become apparent only once they are deployed.

    One way to catch these AI flaws early is for organisations to apply the red team concept when developing new systems, according to techno-sociologist and academic Zeynep Tufekci.

    “Get a read team, get people in the room, wherever you’re working, who think about what could go wrong,” she said, speaking at Hitachi Vantara’s Next conference in Las Vegas, US, last week. “Because thinking about what could go wrong before it does is the best way to make sure it doesn’t go wrong.”

    Referencing Hitachi CEO and president Toshiaki Higashihara description of digitalisation as having “lights and shadows”, Tufekci warned of the risks associated with letting the shadowy side go unchecked.
    AI shadows

    One of these “shadows” is when complex AI systems become black boxes, making it difficult even for the AI’s creators to explain how it made its decision.

    Tufekci also cited the example of YouTube’s recommendation algorithm pushing people towards extremism. For example, a teenager could innocently search ‘is there a male feminism’ and then be nudged towards misogynistic videos because such controversial videos have received more engagement.

    And while data can be used for good, it can also be used by authoritarian governments to repress its citizens, or by election consultancies to manipulate our votes.

    Then there are the many instances of human bias finding their way into algorithms. These include AI in recruitment reflecting the sexism of human employers or facial recognition not working for people with darker skin.

    “If the data can be used to fire you, or to figure out protesters or to use for social control, or not hire people prone to depression, people are going to be like: ‘we do not want this’,” said Tufekci, who is an associate professor at the UNC School of Information and Library Science.

    “What would be much better is to say, what are the guidelines?”
    Using a red team to enforce AI ethics guidelines

    Some guidelines already exist. In April 2018, the European Union’s High-Level Expert Group on AI presented seven key requirements for trustworthy AI.

    These requirements include human oversight, accountability and technical robustness and safety. But what Tufekci suggests is having a team of people dedicated to ensuring AI ethics are adhered to.
    3 Things That Will Change the World Today
    Get the Verdict morning email

    “You need people in the room, who are going to say there’s light and there are shadows in this technology, and how do we figure out to bring more light into the shadowy side, so that we’re not blindsided, so that we’re not just sort of shocked by the ethical challenges when they hit us,” she explained.

    “So we think about it ahead of time.”

    However, technology companies often push back against regulation, usually warning that too much will stifle innovation.

    “Very often when a technology is this new, and this powerful, and this promising, the people who keep talking about what could go wrong – which is what I do a lot – are seen as these spoilsport people,” said Tufekci.

    “And I’m kind of like no – it’s because we want it to be better.”

    #Intelligence_artificielle #Zeynep_Tufekci #Cybersécurité #Biais #Big_data

  • Nouveau récapitulatif automnal : six mois d’inscriptions murales | Yves Pagès
    http://www.archyves.net/html/Blog/?p=7825

    Sale coup pour la sempiternelle convergence des buts (sinon des luttes), on a vu la semaine dernière les gentils organisateurs d’Extinction/Rébellion s’ingénier à effacer à l’acétone tags et graffitis sur le Pont au Change occupé, près du Châtelet. Comme s’il leur fallait tout à la fois scénographier la désobéissance collective et en faire disparaître toute trace de contamination textuelle, hors la marque déposée de leur logo. Source : Pense-bête

  • Sur le plancher des vaches (IV/I)
    Symboles (et plus si affinités)

    Natalie

    https://lavoiedujaguar.net/Sur-le-plancher-des-vaches-IV-I-Symboles-et-plus-si-affinites

    Paris, le 7 octobre 2019
    Amis,

    « Le plancher des vaches » inaugural jouait avec quelques pseudo-vérités concernant ce que l’on a nommé la « technontologie ». La principale question posée était celle-ci : Notre genre d’humain n’aurait-il pas une certaine propension à recycler sans fin le divin Un ? Si tel était le cas, Dieu ne serait pas mort, mais où s’cache t’El crénom ?

    Le champ d’investigation proposé pour tenter de répondre à cette question est celui du monde du travail. « Le plancher des vaches II » a brossé à grand traits quelques dispositifs structurants mis en place à l’échelon mondial depuis les années 1980, dispositifs dont on a affirmé, dans « le plancher des vaches III », qu’ils dessinent un mouvement progressif de chosification du vivant.

    Ce mouvement n’est pas récent, mais on fait ici l’hypothèse qu’après la prise de corps opérée par la division scientifique du travail, puis le remplacement de bien des corps par des machines, l’époque actuelle est à la prise de tête. Nous avons réduit celle-ci au seul vocable de normalisation — nom proposé pour les tables de la loi —, soit un état de normalité, ce qui pourrait sembler à d’aucuns rassurant. Mais dans ce terme, au-delà de la norme, il y a un caractère de procédé, une proactivité et, sous-jacentes à celle-ci, des nécessités de vérifier ladite normalité. (...)

    #Dieu #normalisation #loi #Florence_Parly #intelligence_artificielle #symbole #cercle #Terre #religion #flèches #projet #développement_durable #trinité #génome #borroméen #plan #parousie #entreprise #objectif #stratégie #Hannah_Arendt

  • Think only authoritarian regimes spy on their citizens?

    Use of AI surveillance technology is becoming the global norm, even in liberal democracies.

    Almost half the world’s countries now deploy AI surveillance systems. So says a new report, The Global Expansion of AI Surveillance, from the #Carnegie_Endowment_for_International_Peace (https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847). Such technologies vary from “#smart_city” projects, which use real-time data on residents to aid delivery of public services and enhance policing, to facial recognition systems, to border security, to governments spying on political dissidents.

    The main driver is China. The tech company Huawei alone is responsible for providing AI surveillance technology to at least 50 countries. But it’s not just Beijing pushing such technology. Western companies, from IBM to Palantir, are deeply involved. In Saudi Arabia, for instance, Huawei is helping create smart cities, Google and Amazon are building cloud computing servers for government surveillance and the UK arms firm BAE is providing mass monitoring systems.

    While authoritarian countries are investing heavily in such technology, it is most widespread in democracies. “Liberal democratic governments,” the report observes, “are aggressively using AI tools to police borders, apprehend potential criminals, monitor citizens for bad behaviour and pull out suspected terrorists from crowds.” Projects range from Baltimore’s secret use of drones for daily surveillance of the city’s residents, to Marseille’s mass monitoring project, built largely by the Chinese firm ZTE and given the very Orwellian name of Big Data of Public Tranquility, to the array of advanced surveillance techniques being deployed on the US-Mexico border.

    The technologies raise major ethical issues and questions about civil liberties. Yet even before we’ve begun to ask such questions, the technology has become so ubiquitous as to render the debate almost redundant. That should be as worrying as the technology itself.

    https://www.theguardian.com/commentisfree/2019/sep/22/think-only-authoritarian-regimes-spy-on-their-citizens
    #surveillance #démocratie #intelligence_artificielle #big_data #index #Chine #Huawei #IBM #Palantir #Google #Amazon #BAE #drones #Baltimore #Marseille #ZTE #Big_data_of_public_tranquility

  • Un prix littéraire décerné par une intelligence artificielle : une idée aussi stupide qu’il y paraît ?
    https://medium.com/@story_nerd/un-prix-litt%C3%A9raire-d%C3%A9cern%C3%A9-par-une-intelligence-artificielle-

    Sur son site, QualiFiction affirme que LiSA est une intelligence artificielle capable de détecter les best-sellers (carrément). En 60 secondes chrono, l’algorithme analyse un texte long de plusieurs centaines de pages, est capable d’en extraire les données et de proposer une analyse autour de quatre pivots :

    analyse du sujet : le texte est-il un thriller ou une histoire d’amour ? Quelles en sont les informations pertinentes ?
    analyse des sentiments : s’agit-il d’une bluette légère ou d’un roman d’horreur à vous donner des cauchemars ? Le texte se termine-t-il en happy end ou en catastrophe ? Quelle en est la tonalité générale ?
    style : quel est le degré de complexité du texte ? Le style est-il accessible au commun des lecteurs ou d’une complexité littéraire plus élevée ?
    prédiction : LiSA définit le public-cible du texte, évalue ses chances d’atteindre le maximum de lecteurs possible ou s’il s’adresse davantage à une niche.

    Ainsi que l’explique QualiFiction, LiSA a été entraîné en ingérant le contenu de milliers de livres et en y corrélant l’historique de leur succès (ou de leur insuccès). En appliquant la même recette à des manuscrits inédits, l’entreprise espère pouvoir prédire le sort d’un roman à paraître. Actuellement, elle revendique un taux de succès de 78% — ce qui est déjà énorme — et affirme que l’algorithme s’améliorera encore dans un futur proche, à mesure que ses analyses s’affineront et que l’IA engrangera plus de données.

    Pas convaincu par la suite du post... Ce que fait l’IA, c’est repérer des patterns réguliers et les comparer avec les patterns du marché. Ce qui ne peut fonctionner que pour les livres de forte demande, sur des secteurs où les patterns repérables et les régularités sociales sont statistiquement évaluables. Et cela va repérer la « vendabilité » d’un livre et en aucun cas sa valeur intrinsèque.

    Pour mémoire, Minuit n’a vendu que 150 exemplaires de « En attendant Godot » la première année...

    #Intelligence_artificielle #Littérature #Edition

  • Google reiterates exit from Project Maven — kind of - TechSpot
    https://www.techspot.com/news/79003-google-reiterates-exit-project-maven-kind.html

    Google’s controversial contract connected to Project Maven will expire in March 2019, and while Google has pledged to not renew it, an unnamed technology company will take up the work started by Google. Furthermore, Google will support the unnamed contractor with “basic” cloud services, rather than Google’s Cloud AI services. Google also appears to try and straddle the line between maintaining their early mantra of “don’t be evil” and pursuing lucrative defense contracts, like Microsoft and Amazon.

    Last year, when news broke that Google had been awarded a military contract to develop AI for Project Maven, it stirred up no shortage of controversy — some of which is still coming to light. This led to many employees questioning the ethical and moral implications of such work, spurring many to resign, and many more to protest. In the end, Google conceded to the demands of its employees and has grappled with something of an identity crisis since.

    Recently, in an email obtained by The Intercept, Google appeared to reiterate its commitment not to renew its contract with the Pentagon. The email was penned by Kent Walker, Google’s senior vice president for global affairs. “Last June, we announced we would not be renewing our image-recognition contract with the US Department of Defense connected with Project Maven,” Walker wrote.

    However, Walker added a caveat of sorts, in that an unnamed contractor will take up the work Google started and use “off-the-shelf Google Cloud Platform (basic compute service, rather than Cloud AI or other Cloud Services) to support some workloads.”

    It’s presently unclear what compensation Google will obtain, or what specific Project Maven workloads will be processed by Google’s Cloud services. The Intercept reached out for comment, but received no further clarification. Walker’s email also mentioned that the company was working closely with the Department of Defense to "make the transition in a way that is consistent with our AI Principles and contractual commitments.”

    Google’s Project Maven contract is set to expire next month, and while Google will not renew it, the company also won’t rule out future military work, as Walker notes in his email.

    We continue to explore work across the public sector, including the military, in a wide range of areas, such as cybersecurity, search and rescue, training and health care, in ways consistent with our AI Principles.

    #Google #USA #armement #intelligence_artificielle #project_maven

  • The world’s top deepfake artist is wrestling with the monster he created - MIT Technology Review
    https://www.technologyreview.com/s/614083/the-worlds-top-deepfake-artist-is-wrestling-with-the-monster-he-cr

    Misinformation has long been a popular tool of geopolitical sabotage, but social media has injected rocket fuel into the spread of fake news. When fake video footage is as easy to make as fake news articles, it is a virtual guarantee that it will be weaponized. Want to sway an election, ruin the career and reputation of an enemy, or spark ethnic violence? It’s hard to imagine a more effective vehicle than a clip that looks authentic, spreading like wildfire through Facebook, WhatsApp, or Twitter, faster than people can figure out they’ve been duped.

    As a pioneer of digital fakery, Li worries that deepfakes are only the beginning. Despite having helped usher in an era when our eyes cannot always be trusted, he wants to use his skills to do something about the looming problem of ubiquitous, near-perfect video deception.

    Li isn’t your typical deepfaker. He doesn’t lurk on Reddit posting fake porn or reshoots of famous movies modified to star Nicolas Cage. He’s spent his career developing cutting-edge techniques to forge faces more easily and convincingly. He has also messed with some of the most famous faces in the world for modern blockbusters, fooling millions of people into believing in a smile or a wink that was never actually there. Talking over Skype from his office in Los Angeles one afternoon, he casually mentions that Will Smith stopped in recently, for a movie he’s working on.

    Actors often come to Li’s lab at the University of Southern California (USC) to have their likeness digitally scanned. They are put inside a spherical array of lights and machine vision cameras to capture the shape of their face, facial expressions, and skin tone and texture down to the level of individual pores. A special-effects team working on a movie can then manipulate scenes that have already been shot, or even add an actor to a new one in post-production.

    Shortly after joining USC, Li created facial tracking technology used to make a digital version of the late actor Paul Walker for the action movie Furious 7. It was a big achievement, since Walker, who died in a car accident halfway through shooting, had not been scanned beforehand, and his character needed to appear in so many scenes. Li’s technology was used to paste Walker’s face onto the bodies of his two brothers, who took turns acting in his place in more than 200 scenes.

    The movie, which grossed $1.5 billion at the box office, was the first to depend so heavily on a digitally re-created star. Li mentions Walker’s virtual role when talking about how good video trickery is becoming. “Even I can’t tell which ones are fake,” he says with a shake of his head.

    La vague des repentis s’élargit... Mais c’est intéressant cette façon de voir : tant que ce sont quelques personnes bien intentionnées, les technologies sont magiques, mais quand cela devient accessible à tout le monde, les problèmes arrivent. On a vu ce discours se répéter depuis que l’internet s’est ouvert au public.

    Underneath the digital silliness, though, is an important trend: AI is rapidly making advanced image manipulation the province of the smartphone rather than the desktop. FaceApp, developed by a company in Saint Petersburg, Russia, has drawn millions of users, and recent controversy, by offering a one-click way to change a face on your phone. You can add a smile to a photo, remove blemishes, or mess with your age or gender (or someone else’s). Dozens more apps offer similar manipulations at the click of a button.

    Not everyone is excited about the prospect of this technology becoming ubiquitous. Li and others are “basically trying to make one-image, mobile, and real-time deepfakes,” says Sam Gregory, director of Witness, a nonprofit focused on video and human rights. “That’s the threat level that worries me, when it [becomes] something that’s less easily controlled and more accessible to a range of actors.”

    Fortunately, most deepfakes still look a bit off. A flickering face, a wonky eye, or an odd skin tone make them easy enough to spot. But just as an expert can remove such flaws, advances in AI promise to smooth them out automatically, making the fake videos both simpler to create and harder to detect.

    Even as Li races ahead with digital fakery, he is also troubled by the potential for harm. “We’re sitting in front of a problem,” he says.

    (Medifor : programme de la DARPA our reconnaître les deepfakes)

    Earlier this year, Matt Turek, DARPA program manager for MediFor, asked Li to demonstrate his fakes to the MediFor researchers. This led to a collaboration with Hany Farid, a professor at UC Berkeley and one of the world’s foremost authorities on digital forensics. The pair are now engaged in a digital game of cat-and-mouse, with Li developing deepfakes for Farid to catch, and then refining them to evade detection.

    Farid, Li, and others recently released a paper outlining a new, more powerful way to spot deepfakes. It hinges on training a machine-learning algorithm to recognize the quirks of a specific individual’s facial expressions and head movements. If you simply paste someone’s likeness onto another face, those features won’t be carried over. It would require a lot of computer power and training data—i.e., images or video of the person—to make a deepfake that incorporates these characteristics. But one day it will be possible. “Technical solutions will continue to improve on the defensive side,” says Turek. “But will that be perfect? I doubt it.”

    #Fake_news #deepfakes #Intelligence_artificielle #Art #Cinéma

    • Et c’est bien pour ça que pour les techniques complexes, ce n’est jamais « non mais ça dépend comment on utilise l’outil », car une fois que que la technique est généralisée, elle induit en elle-mêmes des problèmes plus importants (et très souvent immensément plus importants) que ses quelques avantages (quand il y en a…). Les technoptimistes se repentissent toujours trop tard…

  • These companies claim to provide “fair-trade” data work. Do they? - MIT Technology Review
    https://www.technologyreview.com/s/614070/cloudfactory-ddd-samasource-imerit-impact-sourcing-companies-for-d

    A lot of human labor goes into building artificial-intelligence systems. Much of it is in cleaning, categorizing, and labeling data before AIs ingest it to look for patterns. The AI Now Institute, an ethics body, refers to this work as the “hidden labor” of the AI pipeline, “providing the invisible human work that often backstops claims of AI ‘magic’ once these systems are deployed in products and services.”

    By contrast, most people doing data annotation don’t work in Manhattan offices but from their homes in places such as India, Kenya, Malaysia, and the Philippines. They log in to online platforms for anywhere from a few minutes to several hours a day, perhaps distinguishing between bunches of green onions and stalks of celery or between cat-eye and aviator-style sunglasses. As detailed in the recent book Ghost Work by Mary Gray and Siddharth Suri, most of them are gig workers with low pay, insecure employment, and no opportunity for career advancement.

    A small group of data annotation firms aims to rewrite that narrative. But these firms aiming to “do well by doing good” in AI data services are finding the path to enterprise enlightenment can be a rocky one.

    “It is really a race to the bottom,” says Daniel Kaelin, director of customer success at Alegion, a data annotation services company in Austin, Texas. “This whole industry is very, very competitive; everybody tries to find that little cheaper labor force somewhere else in the world.”
    What does “impact” really mean?

    Alegion is one of several platforms, including CloudFactory, Digital Divide Data (DDD), iMerit, and Samasource, that say they want to make AI data work dignified. They call themselves “impact” companies and claim to offer ethically sourced data labor, with better working conditions and career prospects than most firms in the industry. It’s like fair-trade coffee beans, but for enormous data sets.

    However, there are no regulations and only weak industry standards for what ethical sourcing means. And the companies’ own definitions of it vary widely.

    Troy Stringfield, who took over as Alegion’s global impact director in 2018, defends the “impact” label—which the seven-year-old company has adopted only in the past year or so—by saying impact means creating work that improves people’s lives. “It’s going in and saying, ‘What is a livable wage? What is getting them better than where they’re at?’” he says.

    But Sara Enright, project director at the Global Impact Sourcing Coalition (GISC), a member-funded industry body, says it’s doubtful that such work should be called impact sourcing: “If it is solely gig work in which an individual is accessing part-time wages through an hour a day here and there, that is not impact employment, because it does not actually lead to career development and ultimately poverty alleviation.”

    Getting into the US market

    In their bid to expand, companies like Alegion and iMerit are also trying to build a pool of data workers in the US, drawing on underprivileged and marginalized populations there. That gives them lucrative access to government, financial, and health care clients that demand stringent security measures, work with regulated medical and financial data, or need the work done in the US for other legal reasons.

    To recruit those US workers, the impact firms can go through companies like Daivergent, which serves as a conduit to organizations such as the Autism Society and Autism Speaks. (That’s where Campbell, whom we met earlier drawing boxes around cars, works.) Alegion also did a trial using workers provided through IAM23, a support group for military veterans.

    Unlike with fair-trade goods, there is little public pressure on the companies to be honest, because they provide their services to businesses, not directly to consumers. “Consumers can value ethical sourcing—for example, at Patagonia and various consumer brands—and you kind of buy into that as a consumer,” says iMerit’s Natarajan. But “it remains to be seen what ethical sourcing means in the b-to-b sector.” As a 2014 issue of Pulse, an outsourcing industry magazine, noted, companies would have to make a choice to use impact-conscious labor providers. Without laws or public pressure it’s not clear what can impel them to make such a choice, and without standards and accountability, it’s not clear how they should evaluate the providers.

    In the end it may be only regulation that changes labor practices. “There is no way to change employment from the inside of markets. Yes, they’re doing everything they can, and that’s like saying I’ve got a bicycle with no pedals, and I’m doing everything I can to ride it as quickly as this thing is built to go,” says Gray, the Ghost Work coauthor. “There is no organizing of the rights of workers and fair employment without involving civil society, and we haven’t done that yet.

    #Digital_labor #Travail #Intelligence_artificielle #Ethique

    • Je trouve admirable que, pendant que le discours des prometteurs et promotrices de l’intelligence artificielle et de l’informatisation à outrance insiste si souvent que cette informatisation, digitalisation, vont permettre de libérer le genre humain des tâches les plus répétitives et les moins satisfaisantes, en fait, en grattant un peu, on découvre que c’est le contraire, ce sont des humains qui nettoient fastidieusement les données pour que l’ordinateur fasse le boulot marrant de déduire de ces données propres des éléments statistiques intéressants.

  • Amazon Helps ICE Deport Migrants Using AI Technology: Report | News | teleSUR English
    https://www.telesurenglish.net/news/united-states-amazon-ice-migrants-deportation-family-separation-dhs-

    Published 17 July 2019

    Amazon is helping ICE carry out raids by pitching its Rekognition facial identification technology for "deportations without due process.”

    Amazon is enabling the Immigrations and Customs Enforcement (ICE) to detain and deport migrants from the United States according to a report by Al-Jazeera published Wednesday.

    According to the activist group Mijente which demands the multinational company “stop powering ICE,” the Department of Homeland Security (DHS) has contracts with Amazon.

    The DHS uses the Palantir software that helps them track would-be-deportees. Amazon Web Services host the database and Palantir provides computer program to organize the data.

    Palantir, a data analytics firm can be described as a mix between Google and the CIA. It provides algorithms for government agencies for counterterrorism or immigration enforcement and receives taxpayers money.

    Activists have pointed out that the firm sells “mission-critical” tools used by ICE to plan raids. The contract between the two is worth US$51 million.

    “Amazon and Palantir have secured a role as the backbone for the federal government’s immigration and law enforcement dragnet, allowing them to pursue multibillion-dollar government contracts in various agencies at every single level of law enforcement,” says a petition on Mijente’s website.

    This week, while ICE agents were rounding up immigrants, Mijente delivered 270,000 petitions to the New York residence of Amazon CEO Jeff Bezos demanding he cut ties with the immigration authorities.

    The immigration authorities launched small-scale operations seeking to arrest undocumented immigrants over the weekend in an apparent start to President Donald Trump’s vow to launch mass deportation round-ups across the country.

    The operation, which Trump revealed on Twitter last month, was expected to target hundreds of recently-arrived families in about 10 cities whose deportation had been ordered by an immigration judge.

    The removal operations are meant to deter a surge in Central American families fleeing poverty and gang violence in their home countries, with many seeking asylum in the United States.

    On Monday, Trump said the raids were “very successful” even though immigration activists and lawyers said that only a few arrests took place. Nonetheless, the crackdown is not over. ICE informed that more arrests will be made later this week.

    Jennifer Lee of the American Civil Liberties Union said during a rally in front the company’s headquarters in Seattle that Amazon is helping the authorities carry out the raids by pitching its Rekognition facial identification technology which could result in "deportations without due process.”

    Last week, activists interrupted the Amazon Web Services Summit in New York by playing recordings of migrant families being split up while the Amazon Chief Technology Officer Werner Vogels was giving a keynote speech. Activists have also called for boycotting Amazon’s products like Prime Video, Whole Foods, Kindle, etc.

    “Companies and government organizations need to use existing and new technology responsibly and lawfully. There is clearly a need for more clarity from governments on what is acceptable use of AI and ramifications for its misuse, and we’ve provided a proposed legislative framework for this,” said an Amazon spokesperson in a statement responding to the accusations.

    “We remain eager for the government to provide this additional clarity and legislation,” continued the statement, "and will continue to offer our ideas and specific suggestions.”

    #migration #réfugiés #cloud #surveillance #intelligence_artificielle

  • Déçue par sa navette autonome, La Défense arrête l’expérience Jean-Bernard Litzler - 15 Juillet 2019 - Le figaro
    https://immobilier.lefigaro.fr/article/decue-par-sa-navette-autonome-la-defense-arrete-l-experience_21e

    Au terme de deux ans d’expérimentation, l’essai n’a pas été transformé. La navette autonome qui circulait dans le quartier d’affaires de la région parisienne a transporté moins de 12.000 voyageurs ces 12 derniers mois et son « bilan global n’est pas satisfaisant ».

    Après avoir chassé de sa dalle, une partie des trottinettes électriques qui pullulait dans le quartier, La Défense s’apprête à se séparer de sa navette électrique autonome qui circulait depuis deux ans à travers le quartier d’affaires de la région parisienne. L’expérience avait pourtant suscité un sacré enthousiasme à son apparition en juillet 2017 et le public avait bien accueilli ce minibus à la bouille sympathique pouvant transporter jusqu’à 15 personnes (11 assises et 4 debout). Tout en rappelant que « pendant les six premiers mois la navette a rencontré un grand succès auprès des usagers, avec plus de 30.000 voyageurs, dont 97% de satisfaits et 88% ayant l’intention de réutiliser la navette », Paris La Défense, l’établissement qui gère le quartier estime que le test n’est finalement pas concluant. D’ailleurs, après six mois d’arrêt suite à un incident technique, l’attrait s’était bien émoussé au point de ne plus séduire que 11865 voyageurs sur la deuxième année d’exploitation.

    Comment en est-on arrivé là ? « Dans l’ensemble, l’exploitation du service a été complexe en raison de difficultés liées à la #connexion (effet de « canyon urbain » à la Défense du fait de la hauteur des tours) », souligne Paris La Défense dans un communiqué tout en expliquant que les changements réguliers de l’environnement urbain au gré de divers événements (marché de Noël, travaux, installations de foodtruck...) ont été difficiles à gérer. Tout comme l’importance et la variété des flux de circulation sur l’esplanade (piétons, cyclistes, trottinettes, véhicules d’entretien).

    Résultat : la navette testée en partenariat avec Ile-de-France Mobilités, #keolis et le constructeur #navya semble avoir montré ses limites actuelles selon Paris-La Défense. Il lui est notamment reproché de ne pas avoir pu augmenter sa vitesse de circulation, ce qui aurait eu pour but de « rendre le service attractif ». Par ailleurs, l’objectif de passage en mode « full autonome », c’est-à-dire sans opérateur à bord n’a pas abouti. Verdict sans appel : « Paris La Défense ne souhaite pas reconduire l’expérimentation ». Si cette navette produite en région lyonnaise n’a pas séduit la capitale, elle met actuellement en avant ses atouts à Lyon même mais également à Tokyo. Et qui sait, une fois les défauts de jeunesse gommés, peut-être la retrouvera-t-on sur les routes de la capitale ?

    #voiture #transport #automobile #mobilité #transports #surveillance #voiture_autonome #voiture_autopilotée #voitures_autonomes #autopilote #robotisation #algorithme #intelligence_artificielle #echec de l’#innovation à 2 balles, sans compter l’absence de toute information sur la #pollution engendrée par ces véhicules.

  • Ces #microtravailleurs de l’ombre | CNRS Le journal
    https://lejournal.cnrs.fr/articles/ces-microtravailleurs-de-lombre

    Quel est le portrait-robot du microtravailleur ?
    A. C. : Notre enquête révèle une #géographie_sociale marquée par la #précarité, dont certains aspects sont assez alarmants. Le microtravailleur est d’abord une microtravailleuse, souvent chargée de #famille et possédant un #emploi principal à côté. 56 % des microtravailleurs en France sont en effet des #femmes ; 63 % des microtravailleurs ont entre 25 et 44 ans, et 64 % ont un emploi principal. Ils travaillent dans les secteurs de la santé, de l’éducation, ou encore dans les services publics… et utilisent le microtravail comme #revenu de complément.

    L’investissement des femmes dans le microtravail, assez important dans certains cas, montre un glissement de celles-ci vers la « triple journée » : l’activité sur les plateformes de microtravail vient s’ajouter à un emploi à temps plein et aux tâches ménagères et familiales. À noter que 22 % des microtravailleurs sont au-dessous du seuil de pauvreté, ce qui confirme un réel problème de précarité économique dans notre pays. Enfin, et c’est assez surprenant pour des tâches dont on dit qu’elles ne demandent aucune qualification, les microtravailleurs sont plus diplômés que la moyenne de la population. Ainsi, 43 % ont un diplôme supérieur à Bac+2. Leur motivation principale pour le microtravail est avant tout l’argent, mais aussi la flexibilité qu’il autorise : on peut se connecter à n’importe quelle heure et y passer le temps que l’on souhaite puisque l’on est généralement payé à la pièce.

    #travail #informatique #intelligence_artificielle #droit_du_travail

    https://diplab.eu

  • L’intelligence artificielle de Persado trouve les mots pour vous faire acheter
    https://www.ladn.eu/tech-a-suivre/ia-machine-learning-iot/intelligence-artificielle-publicite-impactante

    Comment ça marche ?

    Au départ, il y a un message. Celui écrit par l’équipe marketing, « qui aurait été diffusé sans l’apport de Persado ». L’intelligence artificielle le digère, ainsi que la charte communication de la marque et son objectif business - qui consiste « souvent à augmenter les ventes, explique Hani Ramzi. L’intelligence artificielle teste ensuite différentes combinaisons et élit le meilleur message, celui qui sera le plus engageant, le message champion ». Pour sélectionner ce « message champion », l’IA s’appuie sur une base de connaissances de mots et d’images triés selon les émotions qu’ils suscitent, mais aussi sur l’historique de précédentes campagnes.
    Petites différences, gros résultats

    La différence entre le message initial et le message élaboré par Persado n’est pas toujours criante. « Parfois ça se joue à peu de choses, mais les gains en matière de performance sont énormes », précise Hani Ramzi. Dans une campagne réalisée pour Vodafone, le message d’une bannière publicitaire de base était « Ne ratez pas la dernière chance pour profiter de cette offre ». Il a été transformé par l’IA en « Récompensez-vous avec cette offre spéciale ». « Le premier message génère de l’anxiété, alors que le second est dans la gratification », explique Hani Ramzi. Le bouton « activer » de cette même publicité a lui été remplacé par un bouton « cliquer pour activer », « pour ajouter une impression de simplicité », poursuit-il.

    Et ça marche. De petits changements comme celui-ci sont concoctés par l’IA de Persado dans chacune des campagnes de Vodafone depuis 2012. Ils ont permis d’augmenter le taux de conversion de la marque de 40 % et de faire progresser son chiffre d’affaires de 11 %, avancent les dirigeants.

    #Publicité #Intelligence_artificielle #Industrie_influence

  • Voiture autonome : quelle est l’intelligence de votre voiture, et quelles sont les fonctions (in) utiles ? Jean-Claude Verset - 26 Juin 2019 - RTBF
    Extrait de l’article : Vraiment efficaces les gadgets autonomes de nos voitures ?
    https://www.rtbf.be/info/societe/detail_voiture-autonome-quelle-est-l-intelligence-de-votre-voiture-et-quelles-s

    Aux Pays -Bas, un rapport de l’Alliance ADAS (pour la promotion de la sécurité des systèmes d’aide à la conduite) a tenté d’étudier la précision des mesures prises pour rendre les véhicules plus autonomes. Un rapport qui révèle le long chemin qu’il faudra encore parcourir avant de disposer des voitures réellement autonomes.

    Contrôle longitudinal : vitesse et freinage intelligents
    Le rapport de l’Alliance ADA approche la sécurité autonome sous trois angles. Le premier est le « contrôle longitudinal » qui porte, principalement sur la vitesse du véhicule. On apprend que la précision du système d’avertissement de risque d’un accident frontal est « raisonnable » (entre bon et mauvais) mais n’a guère d’effet sur la sécurité routière. Il en va de même pour le freinage d’urgence autonome dont la précision est jugée tout aussi « raisonnable » et aurait, cette fois, un effet faiblement positif sur la sécurité. Il faut combiner le freinage automatique d’urgence et l’alarme d’accident frontal pour obtenir un effet positif sur la sécurité routière. Selon les termes de l’enquête néerlandaise, le mot « précision » désigne la capacité du système de lancer une alarme ou d’enclencher une action lorsque c’est nécessaire et de ne pas en lancer lorsque c’est inutile (les faux positifs).
    La précision de la détection des piétons et des cyclistes est, elle, jugée insuffisante et son impact sur la sécurité routière inconnue.

    Le contrôle de vitesse adaptatif qui consiste à adapter automatiquement la vitesse du véhicule aux variations du trafic est jugé raisonnable au niveau de la précision, mais les résultats sur la sécurité routière sont jugés contradictoires.

    Quant à l’adaptation intelligente de la vitesse, elle est estimée d’une bonne précision, et d’un impact réel sur la sécurité routière par sa capacité à prendre le relais de l’automobiliste.

    Le contrôle latéral : mode de conduite et changement de voie
    Le deuxième angle du rapport s’intéresse au « contrôle latéral », la capacité du véhicule autonome à garder le bon cap. Ce contrôle latéral appartient encore largement au futur.
    L’avertissement de dépassement de ligne existe déjà sur de nombreux modèles. Le rapport juge sa précision raisonnable (ni mauvaise ni bonne), mais sans grands effets sur la sécurité , car cette aide ne fonctionne pas dans toutes les circonstances, analyse le rapport. Même verdict pour l’alerte en cas de dépassement dans l’angle mort. L’avenir serait au « lane keeping system » qui permettra à l’ordinateur de bord de maintenir le véhicule sur sa bande. Ce qui n’est pratiquement pas encore disponible à ce jour.

    La surveillance de l’état du conducteur
    Le troisième angle de contrôle vise le conducteur. On peut déjà compter sur la caméra de recul et même sur un détecteur d’alcoolémie qui empêche une personne sous influence de prendre le volant. Cette fois, la précision est bonne et l’effet sur la sécurité du trafic important… Mais cela ne concerne pas les voitures autonomes.
    Les détecteurs de fatigue embarqués semblent encore perfectibles. Selon le rapport, les systèmes actuels de détection ne sont pas encore efficaces . Soit, ils ne détectent pas toutes les périodes de somnolence, soit en croyant endormi un conducteur parfaitement éveillé. Parmi les fonctions qui pourraient un jour être embarquées figure encore la détection de la distraction qui détermine si le conducteur ne quitte pas trop souvent la route des yeux. Un système qui ne serait pas non plus totalement au point.

    #voiture #transport #automobile #mobilité #transports #surveillance #voiture_autonome #voiture_autopilotée #voitures_autonomes #autopilote #robotisation #innovation #algorithme  #intelligence_artificielle #critique #industrie #recherche

    Tiens, aucune recherche sur la #pollution des #voitures , leur consommation !

  • Training a single AI model can emit as much carbon as five cars in their lifetimes - MIT Technology Review
    https://www.technologyreview.com/s/613630/training-a-single-ai-model-can-emit-as-much-carbon-as-five-cars-in

    In a new paper, researchers at the University of Massachusetts, Amherst, performed a life cycle assessment for training several common large AI models. They found that the process can emit more than 626,000 pounds of carbon dioxide equivalent—nearly five times the lifetime emissions of the average American car (and that includes manufacture of the car itself).

    It’s a jarring quantification of something AI researchers have suspected for a long time. “While probably many of us have thought of this in an abstract, vague level, the figures really show the magnitude of the problem,” says Carlos Gómez-Rodríguez, a computer scientist at the University of A Coruña in Spain, who was not involved in the research. “Neither I nor other researchers I’ve discussed them with thought the environmental impact was that substantial.”

    They found that the computational and environmental costs of training grew proportionally to model size and then exploded when additional tuning steps were used to increase the model’s final accuracy. In particular, they found that a tuning process known as neural architecture search, which tries to optimize a model by incrementally tweaking a neural network’s design through exhaustive trial and error, had extraordinarily high associated costs for little performance benefit. Without it, the most costly model, BERT, had a carbon footprint of roughly 1,400 pounds of carbon dioxide equivalent, close to a round-trip trans-American flight.

    What’s more, the researchers note that the figures should only be considered as baselines. “Training a single model is the minimum amount of work you can do,” says Emma Strubell, a PhD candidate at the University of Massachusetts, Amherst, and the lead author of the paper. In practice, it’s much more likely that AI researchers would develop a new model from scratch or adapt an existing model to a new data set, either of which can require many more rounds of training and tuning.

    The significance of those figures is colossal—especially when considering the current trends in AI research. “In general, much of the latest research in AI neglects efficiency, as very large neural networks have been found to be useful for a variety of tasks, and companies and institutions that have abundant access to computational resources can leverage this to obtain a competitive advantage,” Gómez-Rodríguez says. “This kind of analysis needed to be done to raise awareness about the resources being spent [...] and will spark a debate.”

    “What probably many of us did not comprehend is the scale of it until we saw these comparisons,” echoed Siva Reddy, a postdoc at Stanford University who was not involved in the research.
    The privatization of AI research

    The results underscore another growing problem in AI, too: the sheer intensity of resources now required to produce paper-worthy results has made it increasingly challenging for people working in academia to continue contributing to research.

    #Intelligence_artificielle #Consommation_énergie #Empreinte_carbone

  • Duplex, l’assistant intelligent de Google, cache encore des humains bien réels Kesso Diallo - 23 Mai 2019 - Le figaro
    http://www.lefigaro.fr/secteur/high-tech/duplex-l-assistant-intelligent-de-google-cache-encore-des-humains-bien-reel

    Une intelligence artificielle peut cacher des humains. L’année dernière, Google a présenté son assistant intelligent Duplex lors de sa conférence pour les développeurs. Capable de prendre les rendez-vous à la place de son utilisateur, il avait impressionné, et un peu inquiété, les observateurs avec sa voix « si humaine ». Mais si celle-ci ressemble autant à celle d’un humain, c’est parce qu’il s’agit parfois d’une véritable personne. Un article du New York Times révèle en effet que des employés travaillant dans des centres d’appels peuvent effectuer ces réservations. Google a déclaré au journal américain qu’environ 25% des appels de Duplex sont passés par des humains. De plus, environ 15% de ceux lancés par l’assistant intelligent sont pris en charge par une vraie personne à un moment donné.

    L’entreprise a expliqué qu’il était parfois nécessaire qu’un humain soit impliqué dans la conversation, notamment lorsqu’elle n’est pas certaine que le restaurant prenne les réservations ou que l’utilisateur du service n’est pas un spammeur (personne qui passe des appels indésirables en grande quantité).
    . . . . .

    #duplex #réseaux_neuronaux #Google #robotique #Assistant #domotique #intelligence_artificielle #algorithme #robotisation #robots #innovation en nougat #MDR

  • Google’s Translatotron can translate speech in the speaker’s voice
    https://www.engadget.com/2019/05/15/google-translatotron-direct-speech-translation/?guccounter=1
    https://o.aolcdn.com/images/dims?thumbnail=1200%2C630&quality=80&image_uri=https%3A%2F%2Fo.aolcdn.com%

    Speaking another language may be getting easier. Google is showing off Translatotron, a first-of-its-kind translation model that can directly convert speech from one language into another while maintaining a speaker’s voice and cadence. The tool forgoes the usual step of translating speech to text and back to speech, which can often lead to errors along the way. Instead, the end-to-end technique directly translates a speaker’s voice into another language. The company is hoping the development will open up future developments using the direct translation model.

    According to Google, Translatotron uses a sequence-to-sequence network model that takes a voice input, processes it as a spectrogram — a visual representation of frequencies — and generates a new spectrogram in a target language. The result is a much faster translation with less likelihood of something getting lost along the way. The tool also works with an optional speaker encoder component, which works to maintain a speaker’s voice. The translated speech is still synthesized and sounds a bit robotic, but can effectively maintain some elements of a speaker’s voice. You can listen to samples of Translatotron’s attempts to maintain a speaker’s voice as it completes translations on Google Research’s GitHub page. Some are certainly better than others, but it’s a start.

    Model architecture of Translatotron

    Google has been fine-tuning its translations in recent months. Last year, the company introduced accents in Google Translate that can speak a variety of languages in region-based pronunciations and added more langauges to its real-time translation feature. Earlier this year, Google Assistant got an “interpreter mode” for smart displays and speakers that can between 26 languages.

    #Intelligence_artificielle #Traduction_automatique #Google

  • Swarms of Drones, Piloted by Artificial Intelligence, May Soon Patrol Europe’s Borders
    https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder

    Imagine you’re hiking through the woods near a border. Suddenly, you hear a mechanical buzzing, like a gigantic bee. Two quadcopters have spotted you and swoop in for a closer look. Antennae on both drones and on a nearby autonomous ground vehicle pick up the radio frequencies coming from the cell phone in your pocket. They send the signals to a central server, which triangulates your exact location and feeds it back to the drones. The robots close in. Cameras and other sensors on the (...)

    #algorithme #robotique #militarisation #aérien #migration #surveillance #frontières #Roborder (...)

    ##drone

  • Étrange, et réfléchissant, #film et #documentaire du journaliste de guerre Florent Marcie : Sota en Gilet Jaune. Un portrait de notre société dirigée d’une main de guerre vers l’ère de l’Intelligence Artificielle. Il filme les #GiletsJaunes depuis le début du mouvement (il a d’ailleurs récolté un bout de LBD dans la joue). Entretien avec les Mutins de Pangée : https://pe.ertu.be/videos/watch/8d8102c8-bcce-4efe-a72a-d632674f8269

    #Florent_Marcie, fresquiste au long cours. Aller au devant de l’Histoire. Rencontrer l’autre dans ce qu’il a de plus vrai. Ainsi pourrait-on peut-être résumer la motivation de Florent Marcie, de filmer là où il filme. Des situations de guerre, de libération, de dénuement aussi. Des situations où lui-même s’affranchit de contraintes, notamment de celle du temps. Il tourne, monte et finance lui-même ses films, dans une économie de moyens et une précarité qui le rapprochent sans conteste des hommes et des femmes qu’ils côtoient. En résulte des films longs formats, à la lisière entre cinéma et reportage, présentés en décalage de la stricte actualité. Une forme de troisième voie qu’il revendique. Avant ça, il a filmé une toute autre insurrection, d’une intensité un peu plus forte en terme de moyens utilisés... TOMORROW TRIPOLI, ci-dessous, le lien vers le site dédié au film qui sortira très bientôt aux éditions Mutins de Pangée : http://lesmutins.org/tomorrow-tripoli

    #intelligence_artificielle #société_du_contrôle

  • #intelligence_artificielle : des limites de l’éthique aux promesses de la régulation
    http://www.internetactu.net/2019/04/18/intelligence-artificielle-des-limites-de-lethique-aux-promesses-de-la-

    L’Union européenne vient de publier un ensemble de recommandations et de règles (voir le rapport) pour développer des applications d’intelligence artificielle éthiques et responsables. Ce travail réalisé par un groupe d’une cinquantaine d’experts se révèle assez convenu, rappelant de grands principes éthiques pour orienter le secteur. Comme ironise The Verge, (...)

    #Articles #Enjeux #Gouvernance #algorithme #éthique #IA

  • Lorsque les IAs jouent à être des animaux
    http://www.internetactu.net/a-lire-ailleurs/lorsque-les-ias-jouent-a-etre-des-animaux

    Avant de spéculer sur les superintelligences dépassant la cognition humaine, peut-être faut-il tout d’abord permettre à nos machines d’atteindre le niveau de compréhension d’un animal ? Parce qu’aujourd’hui, on en est encore loin ! C’est le but de la nouvelle compétition Animal-AI Olympics que d’évaluer le comportement de programmes en fonction de (...)

    #A_lire_ailleurs #Recherches #IA #intelligence_artificielle

  • Une technologie française de reconnaissance faciale échoue à reconnaître le moindre visage parmi 900 000 véhicules qui passent chaque jour à New York Thomas Giraudet - 10 Avr 2019 - business insider
    https://www.businessinsider.fr/une-technologie-francaise-de-reconnaissance-faciale-echoue-a-reconna

    Ce devait être un test fiable pour identifier les contrevenants à New York grâce à la reconnaissance faciale. Mais un an après, c’est un échec français. La technologie de l’entreprise Idemia, née du rapprochement de Morpho, filiale de Safran, avec Oberthur Technologies, n’a pas été en mesure de reconnaître le moindre visage parmi les 900 000 véhicules qui passent chaque jour le pont Robert F. Kennedy, qui relie Manhattan au Queen’s et au Bronx, révèle le Wall Street Journal. https://www.wsj.com/articles/mtas-initial-foray-into-facial-recognition-at-high-speed-is-a-bust-11554642000


    Embouteillages à New York. Flickr/Clemens v. Vogelsang

    Le quotidien de la finance cite un mail de l’entreprise chargée des transports publics new yorkais — Metropolitan Transportation Authority (MTA) — qui indique « qu’aucun visage n’a été identifié dans des paramètres acceptables ». Interrogé par le Wall Street Journal, un porte-parole de la MTA précise que l’expérimentation annoncée à l’été 2018 se poursuivra malgré tout. Idemia, qui aurait vendu le logiciel 25 000 dollars, n’a pas répondu aux questions du journal. A ce stade, aucune explication claire sur les raisons de cette faille n’a été formulée.

    Etats et entreprises commencent à s’emparer de la reconnaissance faciale, même si cela soulève de nombreuses oppositions sur la protection de la vie privée. Si Apple propose cette technologie pour déverrouiller son iPhone ou Aéroports de Paris pour éviter les files d’attente, le Japon compte l’utiliser pour contrôler les 300 000 athlètes pendant les Jeux Olympiques de 2020 tandis que la Chine a déjà largement étendu son application. Plusieurs régions scannent ainsi l’intégralité de la population du pays en une seconde pour traquer et arrêter des personnes.

    Sur son site internet, Idemia avance que sa solution d’identification faciale « permet aux enquêteurs, analystes et détectives dûment formés de résoudre des crimes grâce à la recherche automatique des visages et au suivi de photos ou de vidéos ». Pour ce faire, elle compare différentes photos et vidéos à une base de données, même à partir de plusieurs vues partielles.

    Née de la fusion de Morpho, filiale de Safran, avec Oberthur Technologies, Idemia officie sur les marchés de l’identification, de l’authentification et de la sécurité des données. Mais surtout des cartes de paiement : avec Gemalto, elles se partagent la grande majorité du marché mondial des encarteurs. Idemia réalise environ 3 milliards d’euros de chiffre d’affaires.

    #IA #râteau #idemia #intelligence_artificielle #algorithme #surveillance #complexe_militaro-industriel #big-data #surveillance_de_masse #biométrie #business #biométrie #vie_privée #MDR

  • De quelques perturbations en mode « jaune » concernant la conférence sur l’#intelligence_artificielle lors de la venue de #Cédric_Villani, le pape du #big_data auprès de la « république-en-marche ». Quand un « boss » des maths met son « intelligence agency » au service des #gestionnaires_du_cheptel_humain.
    De l’expertise à la « vulgarisation », le raccourci était aisé à prendre pour satisfaire une ambition inavouable à exercer le pouvoir lequel n’ayant plus pour seule issue qu’une fuite en avant éperdue pour toujours garder le bénéfice d’un mauvais coup d’avance.

    Albi : une conférence de Cédric Villani sur l’intelligence artificielle perturbée par des gilets jaunes
    https://lundi.am/Albi-une-conference-de-Cedric-Villani-sur-l-intelligence-artificielle-perturbe

    Jeudi 4 avril, les milieux d’affaires tarnais avaient convié dans l’amphithéâtre d’honneur de l’Ecole des Mines d’Albi l’excellent Cédric Villani, député En Marche et mathématicien, pour disserter sur l’économie numérique et la société du big data.
    Il a été interrompu par un cloud d’opposant.es à la Start-up Nation qui se sont introduit.es sur le podium afin d’y exposer un avis quelque peu contradictoire sous la forme d’une lettre.
    La lettre en question :

    Autres articles en rapport :

    https://lundi.am/IA-5G-Linky-innover-pour-aggraver-la-crise-sociale-et-e%CC%81cologique

    L’intelligence artificielle en marche pour foncer dans le mur

    L’IA sert à automatiser et surveiller, mais ce n’est pas tout : tous les dispositifs ayant recours à l’IA aggraveront aussi le désastre écologique. Car ils supposent une augmentation infinie de la production de matériel informatique : ordinateurs, antennes 5G, data center, etc. Tout cela implique une croissance abyssale de la consommation d’énergie et de métaux, donc de la production minière, base de l’économie numérique comme de toute industrie. De ce point de vue, venir parler d’IA dans une Ecole des Mines est on ne peut plus significatif. Car l’industrie minière est la plus polluante du monde, tant par ses émissions de CO2 que par les catastrophes irréversibles qu’elle entraine régulièrement (pensons aux barrages de déchets qui cèdent). Loin d’être « immatérielle », l’économie numérique est aussi très polluante car les appareils qu’elle produit et que nous jetons de plus en plus vite sont impossibles à recycler tant ils sont miniaturisés. Bref, elle est un facteur de plus dans la fuite en avant vers le désastre écologique, qui s’accélère de jour en jour.

    Ce n’est pas faute d’avoir été prévenus. Depuis plus de cinquante ans, des millions de gens tirent la sonnette d’alarme. Ils rappellent un principe simple : une croissance illimitée est impossible sur une planète aux ressources limitées. Ce principe qu’un enfant peut saisir, Macron, Villani et les entrepreneurs d’Ecoter ne l’ont pas compris. Ou plutôt, ils s’assoient dessus, emprisonnés dans leurs raisonnements économiques à court terme et aveuglés par les colonnes de chiffres auxquelles la réalité se résume selon eux. A moins qu’ils n’espèrent avoir assez de fric pour se mettre à l’abri des pires effets de la catastrophe – ce qui est malin, à défaut d’être intelligent.

    Avec des classes dirigeantes aussi méchamment stupides et myopes, on pourrait se réjouir du développement de l’IA, en imaginant qu’elle pourrait pallier leur déficit mental. Mais ce serait se mettre le doigt dans l’œil. Car l’intelligence artificielle, ce n’est qu’une aveugle capacité de calcul. Comme le rappelle le créateur du programme de dialogue automatique ELIZA, dont on équipe actuellement des robots pour tenir compagnie aux personnes âgées esseulées (autre « progrès social » que promet l’IA), son programme ne comprend rien, il ne fait que calculer les chances que telle réponse programmée corresponde plus que telle autre à telles informations perçues (ce qu’exprime la personne). Or, l’intelligence dont nous avons besoin est celle qui permet de voir la réalité en face et les limites qui la caractérisent, et de savoir s’arrêter avant qu’il ne soit trop tard.

    http://hors-sol.herbesfolles.org/wp-content/uploads/Au-nord-de-l%C3%A9conomie.pdf

    Nous vous écrivons du nord de la France. Symbole de la désindustrialisation, celui-ci ressemble à d’autres nords, des États-Unis ou d’Angleterre, qui résument et révèlent le point de rupture où se trouve l’économie mondiale. Cette terre de désespoir, de chômage, d’alcoolisme et de votes Front national provoque deux réflexes de survie : la ré-industrialisation et/ou la « Troisième révolution industrielle ». Qu’importe le chemin, tant qu’on entrevoit un espoir. Passant des corons au co-working, nous nous sommes donnés pour objet d’attaquer dans un même élan le vieux monde industriel et le nouveau monde technologique.

    https://fr.wikipedia.org/wiki/C%C3%A9dric_Villani#cite_note-37

    Le 8 septembre 2017, il est chargé par le Premier ministre Édouard Philippe d’une mission parlementaire sur l’intelligence artificielle d’une durée de six mois. Le 29 mars 2018, il participe à la conférence « AI for Humanity », lors de laquelle il présente son rapport sur l’intelligence artificielle dévoilé la veille : Donner un sens à l’intelligence artificielleN 1,35,34. Il y préconise de centrer les efforts en intelligence artificielle sur quatre domaines : la santé, la mobilité, l’environnement et la défense

    Le rapport en question (si ça vous tente) : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf

    Comme bien d’autres adolescents férus de sciences dans les années 80, j’ai fait la connaissance de l’intelligence artificielle dans les superbes ouvrages de vulgarisation de Douglas Hofstadter, qui mettait en scène Alan Turing avec une passion contagieuse. Mais comme bien des mathématiciens débutant la carrière dans les années 90, j’ai profondément sous-estimé l’impact de l’intelligence artificielle, qui ne donnait finalement, à cette époque, que peu de résultats. Quelle surprise ce fut d’assister, dans les années 2010, à l’incroyable amélioration de ses performances... Devenu moi-même vulgarisateur, je me suis mis à développer le sujet régulièrement, dans mes conférences publiques comme dans mes échanges avec le monde de l’entreprise. Et ce fut une surprise non moins grande de voir mes ouvrages de recherche sur le transport optimal cités dans des articles récents sur l’intelligence artificielle : comme un signe qu’il m’était impossible d’échapper à ce sujet polymorphe ! Du reste, depuis quelques années plus personne ne peut y échapper, tant il est devenu omniprésent dans les discussions économiques et sociales. Aussi ai-je été à peine surpris quand le Premier ministre me confia une mission d’information sur la stratégie française et européenne en intelligence artificielle. Le défi était grand, mais mon enthousiasme considérable. (tu m’étonnes ...)

    #low_tech #luddisme (yellow-friendly)

  • Google employees are lining up to trash Google’s AI ethics council - MIT Technology Review
    https://www.technologyreview.com/s/613253/googles-ai-council-faces-blowback-over-a-conservative-member

    un élément intéressant et à prendre en compte : les deux personnes visées sont également les deux seules femmes de ce comité d’experts. Choisies stratégiquement par Google pour faire jouer l’avantage genre, ou cibles plus évidentes des protestataires parce que femmes ?

    En tout cas, la place que la Heritage Foundation (droite dure et néo-management) prend dans l’espace mental des Etats-Unis, notamment dans le domaine technologique, est à suivre de près.

    Almost a thousand Google staff, academic researchers, and other tech industry figures have signed a letter protesting the makeup of an independent council that Google created to guide the ethics of its AI projects.
    Recommended for You

    Hackers trick a Tesla into veering into the wrong lane
    A new type of airplane wing that adapts midflight could change air travel
    DeepMind has made a prototype product that can diagnose eye diseases
    Watching Boston Dynamics’ new robot stack boxes is weirdly mesmerizing
    NASA has been testing the helicopter that will head to Mars next year

    The search giant announced the creation of the council last week at EmTech Digital, MIT Technology Review’s event in San Francisco. Known as the Advanced Technology External Advisory Council (ATEAC), it has eight members including economists, philosophers, policymakers, and technologists with expertise in issues like algorithmic bias. It is meant to hold four meetings a year, starting this month, and write reports designed to provide feedback on projects at the company that use artificial intelligence.

    But two of those members proved controversial. One, Dyan Gibbens, is CEO of Trumbull, a company that develops autonomous systems for the defense industry—a contentious choice given that thousands of Google employees protested the company’s decision to supply the US Air Force with AI for drone imaging. The greatest outrage, though, has come over the inclusion of Kay Coles James, president of the Heritage Foundation, a think tank that opposes regulating carbon emissions, takes a hard line on immigration, and has argued against the protection of LGBTQ rights.

    One member of the council, Alessandro Acquisti, a professor at Carnegie Mellon University who specializes in digital privacy issues, announced on March 30th that he wouldn’t be taking up the role. “While I’m devoted to research grappling with key ethical issues of fairness, rights & inclusion in AI, I don’t believe this is the right forum for me to engage in this important work," he tweeted.

    The creation of ATEAC—and the inclusion of Gibbens and James—may in fact have been designed to appease Google’s right-wing critics. At roughly the same time the council was announced, Sundar Pichai, Google’s CEO, was meeting with President Donald Trump. Trump later tweeted: “He stated strongly that he is totally committed to the U.S. Military, not the Chinese Military. [We] also discussed political fairness and various things that Google can do for our Country. Meeting ended very well!”

    But one Google employee involved with drafting the protest letter, who spoke on condition of anonymity, said that James is more than just a conservative voice on the council. “She is a reactionary who denies trans people exist, who endorses radically anti-immigrant positions, and endorses anti-climate-change, anti-science positions.”

    Some noted AI algorithms can reinforce biases already seen in society; some have been shown to misidentify transgender people, for example. In that context, “the fact that [James] was included is pretty shocking,” the employee said. “These technologies are shaping our social institutions, our lives, and access to resources. When AI fails, it doesn’t fail for rich white men working at tech companies. It fails for exactly the populations that the Heritage Foundation’s policies are already aiming to harm.”

    Messages posted to a Google internal communications platform criticized the appointment of James especially. According to one post, earlier reported by the Verge and confirmed by the employee, James “doesn’t deserve a Google-legitimized platform, and certainly doesn’t belong in any conversation about how Google tech should be applied to the world.”

    As of 5:30 pm US Eastern time today the public letter, posted to Medium, had been signed by 855 Google employees and 143 other people, including a number of prominent academics. “Not only are James’ views counter to Google’s stated values,” the letter states, “but they are directly counter to the project of ensuring that the development and application of AI prioritizes justice over profit. Such a project should instead place representatives from vulnerable communities at the center of decision-making.”

    #Google #Intelligence_artificielle #Ethique #Politique_USA