• Des medias, à droite sans vergogne | Le Club de Mediapart
    https://blogs.mediapart.fr/yves-faucoup/blog/181219/des-medias-droite-sans-vergogne

    Sur France Inter hier matin [17 décembre], Agnès Buzyn dit que le rapport Delevoye de juillet a été loué par toutes les forces syndicales : faux.

    Elle dit que la réforme est favorable aux femmes et aux carrières hachées : faux. Elle dit que les femmes actuellement n’ont pas de bonus pour le premier et le deuxième enfant : vrai pour ce qui est du montant de la pension, faux pour ce qui est de la durée de cotisation puisque les femmes gagnaient jusqu’à présent deux années par enfant, ce qui pouvait leur éviter la décote pour trimestres insuffisants. Et le bonus pourra être utilisé par l’homme du fait de salaire plus élevé.

    Elle dit que la réforme apporte des droits nouveaux : 1000 € minimum (85% du Smic). En réalité : sous réserve d’une carrière complète. Mesure déjà existante à 81% du Smic et dont le passage à 85% était prévu par une loi de... 2003.

    En réponse à une question, elle nie que cette réforme puisse réjouir les assureurs et donne pour exemple le fait que la réforme assure une retraite à toute personne qui perçoit un salaire allant jusqu’à 10.000 € par mois. Seuls ceux qui gagnent plus de 10.000 € pourraient faire appel à une assurance par capitalisation. Elle fait mine de ne pas comprendre que la réforme dans son ensemble, dans la mesure où elle attribuera des pensions réduites par rapport au système actuel (ne serait-ce que par le fait que toutes les années seront pris en compte y compris les mauvaises contrairement au calcul actuel), les assurés devront faire appel à des assurances complémentaires. [Sur ce point, je note qu’un aspect de la réforme n’est presque jamais évoqué : les retraites complémentaires (Agirc-Arrco) disparaissent.]

    Elle a semblé admettre que l’âge pivot (à 64 ans), qui a mis la CFDT en colère pourrait être abandonné puisque de toutes façons l’âge moyen de départ est déjà 63,5 ans, très bientôt 64 (pour avoir 42 ans de cotisation ceux qui ont commencé à travailler à 22 ans doivent travailler jusqu’à 64, et beaucoup d’autres à 65, 66, 67 ans). Ce qui pourrait signifier que le pouvoir fait de la provocation avec son âge pivot, que par ailleurs il pourra abandonner sans que cela change grand-chose tout en satisfaisant Laurent Berger.

    Je ne déroule pas ce qu’elle a dit sur l’hôpital : seulement le fait que, comme tout ministre macroniste, il a fallu qu’elle nous prouve son attachement à l’hôpital par le fait qu’elle y a travaillé, et que toute sa famille y travaille (le mari, les enfants). Un peu comme Darmanin qui recycle régulièrement sa mère, sa grand-mère, son grand-père, Sibeth Ndiaye son beau-père.

    Quand la politique n’est pas sûre d’elle, elle fonctionne à l’affect.

  • Making deepfake tools doesn’t have to be irresponsible. Here’s how. - MIT Technology Review
    https://www.technologyreview.com/s/614912/ethical-deepfake-tools-a-manifesto

    Synthetic media technologies—popularly known as deepfakes—have real potential for positive impact. Voice synthesis, for example, will allow us to speak in hundreds of languages in our own voice. Video synthesis may help us simulate self-driving-car accidents to avoid mistakes in the future. And text synthesis can accelerate our ability to write both programs and prose. 

    But these advances can come at a gargantuan cost if we aren’t careful: the same underlying technologies can also enable deception with global ramifications. 

    Thankfully, we can both enable the technology’s promise and mitigate its peril. It will just take some hard work.

    Approach 2: Discouraging malicious use
    For synthetic media tools that are general and may be made widely available, there are still many possible ways to reduce malicious use. Here are some examples.

    – Clear disclosure: Request that synthesized media be clearly indicated as such—particularly material that might be used to mislead. Tools may be able to support this by including clear visual or audible notices in output files, such as visible warnings or spoken disclosures. At minimum, metadata should indicate how media was synthesized or manipulated.
    – Consent protection: Require the consent of those being impersonated. The voice cloning tool Lyrebird requires users to speak particular phrases in order to model their voice. This makes it more difficult to impersonate someone without consent, which would be very possible if it simply generated voices using any provided data set. This, of course, is applicable only for tools that enable impersonation.
    – Detection friendliness: Ensure that the synthesized media is not inordinately difficult to detect; keep detector tools up to date; collaborate with those working on detection to keep them in the loop on new developments.
    – Hidden watermarks: Embed context about synthesis—or even the original media—through robust watermarks, both using methods that are accessible to anyone with the proper tools, and through approaches that are secret and difficult to remove. (For example, Modulate.ai watermarks audio that it generates, while products like Imatag and their open-source equivalents enable watermarking for imagery.)
    – Usage logs: Store information about usage and media outputs in a way that researchers and journalists can access to identify if, for example, a video was probably synthesized using a particular tool. This could include storing timestamps of synthesis with a robust hash or media embedding.
    – Use restrictions: Provide and enforce contractual terms of use that prohibit and penalize unwanted actions, such as attempting to remove disclosures or watermarks, or violating the consent of other people. A stronger version of this approach involves explicitly elaborating allowed uses of the technology or resulting outputs.

    Not all these strategies are applicable to every system. Some may have their risks, and none are perfect—or sufficient on their own. They are all part of a “defense in depth,” where more is more.

    #Deep_fakes #Deepfakes #Fake_news #Ethique

  • Internet Companies Prepare to Fight the ‘Deepfake’ Future - The New York Times
    https://www.nytimes.com/2019/11/24/technology/tech-companies-deepfakes.html

    Deepfakes — a term that generally describes videos doctored with cutting-edge artificial intelligence — have already challenged our assumptions about what is real and what is not.

    In recent months, video evidence was at the center of prominent incidents in Brazil, Gabon in Central Africa and China. Each was colored by the same question: Is the video real? The Gabonese president, for example, was out of the country for medical care and his government released a so-called proof-of-life video. Opponents claimed it had been faked. Experts call that confusion “the liar’s dividend.”

    Though activists and artists occasionally release deepfakes as a way of showing how these videos could shift the political discourse online, these techniques are not widely used to spread disinformation. They are mostly used to spread humor or fake pornography, according to Facebook, Google and others who track the progress of deepfakes.

    Right now, deepfake videos have subtle imperfections that can be readily detected by automated systems, if not by the naked eye. But some researchers argue that the improved technology will be powerful enough to create fake images without these tiny defects. Companies like Google and Facebook hope they will have reliable detectors in place before that happens.

    “In the short term, detection will be reasonably effective,” said Mr. Kambhampati, the Arizona State professor. “In the longer term, I think it will be impossible to distinguish between the real pictures and the fake pictures.”

    #Fake_news #Deepfakes #Plateformes

  • Et si on parlait de la cybercriminalité boursière ?
    https://www.latribune.fr/opinions/tribunes/et-si-on-parlait-de-la-cybercriminalite-boursiere-832338.html

    ANALYSE. L’autorité des marchés financiers (AMF) a fait part d’une intéressante étude prospective sur la manière dont elle perçoit l’évolution en mode cyber des trois principales infractions boursières qu’elle poursuit : le délit d’initié, la manipulation de cours et la diffusion de fausse information. Par Jean-Jacques Quisquater, Université de Louvain, et Charles Cuvelliez, Université de Bruxelles.

    Délit d’initié
    On pourrait dire, à lire cette étude, que le délit d’initié est de moins en moins réservé aux initiés : lors d’un fusion-acquisition, explique par exemple l’AMF, toute une chaîne d’acteurs se met en place pour la réaliser. Chaque acteur, banque-conseil, cabinet d’avocats ou cabinet comptable, consultants, le régulateur, les diffuseurs d’informations financières, les agences de relations publiques et même des bureaux de traductions sont autant de portes d’entrée supplémentaire, pendant l’opération, pour un hacker qui peut se procurer des informations privilégiées sur la fusion/acquisition. Plusieurs cas concrets sont cités par l’étude où chaque fois un acteur différent a pu être pénétré avec succès. Le phishing reste la manière la plus simple et la plus efficace de pénétrer le maillon faible car il y en a souvent un dans cette longue chaîne.
    […]
    Manipulations de cours
    Les manipulations de cours ont, elles, lieu par la prise de contrôle de comptes de traders de particuliers, même en petit nombre, pour donner des tendances au marché via un comportement coordonné de ces comptes piratés, comprend-t-on, sur des actions peu liquides ou des penny stocks dont les cours peuvent varier rapidement avec quelques dizaines d’acheteurs. C’est la technique du pump & dump. En Asie, les autorités ont même peur des activités de trading qui vont se faire de plus en plus sur des interfaces non dédiées comme les messageries instantanées ou les réseaux sociaux. L’AMF met en avant le problème de la sécurisation, plus vaste qu’imaginé, des applications de comptes de trading des acteurs non bancaires. Ce sont surtout les applications de trading mobile qui sont peu sécurisées (certaines données envoyées au serveur ne sont même pas chiffrées a repéré une étude).

    Enfin, il y a aussi le risque futur de manipulation des cours via un piratage des algorithmes de trading qui occupent déjà 50 % à 80 % des échanges quotidiens sur certaines classes d’actifs. Il y a aussi le risque de manipulations d’algorithmes d’intelligence artificielle via des données volontairement erronées et orientées au profit de certains.

    Fausses informations
    La diffusion de fausses informations est sans doute l’attaque le plus facile à mettre en œuvre : elle nécessite peu de moyens et est facilement anonyme (utilisation d’un wifi public, du réseau TOR...) et ce d’autant plus que l’enregistrement de noms de domaine et l’hébergement de sites inernet qui servent à diffuser l’information ne brillent pas, rappelle l’AMF, par leurs précautions quant à celui qui les ouvre (sans compter la durée de conservation de ces informations qui est faible). Quand il y a une enquête, elle aboutit le plus souvent en regardant plutôt les transactions boursières que laissent les criminels qui ont diffusé les fausses informations et qui veulent en tirer bénéfice (quid alors quand ce sont des activistes qui ont lancé les rumeurs, sans appât du gain). Les enquêtes sont internationales par nature, ce qui les complique puisque, selon le pays, les pouvoirs d’investigation des autorités ou des régulateurs sont différents. Seuls les coupe-circuit des Bourses permettent de limiter les mouvements trop importants en capitalisation boursière qui en résultent.

    Pour l’AMF, la chaîne de diffusion des informations financières doit être sérieusement revue et contrôlée (au sens, comprend-t-on, de l’assurance-qualité) : il y a tellement d’intervenants qu’on n’en arrive à ne plus savoir qui est habilité à diffuser une information correcte et quand. Il faudrait clarifier le canal officiel de diffusion de l’information financière et renforcer la sensibilisation des agences de presse pour éviter le piratage en amont (réception d’un faux communiqué de presse considéré à tort comme vrai) ou en aval (diffusion d’un faux communiqué injecté dans les systèmes d’information même de l’agence de presse). De ce point de vue, Twitter tient le pompon. L’AMF relève à juste titre combien les gens sur des réseaux comme Twitter ont tendance à plus vite relayer du faux sensationnaliste que du vrai. Il y a, en plus, dit l’AMF, des algorithmes spécifiques qui collectent le contenu circulant sur les médias sociaux pour pouvoir réagir très vite en cas d’information cruciale. Ces algorithmes de lecture automatisée sont sensibles aux fausses informations plus que les humains, le filtrage par ces derniers reste essentiel.

    L’AMF remarque enfin qu’il existe, au-delà de la diffusion de fausses informations directement liées à une société pour en influencer le cours de Bourse, quantité d’autres voies pour arriver à ces mêmes fins. Et de citer tous les indicateurs qui influencent la Bourse comme les indices de matières premières, la confiance des ménages MCSI (calculé par l’université de Michigan puis transmis à Thomson Reuters), les conditions météorologiques... Enfin, les deepfakes représentent le défi le plus aigu : comment distinguer un deepfake du président de la FED qui fait une annonce sur les taux.

    #fake_news boursières #deepfake

    (la graisse vient de moi)

  • Deepfake : Zao, la nouvelle appli chinoise virale inquiète les utilisateurs
    https://www.ladn.eu/tech-a-suivre/ia-machine-learning-iot/deepfake-zao-nouvelle-appli-chinoise-virale-inquiete-utilisateurs

    Ce n’est pas la première fois qu’une application transformant le visage des utilisateurs suscite l’inquiétude. À l’été 2019, l’application russe FaceApp téléchargée des millions de fois en quelques jours, avait également créé la polémique. Cette appli qui permet de se voir vieilli de 40 ans en quelques secondes avait été critiquée pour sa politique de confidentialité. En l’utilisant, vous acceptez de céder la propriété de votre photo d’origine ainsi que sa version modifiée à l’entreprise russe Wireless Lab OOO, qui gère l’application. Ce qui signifie que la société peut notamment exploiter votre photo à des fins commerciales. Mi-juillet, la Cnil avait publié sur son site une mise en garde et des conseils à l’attention des utilisateurs de ce type d’appli.

    Zao est une nouvelle illustration de l’ère du « World Wide Face ». Un concept proposé par Olivier Ertzscheid sur son blog Affordance. Pour le chercheur enseignant en sciences de l’information et de la communication, le visage est devenu une monnaie d’échange et un outil de surveillance de masse.

    #Deep_fake #Traitement_image

  • The world’s top deepfake artist is wrestling with the monster he created - MIT Technology Review
    https://www.technologyreview.com/s/614083/the-worlds-top-deepfake-artist-is-wrestling-with-the-monster-he-cr

    Misinformation has long been a popular tool of geopolitical sabotage, but social media has injected rocket fuel into the spread of fake news. When fake video footage is as easy to make as fake news articles, it is a virtual guarantee that it will be weaponized. Want to sway an election, ruin the career and reputation of an enemy, or spark ethnic violence? It’s hard to imagine a more effective vehicle than a clip that looks authentic, spreading like wildfire through Facebook, WhatsApp, or Twitter, faster than people can figure out they’ve been duped.

    As a pioneer of digital fakery, Li worries that deepfakes are only the beginning. Despite having helped usher in an era when our eyes cannot always be trusted, he wants to use his skills to do something about the looming problem of ubiquitous, near-perfect video deception.

    Li isn’t your typical deepfaker. He doesn’t lurk on Reddit posting fake porn or reshoots of famous movies modified to star Nicolas Cage. He’s spent his career developing cutting-edge techniques to forge faces more easily and convincingly. He has also messed with some of the most famous faces in the world for modern blockbusters, fooling millions of people into believing in a smile or a wink that was never actually there. Talking over Skype from his office in Los Angeles one afternoon, he casually mentions that Will Smith stopped in recently, for a movie he’s working on.

    Actors often come to Li’s lab at the University of Southern California (USC) to have their likeness digitally scanned. They are put inside a spherical array of lights and machine vision cameras to capture the shape of their face, facial expressions, and skin tone and texture down to the level of individual pores. A special-effects team working on a movie can then manipulate scenes that have already been shot, or even add an actor to a new one in post-production.

    Shortly after joining USC, Li created facial tracking technology used to make a digital version of the late actor Paul Walker for the action movie Furious 7. It was a big achievement, since Walker, who died in a car accident halfway through shooting, had not been scanned beforehand, and his character needed to appear in so many scenes. Li’s technology was used to paste Walker’s face onto the bodies of his two brothers, who took turns acting in his place in more than 200 scenes.

    The movie, which grossed $1.5 billion at the box office, was the first to depend so heavily on a digitally re-created star. Li mentions Walker’s virtual role when talking about how good video trickery is becoming. “Even I can’t tell which ones are fake,” he says with a shake of his head.

    La vague des repentis s’élargit... Mais c’est intéressant cette façon de voir : tant que ce sont quelques personnes bien intentionnées, les technologies sont magiques, mais quand cela devient accessible à tout le monde, les problèmes arrivent. On a vu ce discours se répéter depuis que l’internet s’est ouvert au public.

    Underneath the digital silliness, though, is an important trend: AI is rapidly making advanced image manipulation the province of the smartphone rather than the desktop. FaceApp, developed by a company in Saint Petersburg, Russia, has drawn millions of users, and recent controversy, by offering a one-click way to change a face on your phone. You can add a smile to a photo, remove blemishes, or mess with your age or gender (or someone else’s). Dozens more apps offer similar manipulations at the click of a button.

    Not everyone is excited about the prospect of this technology becoming ubiquitous. Li and others are “basically trying to make one-image, mobile, and real-time deepfakes,” says Sam Gregory, director of Witness, a nonprofit focused on video and human rights. “That’s the threat level that worries me, when it [becomes] something that’s less easily controlled and more accessible to a range of actors.”

    Fortunately, most deepfakes still look a bit off. A flickering face, a wonky eye, or an odd skin tone make them easy enough to spot. But just as an expert can remove such flaws, advances in AI promise to smooth them out automatically, making the fake videos both simpler to create and harder to detect.

    Even as Li races ahead with digital fakery, he is also troubled by the potential for harm. “We’re sitting in front of a problem,” he says.

    (Medifor : programme de la DARPA our reconnaître les deepfakes)

    Earlier this year, Matt Turek, DARPA program manager for MediFor, asked Li to demonstrate his fakes to the MediFor researchers. This led to a collaboration with Hany Farid, a professor at UC Berkeley and one of the world’s foremost authorities on digital forensics. The pair are now engaged in a digital game of cat-and-mouse, with Li developing deepfakes for Farid to catch, and then refining them to evade detection.

    Farid, Li, and others recently released a paper outlining a new, more powerful way to spot deepfakes. It hinges on training a machine-learning algorithm to recognize the quirks of a specific individual’s facial expressions and head movements. If you simply paste someone’s likeness onto another face, those features won’t be carried over. It would require a lot of computer power and training data—i.e., images or video of the person—to make a deepfake that incorporates these characteristics. But one day it will be possible. “Technical solutions will continue to improve on the defensive side,” says Turek. “But will that be perfect? I doubt it.”

    #Fake_news #deepfakes #Intelligence_artificielle #Art #Cinéma

  • Le « #deep_fake » : vers la fin de la vérité dans l’#image #numérique ?
    https://www.franceinter.fr/emissions/la-fenetre-de-la-porte/la-fenetre-de-la-porte-21-mai-2019

    Depuis quelques mois, on parle de plus en plus de ce qu’on appelle les "deep fakes". "Fake", c’est le "faux", le "trucage" et "deep" pour "#deep_learning", une de modalités de l’intelligence artificielle.

    De quoi s’agit-il ?

    Grâce aux progrès de l’intelligence artificielle - et plus particulièrement des réseaux de neurones - des programmes sont aujourd’hui capables d’utiliser des images existantes pour générer d’autres images. Ça signifie que vous pouvez animer un visage, lui donner des expressions, l’insérer dans une autre image.

    [...]

    [...] si [..] vous trafiquez à la fois le visage et la voix -, ça devient plus problématique : vous arrivez à produire une vidéo à peu près crédible dans laquelle Barack Obama tient des propos qu’il n’a jamais tenus.

    [...]

    A partir du moment où les #algorithmes ont à leur disposition suffisamment d’images et de discours existants, des #logiciels des plus faciles à manier et de plus en plus efficaces permettent de faire dire n’importe quoi à n’importe qui. C’est assez abyssal. 

    Jusqu’ici, la #vidéo faisait malgré tout office de preuve. Avec des outils comme ceux-là, ça risque de ne plus être le cas. On risque de voir apparaître plein de fausses déclarations, qui paraîtront très crédibles. C’est un problème.

    Mais, autre conséquence possible, quelqu’un qui aura été filmé en train de dire ou faire quelque chose de répréhensible ou de gênant pourra toujours, en l’absence d’autre source, crier au “deepfake”. 

    Peut-être qu’on s’inquiète pour rien ?

    Peut-être que les "deep fakes" resteront à jamais un gadget à usage plus ou moins de bon goût mais sans grande conséquence. C’est tout à fait possible. Le monde des technologies nous a habitués à se tromper d’inquiétude. Mais si elles se développent et sont utilisées à grande échelle pour créer de fausses déclarations d’hommes politiques, par exemple, on entrerait dans ce qu’un expert a désigné comme un monde de la “fake news sous stéroïde”. Parce que, aux dires des chercheurs, il n’est pas facile de déterminer techniquement si une image a été trafiquée par ce type de programmes (il faut créer des logiciels qui puissent détecter des défauts dans les mouvements des cils par exemple). Ce serait une guerre de programme informatique contre programme informatique, un fact checking technique. 

    Mais il pourrait y avoir une autre conséquence, d’ordre quasi philosophique : toute image circulant dans les réseaux deviendrait par essence suspecte, l’image numérique basculerait dans le monde du faux, de la fabrication, on n’y croirait plus du tout. 

    Elle tomberait dans un autre registre, celui de la #fiction, on regarderait les images qui circulent sur Internet comme on regarde des films de fiction. Le "deep fake" aurait tué l’idée même qu’il y ait une #vérité dans l’image numérique. On y chercherait autre chose. Ce serait étrange, ça inaugurerait une nouvelle ère du journalisme. Mais pas sûr que ce soit pire qu’aujourd’hui.

    #ia

  • The “Drunk Pelosi” video shows that cheapfakes can be as damaging as deepfakes.
    https://slate.com/technology/2019/06/drunk-pelosi-deepfakes-cheapfakes-artificial-intelligence-disinformation.html

    The A.I.-generated “deepfake” video implicitly but unmistakably calls for Facebook to make a public statement on its content moderation polices. The platform has long been criticized for permitting the spread of disinformation and harassment, but it became particularly acute recently, when the company said that it would not remove the “Drunk Pelosi” video.

    On Thursday, the House Permanent Select Committee on Intelligence will hold an open hearing on A.I. and the potential threat of deepfake technology to Americans. Many technology researchers believe that deepfakes—realistic-looking content developed using machine learning algorithms—will herald a new era of information warfare. But as the “Drunk Pelosi” video shows, slight edits of original videos may be even more difficult to detect and debunk, creating a cascade of benefits for those willing to use these digital dirty tricks.

    The video, posted to a self-described news Facebook page with a fan base of about 35,000, depicted Nancy Pelosi slurring her words and sounding intoxicated. However, when compared with another video from the same event, it was clear even to nonexperts that it had been slowed down to produce the “drunken” effect. Call it a “cheapfake”—it was modified only very slightly. While the altered video garnered some significant views on Facebook, it was only after it was amplified by President Donald Trump and other prominent Republicans on Twitter that it became a newsworthy issue. The heightened drama surrounding this video raises interesting questions not only about platform accountability but also about how to spot disinformation in the wild.

    “Cheapfakes” rely on free software that allows manipulation through easy conventional editing techniques like speeding, slowing, and cutting, as well as nontechnical manipulations like restaging or recontextualizing existing footage that are already causing problems. Cheapfakes already call into question the methods of evidence that scientists, courts, and newsrooms traditionally use to call for accountability

    Many will never know the video was a fake, but the advantages it gave to pundits will echo into the future. It’s a recent example of what legal theorists Bobby Chesney and Danielle Citron call the liar’s dividend . Those wishing to deny the truth can create disinformation to support their lie, while those caught behaving badly can write off the evidence of bad behavior as disinformation. In a new survey from Pew Research Center, 63 percent of respondents said that they believe altered video and images are a significant source of confusion when it comes to interpreting news quality. That loss of trust works in favor of those willing to lie, defame, and harass to gain attention.

    As Daniel Kreiss and others have pointed out, people don’t just share content because they believe it. They do it for a host of reasons, not the least of which is simply because a message speaks to what users see as an implicit truth of the world even as they know it is not factually true. Researchers have found that creating and sharing hateful, false, or faked content is often rewarded on platforms like Facebook.

    The looming threat of the deepfake is worth attention—from politicians, like at the upcoming hearing; from journalists; from researchers; and especially from the public that will ultimately be the audience for these things. But make no mistake: Disinformation doesn’t have to be high tech to cause serious damage.

    #Fake_news #Deep_fake #Cheap_fake #Nancy_Pelosi #Médias_sociaux

  • Deepfakes have got Congress panicking. This is what it needs to do. - MIT Technology Review
    https://www.technologyreview.com/s/613676/deepfakes-ai-congress-politics-election-facebook-social

    In response, the House of Representatives will hold its first dedicated hearing tomorrow on deepfakes, the class of synthetic media generated by AI. In parallel, Representative Yvette Clarke will introduce a bill on the same subject. A new research report released by a nonprofit this week also highlights a strategy for coping when deepfakes and other doctored media proliferate.

    The deepfake bill
    The draft bill, a product of several months of discussion with computer scientists, disinformation experts, and human rights advocates, will include three provisions. The first would require companies and researchers who create tools that can be used to make deepfakes to automatically add watermarks to forged creations.

    The second would require social-media companies to build better manipulation detection directly into their platforms. Finally, the third provision would create sanctions, like fines or even jail time, to punish offenders for creating malicious deepfakes that harm individuals or threaten national security. In particular, it would attempt to introduce a new mechanism for legal recourse if people’s reputations are damaged by synthetic media.

    “This issue doesn’t just affect politicians,” says Mutale Nkonde, a fellow at the Data & Society Research Institute and an advisor on the bill. “Deepfake videos are much more likely to be deployed against women, minorities, people from the LGBT community, poor people. And those people aren’t going to have the resources to fight back against reputational risks.”

    But the technology has advanced at a rapid pace, and the amount of data required to fake a video has dropped dramatically. Two weeks ago, Samsung demonstrated that it was possible to create an entire video out of a single photo; this week university and industry researchers demoed a new tool that allows users to edit someone’s words by typing what they want the subject to say.

    It’s thus only a matter of time before deepfakes proliferate, says Sam Gregory, the program director of Witness. “Many of the ways that people would consider using deepfakes—to attack journalists, to imply corruption by politicians, to manipulate evidence—are clearly evolutions of existing problems, so we should expect people to try on the latest ways to do those effectively,” he says.

    The report outlines a strategy for how to prepare for such an impending future. Many of the recommendations and much of the supporting evidence also aligns with the proposals that will appear in the House bill.

    The report found that current investments by researchers and tech companies into deepfake generation far outweigh those into deepfake detection. Adobe, for example, has produced many tools to make media alterations easier, including a recent feature for removing objects in videos; it has not, however, provided a foil to them.

    The result is a mismatch between the real-world nature of media manipulation and the tools available to fight it. “If you’re creating a tool for synthesis or forgery that is seamless to the human eye or the human ear, you should be creating tools that are specifically designed to detect that forgery,” says Gregory. The question is how to get toolmakers to redress that imbalance.

    #Deepfake #Fake_news #Synthetic_media #Médias_de_synthèse #Projet_loi

  • Avancées en machine learning vidéo

    Un nouvel algorithme permet de créer des vidéos de type « deepfake » simplement en saisissant du texte. À ne pas mettre entre toutes les mains.

    Ajouts notoires :
    – mouvement des mains
    – ajout / remplacement de mots
    – traduction en direct
    – compléments sonores non prononcés
    https://www.youtube.com/watch?v=0ybLCfVeFL4


    https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-deepfake-ce-nouvel-algorithme-cree-videos

  • Disinformation Wars – Foreign Policy
    http://foreignpolicy.com/2018/05/25/disinformation-wars


    An activist protests in front of the European Union headquarters in Brussels, on May 22.
    John Thys/AFP/Getty Images

    Russian disinformation has become a problem for European governments. In the last two years, Kremlin-backed campaigns have spread false stories alleging that French President Emmanuel Macron was backed by the “gay lobby,” fabricated a story of a Russian-German girl raped by Arab migrants, and spread a litany of conspiracy theories about the Catalan independence referendum, among other efforts.

    Europe is finally taking action. In January, Germany’s Network Enforcement Act came into effect. Designed to limit hate speech and #fake_news online, the law prompted both France and Spain to consider counterdisinformation legislation of their own. More important, in April the European Union unveiled a new strategy for tackling online disinformation. The EU plan focuses on several sensible responses: promoting media literacy, funding a third-party fact-checking service, and pushing Facebook and others to highlight news from credible media outlets, among others. Although the plan itself stops short of regulation, EU officials have not been shy about hinting that regulation may be forthcoming. Indeed, when Facebook CEO Mark Zuckerberg appeared at an EU hearing this week, lawmakers reminded him of their regulatory power after he appeared to dodge their questions on fake news and extremist content.

    The recent European actions are important first steps. Ultimately, none of the laws or strategies that have been unveiled so far will be enough. The problem is that technology advances far more quickly than government policies.The problem is that technology advances far more quickly than government policies. The EU’s measures are still designed to target the disinformation of yesterday rather than that of tomorrow.
    […]
    For example, stories from RT and Sputnik — the Russian government’s propaganda outlets — appeared on the first page of Google searches after the March nerve agent attack in the United Kingdom and the April chemical weapons attack in Syria. Similarly, YouTube (which is owned by Google) has an algorithm that prioritizes the amount of time users spend watching content as the key metric for determining which content appears first in search results. This algorithmic preference results in false, extremist, and unreliable information appearing at the top, which in turn means that this content is viewed more often and is perceived as more reliable by users. Revenue for the SEO manipulation industry is estimated to be in the billions of dollars.

    #deep_fake

    Le mot de la #Brookings_Institution sur les (gros) investissements à faire pour lutter contre la #désinformation.

    Celle des Russes, en tous cas.

  • Pour poursuivre une veille déjà bien fournie sur seenthis concernant la #synthèse_vocale et la #synthèse_vidéo (assistées par « #intelligence_artificielle ») : « Du porno aux fausses informations, l’intelligence artificielle manipule désormais la vidéo », une compilation des derniers développements en la matière :
    http://www.lemonde.fr/pixels/article/2018/02/04/du-porno-aux-fausses-informations-l-intelligence-artificielle-manipule-desor

    Des vidéos intégrant des visages de célébrités dans des films X pullulent en ligne à cause d’un programme accessible à tous et qui pose question au-delà de la pornographie.

    De fait, au-delà de l’exemple emblématique du #porno (voir à ce propos https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn), c’est toute la manière de produire et de recevoir des informations qui s’en trouve modifiée. La polémique autour des #fake_news n’est que la partie émergée de l’iceberg, la remise en question du rapport aux #médias (et je ne parle pas ici des seuls organismes institués, mais des supports eux-mêmes) se montrant bien plus profonde.

    La chose se trouve d’ailleurs abordée de façon systématiquement catastrophiste (cela entre en collision frontale notamment avec le #droit_à_l'image et peut servir à alimenter le #complotisme), mais elle pourrait avoir un impact positif sur le développement de la #critique_des_médias et la façon de penser le lien entre #vie_privée et #réseaux_sociaux.

    L’approche catastrophiste n’est pas anodine : elle sert un discours de légitimation plus général (symptomatique, à cet égard, que Le Monde, par ailleurs propriétaire du tragico-comique #Decodex, consacre un tel article à la question). Si les médias s’emparent de cette nouveauté, c’est pour brandir une sacro-sainte ligne de démarcation entre les #vraies_infos (labellisées par eux-mêmes) et les fausses. En réalité, leurs « vraies infos », la façon dont ils les fabriquent et les mettent en scène, est tout aussi construite que celle de la synthèse par IA.

    L’on découvre notamment dans ce papier que le #DeepFake devient un genre en soi sur Reddit et Youtube, avec un grand jeu pour mettre #Nicolas_Cage dans plein de films :

    https://www.youtube.com/watch?v=2jp4M1cIJ5A

    Et l’on constate également qu’#Obama est devenu une sorte de mètre-étalon du #vrai-faux discours : on estime qu’il est honnête (c’est-à-dire on se fait une représentation de lui comme portant un discours clair et franc), donc il peut servir de base à un #détournement, contrairement à Trump :

    https://www.youtube.com/watch?v=dw6Zj2FDuzA

    Les deux avaient néanmoins été mis en vedette par #Lyrebird :

    https://soundcloud.com/user-535691776/dialog

    #falsification #leurre #faux-semblant

    • Un (comme d’habitude) très intéressant article d’Olivier Ertzscheid sur la question, même si je ne partage pas entièrement son analyse :
      http://affordance.typepad.com//mon_weblog/2018/02/face-swap-echange-visage.html

      Il note notamment ceci :

      Au-delà du côté blague de ces détournements, quelque chose d’absolument fondamental est aujourd’hui en train de se jouer derrière l’ensemble de ces technologies de l’artefact. Quoi ? Ceci :

      – il ne peut y avoir de société sans documents ayant valeur de preuve ;
      – et il ne peut y avoir de valeur de preuve sans intégrité documentaire.

      Ce qui n’a pas empêché, cependant, que dans des cultures fondées principalement sur l’oral, le dessin ou l’écriture manuscrite, des #faux aient été construits de toutes pièces depuis des siècles. Il est d’ailleurs à peu près certain qu’une partie de notre histoire est basée sur des faux qui n’ont jamais pu être démentis.

      Ce que ces technologies d’interversion de visage (#face_swap) remettent surtout en question, c’est l’illusion, depuis la fin du XIXème et surtout le XXème siècle, que l’enregistrement vidéo et sonore, puis le numérique, offrent de telles preuves. Pourtant, un bon montage analogique permettait déjà de faire des merveilles en matière de faux discours, comme le montre le fameux Reagan speaks for himself de #Douglas_Khan en 1980 :

      https://www.youtube.com/watch?v=AvhBQoSQgUQ


      Bref, c’est une remise en question de techniques et de paradigmes juridiques récents voire très récents à l’échelle historique.

      Il précise ensuite :

      Mashable revient également sur ce phénomène qu’il baptise « DeepFakes », les qualifiant de « dernière crise morale de l’internet » ("A guide to ’Deepkakes", the internet latest moral crisis")

      Crise morale, je ne sais pas trop, mais situation de catastrophe imminente, cela me semble à peu près certain.

      La crise morale ou le sentiment de catastrophe me semblent venir de ce que la technologie a immédiatement été accaparée et diffusée par un milieu spécifique (un groupe sur Reddit) dans un objectif sexiste et diffamatoire (changer les visages dans des films pornos). Le problème de fond, en l’occurrence, c’est le #sexisme et la #misogynie, pas la technologie elle-même. Ce qui n’empêche pas que la technologie restera certainement très marquée par cette origine, et que cela influe sur ses usages.

      #audio

    • Et d’ici quelques dizaines années, nous vivrons avec des hologrammes, saluer son voisin factice, reconstituer des proches, discuter avec Marilyn, demander à Obama de ne pas oublier de ramener du pain.

    • Si les #dystopies se réalisaient de façon aussi spectaculaire que dans les oeuvres de science-fiction, elles en deviendraient comiques ! Mais elles s’insinuent ailleurs, dans les relations entre les gens, la façon de percevoir le monde, les habitudes, les comportements, le renouvellement des normes...

      De mon côté, j’attends avec impatience le premier #docu_fiction sonore qui détournera des voix de personnalités. La Guerre des mondes version XXIème siècle, histoire de continuer à nous affûter les oreilles et l’esprit.

    • Je ne partage complétement les avis, même si je suis dans l’ensemble franchement d’accord.

      Il est d’ailleurs à peu près certain qu’une partie de notre histoire est basée sur des faux qui n’ont jamais pu être démentis.

      Au delà du faux qui circule sans être démenti, il y a déjà tous les faux qu’on véhicule sans savoir qu’ils le sont. Merci les idées reçues et autres sens commun.

      Le problème de fond, en l’occurrence, c’est le #sexisme et la #misogynie, pas la technologie elle-même.

      C’est là que je digresse complétement. La technologie est elle-même un problème de fond. Ce qui ne nuance en aucun cas la force du sexisme et de la misogynie. J’oserais même avancé que la technologie est sexiste et misogyne car depuis toujours souffrant d’une reconnaissance, voir d’une acceptation, uniquement masculine. On y conjugue pouvoir et fierté et nous voilà en plein délire technologiste. Bref, le « présent ».
      Croire enfin qu’on arrivera à dévier le tir, avec toutes les ramifications et autres groundation sensées soutenir la science de son propre poids, est pure folie. J’ajouterai même que la technologie est une application capitaliste de la science : on trouve un truc qu’à l’air pas bête, on l’industrialise pour du profit, on surprend le badaud par l’artifice de l’automatisation - et on cache les coûts.

      Mais il y a de l’espoir, on peut arrêter la machination scientiste et dénoncer les abus de reconnaissance, ou abus de savoir, comme ici :
      BA or DA ? Decoding syllables to show the limits of AI
      https://www.unige.ch/communication/communiques/en/2018/cdp180131

      Sinon, pour revenir à l’atmosphère plus détendu des derniers commentaires, je rappellerai Le grand détournement.

    • Au delà du faux qui circule sans être démenti, il y a déjà tous les faux qu’on véhicule sans savoir qu’ils le sont. Merci les idées reçues et autres sens commun.

      Oui, tout à fait. Des idées reçues peuvent d’ailleurs trouver leur origine, oubliée, dans des assertions biaisées ou propagandistes entrées dans le « roman national ».

      J’oserais même avancé que la technologie est sexiste et misogyne car depuis toujours souffrant d’une reconnaissance, voir d’une acceptation, uniquement masculine.

      L’idée est intéressante, mais je pense que cela est en partie lié au fait que les femmes ont été sciemment effacées de cette histoire. En réalité, elles y ont contribué et y contribuent toujours aujourd’hui. Voir notamment cette petite série :
      https://seenthis.net/messages/662038
      ou cette longue pile de bouquins :
      https://seenthis.net/messages/654254
      Après, je n’ai pas enquêté sur comment et par qui ont été conçus ces logiciels spécifiques de synthèse audio et vidéo. Il y aurait des choses à creuser de ce côté-là, pour comprendre les logiques à l’oeuvre, la généalogie, les financements, les applications autres que ludiques (ou pseudo-ludiques)... Cela donnerait certainement quelques éclaircissements sur la raison pour laquelle ils sont à ce point liés à des usages sexistes dès leur émergence.

      J’ajouterai même que la technologie est une application capitaliste de la science : on trouve un truc qu’à l’air pas bête, on l’industrialise pour du profit, on surprend le badaud par l’artifice de l’automatisation - et on cache les coûts.

      Je suis d’accord. J’aurais dû nuancer : l’approche catastrophiste m’agaçant, j’en ai pris le contrepied. Mais il est on ne peut plus fondé de critiquer cette technologie en tant que telle, par exemple parce qu’elle est non seulement irrespectueuse de la vie privée, mais parfaitement dispensable. La passion de trouver l’emporte de fait régulièrement sur toute considération éthique ou, plus souvent encore, toute notion d’intérêt public. Je retiens l’expression d’ "abus de savoir" .

      J’avais oublié ce film ! Merci pour le rappel et la rigolade au nouveau visionnage !

      https://www.youtube.com/watch?v=l44WKAtZLjI

      Je rêve que quelqu’un·e fasse un film où se confronteraient toutes les figures de justiciers renfrognés, de héros solitaires et glorieux (Colombo, Maigret, Derrick, Poirot, Marlowe, Burma, les #grands_hommes incarnés par Eastwood ou Wayne, etc., etc.). Je crois qu’on s’amuserait beaucoup.

    • L’idée est intéressante, mais je pense que cela est en partie lié au fait que les femmes ont été sciemment effacées de cette histoire. En réalité, elles y ont contribué et y contribuent toujours aujourd’hui.

      Complétement, et c’est là la diode que je cherchais à allumer : les femmes ont été rares dans l’histoire de l’informatique. Il faudrait que je précise : dans l’histoire racontée de l’informatique, dans la représentation imaginaire qui est produite par l’écrasante majorité règnant en maître sur domaine - tous des hommes. Des femmes, les scribes effacent les noms (ou tentent de le faire) et tu fais vraiment bien de venir rattaché ces posts ! L’industrie du logiciel et autres techies tiennent haut le flambeau en matière de discrimination de genre et le défendent dur.

      Merci pour le petit remember youtube. Et bon courage dans ton projet cinéma !!!

    • Sur le sexisme dans la technologie, voir notamment cet article du... Figaro Madame, repéré par @etraces : « Poupées sexuelles, assistantes… Les femmes robots vont-elles s’émanciper un jour ? »
      http://madame.lefigaro.fr/business/femmes-robots-poupee-sexuelle-assistante-miroir-manque-egalite-mixit

      « Les milieux de la recherche technologique sont des milieux où il y a très peu de femmes. Ainsi, le rôle de robots, leur apparence, leurs comportements sont également décidés par des hommes. Il y a un risque de reproduire nos stéréotypes dans la technologie. C’est ce qui fait qu’aujourd’hui la plus plupart des robots femmes sont soit des robots sexuels, soit des assistantes ou des standardistes », explique Laurence DeVillers, professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS.

      Le véritable danger de l’intelligence artificielle selon Aurélie Jean, Ph.D. scientifique numéricienne et entrepreneuse et CTO/CIO et cofondatrice de la start-up MixR à Los Angeles, sont ces biais algorithmiques. « Nous transférons nos réflexes comportementaux sur nos échantillons de recherche. Cela est amplifié à mesure que l’algorithme s’entraîne. » Ce phénomène entraîne une discrimination technologique car il exclut une partie de la population qui est mal représentée du fait que certains critères ont été omis par les concepteurs. Par exemple, en 2016, Joy Buolamwini, une chercheuse afro-américaine du laboratoire américain MIT, n’a pas été reconnue lorsqu’elle testait le premier système de reconnaissance faciale car la machine n’avait été programmée qu’à partir de personnes à la peau claires...

      Selon Laurence De Villers, il est urgent de rétablir de la mixité et de revoir nos critères de sélection. « Il existe aujourd’hui beaucoup de femmes chercheuses en intelligence artificielle, mais on ne leur donne pas assez la parole. »