• Pour poursuivre une veille déjà bien fournie sur seenthis concernant la #synthèse_vocale et la #synthèse_vidéo (assistées par « #intelligence_artificielle ») : « Du porno aux fausses informations, l’intelligence artificielle manipule désormais la vidéo », une compilation des derniers développements en la matière :
    http://www.lemonde.fr/pixels/article/2018/02/04/du-porno-aux-fausses-informations-l-intelligence-artificielle-manipule-desor

    Des vidéos intégrant des visages de célébrités dans des films X pullulent en ligne à cause d’un programme accessible à tous et qui pose question au-delà de la pornographie.

    De fait, au-delà de l’exemple emblématique du #porno (voir à ce propos https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn), c’est toute la manière de produire et de recevoir des informations qui s’en trouve modifiée. La polémique autour des #fake_news n’est que la partie émergée de l’iceberg, la remise en question du rapport aux #médias (et je ne parle pas ici des seuls organismes institués, mais des supports eux-mêmes) se montrant bien plus profonde.

    La chose se trouve d’ailleurs abordée de façon systématiquement catastrophiste (cela entre en collision frontale notamment avec le #droit_à_l'image et peut servir à alimenter le #complotisme), mais elle pourrait avoir un impact positif sur le développement de la #critique_des_médias et la façon de penser le lien entre #vie_privée et #réseaux_sociaux.

    L’approche catastrophiste n’est pas anodine : elle sert un discours de légitimation plus général (symptomatique, à cet égard, que Le Monde, par ailleurs propriétaire du tragico-comique #Decodex, consacre un tel article à la question). Si les médias s’emparent de cette nouveauté, c’est pour brandir une sacro-sainte ligne de démarcation entre les #vraies_infos (labellisées par eux-mêmes) et les fausses. En réalité, leurs « vraies infos », la façon dont ils les fabriquent et les mettent en scène, est tout aussi construite que celle de la synthèse par IA.

    L’on découvre notamment dans ce papier que le #DeepFake devient un genre en soi sur Reddit et Youtube, avec un grand jeu pour mettre #Nicolas_Cage dans plein de films :

    https://www.youtube.com/watch?v=2jp4M1cIJ5A

    Et l’on constate également qu’#Obama est devenu une sorte de mètre-étalon du #vrai-faux discours : on estime qu’il est honnête (c’est-à-dire on se fait une représentation de lui comme portant un discours clair et franc), donc il peut servir de base à un #détournement, contrairement à Trump :

    https://www.youtube.com/watch?v=dw6Zj2FDuzA

    Les deux avaient néanmoins été mis en vedette par #Lyrebird :

    https://soundcloud.com/user-535691776/dialog

    #falsification #leurre #faux-semblant

    • Un (comme d’habitude) très intéressant article d’Olivier Ertzscheid sur la question, même si je ne partage pas entièrement son analyse :
      http://affordance.typepad.com//mon_weblog/2018/02/face-swap-echange-visage.html

      Il note notamment ceci :

      Au-delà du côté blague de ces détournements, quelque chose d’absolument fondamental est aujourd’hui en train de se jouer derrière l’ensemble de ces technologies de l’artefact. Quoi ? Ceci :

      – il ne peut y avoir de société sans documents ayant valeur de preuve ;
      – et il ne peut y avoir de valeur de preuve sans intégrité documentaire.

      Ce qui n’a pas empêché, cependant, que dans des cultures fondées principalement sur l’oral, le dessin ou l’écriture manuscrite, des #faux aient été construits de toutes pièces depuis des siècles. Il est d’ailleurs à peu près certain qu’une partie de notre histoire est basée sur des faux qui n’ont jamais pu être démentis.

      Ce que ces technologies d’interversion de visage (#face_swap) remettent surtout en question, c’est l’illusion, depuis la fin du XIXème et surtout le XXème siècle, que l’enregistrement vidéo et sonore, puis le numérique, offrent de telles preuves. Pourtant, un bon montage analogique permettait déjà de faire des merveilles en matière de faux discours, comme le montre le fameux Reagan speaks for himself de #Douglas_Khan en 1980 :

      https://www.youtube.com/watch?v=AvhBQoSQgUQ


      Bref, c’est une remise en question de techniques et de paradigmes juridiques récents voire très récents à l’échelle historique.

      Il précise ensuite :

      Mashable revient également sur ce phénomène qu’il baptise « DeepFakes », les qualifiant de « dernière crise morale de l’internet » ("A guide to ’Deepkakes", the internet latest moral crisis")

      Crise morale, je ne sais pas trop, mais situation de catastrophe imminente, cela me semble à peu près certain.

      La crise morale ou le sentiment de catastrophe me semblent venir de ce que la technologie a immédiatement été accaparée et diffusée par un milieu spécifique (un groupe sur Reddit) dans un objectif sexiste et diffamatoire (changer les visages dans des films pornos). Le problème de fond, en l’occurrence, c’est le #sexisme et la #misogynie, pas la technologie elle-même. Ce qui n’empêche pas que la technologie restera certainement très marquée par cette origine, et que cela influe sur ses usages.

      #audio

    • Et d’ici quelques dizaines années, nous vivrons avec des hologrammes, saluer son voisin factice, reconstituer des proches, discuter avec Marilyn, demander à Obama de ne pas oublier de ramener du pain.

    • Si les #dystopies se réalisaient de façon aussi spectaculaire que dans les oeuvres de science-fiction, elles en deviendraient comiques ! Mais elles s’insinuent ailleurs, dans les relations entre les gens, la façon de percevoir le monde, les habitudes, les comportements, le renouvellement des normes...

      De mon côté, j’attends avec impatience le premier #docu_fiction sonore qui détournera des voix de personnalités. La Guerre des mondes version XXIème siècle, histoire de continuer à nous affûter les oreilles et l’esprit.

    • Je ne partage complétement les avis, même si je suis dans l’ensemble franchement d’accord.

      Il est d’ailleurs à peu près certain qu’une partie de notre histoire est basée sur des faux qui n’ont jamais pu être démentis.

      Au delà du faux qui circule sans être démenti, il y a déjà tous les faux qu’on véhicule sans savoir qu’ils le sont. Merci les idées reçues et autres sens commun.

      Le problème de fond, en l’occurrence, c’est le #sexisme et la #misogynie, pas la technologie elle-même.

      C’est là que je digresse complétement. La technologie est elle-même un problème de fond. Ce qui ne nuance en aucun cas la force du sexisme et de la misogynie. J’oserais même avancé que la technologie est sexiste et misogyne car depuis toujours souffrant d’une reconnaissance, voir d’une acceptation, uniquement masculine. On y conjugue pouvoir et fierté et nous voilà en plein délire technologiste. Bref, le « présent ».
      Croire enfin qu’on arrivera à dévier le tir, avec toutes les ramifications et autres groundation sensées soutenir la science de son propre poids, est pure folie. J’ajouterai même que la technologie est une application capitaliste de la science : on trouve un truc qu’à l’air pas bête, on l’industrialise pour du profit, on surprend le badaud par l’artifice de l’automatisation - et on cache les coûts.

      Mais il y a de l’espoir, on peut arrêter la machination scientiste et dénoncer les abus de reconnaissance, ou abus de savoir, comme ici :
      BA or DA ? Decoding syllables to show the limits of AI
      https://www.unige.ch/communication/communiques/en/2018/cdp180131

      Sinon, pour revenir à l’atmosphère plus détendu des derniers commentaires, je rappellerai Le grand détournement.

    • Au delà du faux qui circule sans être démenti, il y a déjà tous les faux qu’on véhicule sans savoir qu’ils le sont. Merci les idées reçues et autres sens commun.

      Oui, tout à fait. Des idées reçues peuvent d’ailleurs trouver leur origine, oubliée, dans des assertions biaisées ou propagandistes entrées dans le « roman national ».

      J’oserais même avancé que la technologie est sexiste et misogyne car depuis toujours souffrant d’une reconnaissance, voir d’une acceptation, uniquement masculine.

      L’idée est intéressante, mais je pense que cela est en partie lié au fait que les femmes ont été sciemment effacées de cette histoire. En réalité, elles y ont contribué et y contribuent toujours aujourd’hui. Voir notamment cette petite série :
      https://seenthis.net/messages/662038
      ou cette longue pile de bouquins :
      https://seenthis.net/messages/654254
      Après, je n’ai pas enquêté sur comment et par qui ont été conçus ces logiciels spécifiques de synthèse audio et vidéo. Il y aurait des choses à creuser de ce côté-là, pour comprendre les logiques à l’oeuvre, la généalogie, les financements, les applications autres que ludiques (ou pseudo-ludiques)... Cela donnerait certainement quelques éclaircissements sur la raison pour laquelle ils sont à ce point liés à des usages sexistes dès leur émergence.

      J’ajouterai même que la technologie est une application capitaliste de la science : on trouve un truc qu’à l’air pas bête, on l’industrialise pour du profit, on surprend le badaud par l’artifice de l’automatisation - et on cache les coûts.

      Je suis d’accord. J’aurais dû nuancer : l’approche catastrophiste m’agaçant, j’en ai pris le contrepied. Mais il est on ne peut plus fondé de critiquer cette technologie en tant que telle, par exemple parce qu’elle est non seulement irrespectueuse de la vie privée, mais parfaitement dispensable. La passion de trouver l’emporte de fait régulièrement sur toute considération éthique ou, plus souvent encore, toute notion d’intérêt public. Je retiens l’expression d’ "abus de savoir" .

      J’avais oublié ce film ! Merci pour le rappel et la rigolade au nouveau visionnage !

      https://www.youtube.com/watch?v=l44WKAtZLjI

      Je rêve que quelqu’un·e fasse un film où se confronteraient toutes les figures de justiciers renfrognés, de héros solitaires et glorieux (Colombo, Maigret, Derrick, Poirot, Marlowe, Burma, les #grands_hommes incarnés par Eastwood ou Wayne, etc., etc.). Je crois qu’on s’amuserait beaucoup.

    • L’idée est intéressante, mais je pense que cela est en partie lié au fait que les femmes ont été sciemment effacées de cette histoire. En réalité, elles y ont contribué et y contribuent toujours aujourd’hui.

      Complétement, et c’est là la diode que je cherchais à allumer : les femmes ont été rares dans l’histoire de l’informatique. Il faudrait que je précise : dans l’histoire racontée de l’informatique, dans la représentation imaginaire qui est produite par l’écrasante majorité règnant en maître sur domaine - tous des hommes. Des femmes, les scribes effacent les noms (ou tentent de le faire) et tu fais vraiment bien de venir rattaché ces posts ! L’industrie du logiciel et autres techies tiennent haut le flambeau en matière de discrimination de genre et le défendent dur.

      Merci pour le petit remember youtube. Et bon courage dans ton projet cinéma !!!

    • Sur le sexisme dans la technologie, voir notamment cet article du... Figaro Madame, repéré par @etraces : « Poupées sexuelles, assistantes… Les femmes robots vont-elles s’émanciper un jour ? »
      http://madame.lefigaro.fr/business/femmes-robots-poupee-sexuelle-assistante-miroir-manque-egalite-mixit

      « Les milieux de la recherche technologique sont des milieux où il y a très peu de femmes. Ainsi, le rôle de robots, leur apparence, leurs comportements sont également décidés par des hommes. Il y a un risque de reproduire nos stéréotypes dans la technologie. C’est ce qui fait qu’aujourd’hui la plus plupart des robots femmes sont soit des robots sexuels, soit des assistantes ou des standardistes », explique Laurence DeVillers, professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS.

      Le véritable danger de l’intelligence artificielle selon Aurélie Jean, Ph.D. scientifique numéricienne et entrepreneuse et CTO/CIO et cofondatrice de la start-up MixR à Los Angeles, sont ces biais algorithmiques. « Nous transférons nos réflexes comportementaux sur nos échantillons de recherche. Cela est amplifié à mesure que l’algorithme s’entraîne. » Ce phénomène entraîne une discrimination technologique car il exclut une partie de la population qui est mal représentée du fait que certains critères ont été omis par les concepteurs. Par exemple, en 2016, Joy Buolamwini, une chercheuse afro-américaine du laboratoire américain MIT, n’a pas été reconnue lorsqu’elle testait le premier système de reconnaissance faciale car la machine n’avait été programmée qu’à partir de personnes à la peau claires...

      Selon Laurence De Villers, il est urgent de rétablir de la mixité et de revoir nos critères de sélection. « Il existe aujourd’hui beaucoup de femmes chercheuses en intelligence artificielle, mais on ne leur donne pas assez la parole. »