• Les youtubeuses virtuelles, nouvelles starlettes du Web
    http://www.lemonde.fr/pixels/article/2018/02/19/les-youtubeuses-virtuelles-nouvelles-starlettes-du-web_5259168_4408996.html

    Parmi les stars émergentes de YouTube, certaines ne sont pas faites de chair et de sang. Des youtubeuses virtuelles ont commencé à faire leur apparition au Japon, avec succès. « Hai domo ! Virtual youtuber Kizuna AI desu ! » Kizuna AI commence toutes ses vidéos par la même phrase — « Salut tout le monde ! Ici la youtubeuse virtuelle Kizuna AI ! ». Comme les autres youtubeuses, elle se met en scène face caméra, raconte sa vie, joue à des jeux vidéo et participe aux plaisanteries à la mode sur Internet. (...)

    #Google #YouTube #manipulation #réalité_augmentée #algorithme #domination

  • Des serveurs de #Tesla utilisés par des pirates pour générer des #cryptomonnaies
    http://www.lemonde.fr/pixels/article/2018/02/21/des-serveurs-de-tesla-utilises-par-des-pirates-pour-generer-des-cryptomonnai

    Tesla a beau envoyer des voitures dans l’espace, elle n’en reste pas moins vulnérable sur Terre. Des chercheurs de RedLock, une entreprise spécialisée dans le domaine de la sécurité informatique, l’ont démontré dans un rapport publié mardi 20 février. Celui-ci révèle que des pirates informatiques ont pu accéder à des serveurs utilisés par Tesla, hébergés chez Amazon Web Services.

    Les chercheurs y ont retrouvé un logiciel malveillant qui « minait » de la cryptomonnaie. Cela signifie qu’il utilisait la puissance informatique des serveurs pour fabriquer de la monnaie virtuelle.

    En cause, une négligence de Tesla. L’entreprise utilisait un logiciel open source, Kubernetes, dont elle n’avait pas sécurisé l’accès – il était possible d’y accéder sans mot de passe. Or, les identifiants permettant d’accéder à des serveurs Amazon de Tesla y étaient stockés, et c’est ainsi que les pirates ont pu y pénétrer pour y installer leur malware (« logiciel malveillant »), selon RedLock.

  • Vie privée : Facebook condamné en Belgique
    http://www.lemonde.fr/pixels/article/2018/02/16/vie-privee-facebook-condamne-en-belgique_5258213_4408996.html

    Le réseau social est accusé de pister les internautes, y compris lorsque ces derniers ne disposent pas de comptes sur le réseau social. Nouvelle étape dans le bras de fer qui oppose depuis 2015 Facebook aux autorités belges : la justice a ordonné, vendredi 16 février, au réseau social de cesser de pister les internautes en Belgique sans leur consentement. Facebook doit « cesser de suivre et d’enregistrer l’utilisation d’Internet des personnes surfant de Belgique », écrit le tribunal néerlandophone de (...)

    #Facebook #Like #cookies #données #profiling #CPVP

  • Google lance des stories à la manière de Snapchat
    http://www.lemonde.fr/pixels/article/2018/02/14/google-lance-des-stories-a-la-maniere-de-snapchat_5256888_4408996.html

    L’entreprise a mis à disposition des outils permettant de créer ce type de contenu pour mobiles. Ils pourraient remonter, à l’avenir, dans son moteur de recherche.

    #nouvelle_narrations

  • Le gouvernement britannique lance un logiciel pour détecter les vidéos djihadistes
    http://www.lemonde.fr/pixels/article/2018/02/14/le-gouvernement-britannique-lance-un-logiciel-pour-detecter-les-videos-djiha

    Pour lutter contre la diffusion en ligne de vidéos de propagande de l’organisation djihadiste Etat islamique (EI), le gouvernement britannique a financé le développement d’un algorithme censé les détecter, a annoncé mardi 13 février le ministère de l’intérieur dans un communiqué. Objectif : le mettre à disposition de sites qui n’ont pas les moyens de créer leurs propres outils de détection.

    Le ministère ne précise toutefois pas quelles conditions sont nécessaires pour accéder à cet outil. « Cette technologie sera mise à disposition gratuitement à toute plateforme qui en aura besoin », annonce de son côté, sans donner plus de détails, l’entreprise ASI Data Science.

    C’est elle qui a été missionnée pour mettre au point ce programme, avec 600 000 livres (674 000 euros) de fonds publics. Cette petite entreprise londonienne vante les prouesses de son programme, capable, selon elle, de détecter 94 % des contenus de propagande de l’EI. Elle estime le taux d’erreur, c’est-à-dire le nombre de vidéos identifiées à tort comme étant problématiques, à environ 0,005 %.

    Pour fonctionner, le programme d’intelligence artificielle a analysé un millier de vidéos de propagande de l’EI afin d’apprendre à les reconnaître. Il se base notamment sur plusieurs critères pour les détecter. Certains renvoient à des éléments audio ou visuels, comme des logos ou des symboles utilisés par l’EI. D’autres concernent, eux, le contenu des métadonnées, c’est-à-dire les informations liées à la vidéo. Par exemple : de quel pays a été mise en ligne une vidéo.

    • Le communiqué FB de l’entreprise ASI Data Science ne mentionne pas la taille de l’échantillon d’apprentissage, mais celle de celui de validation.

      ASI Data Science - Publications
      https://www.facebook.com/asidatascience/posts/2081754788711095

      Our model uses a wide range of cutting edge machine learning techniques to look for subtle signals inside videos that can distinguish Daesh propaganda from all the other videos on the internet. We have tested it against around 100k videos on the live web. It was able to capture 94% of Daesh propaganda while flagging incorrect content only 0.005% of the time.

      (au passage, la rédaction ci-dessus suppose qu’il a fallu vérifier 100 000 vidéos… ça fait beaucoup !

      on aurait 6% de faux négatifs (soit 6000, tout de même, vidéos de propagande non détectées)
      et 5 faux positifs (vidéos innocentes marquées comme propagandistes, sur 100 000)

  • Une étude démontre les biais de la reconnaissance faciale, plus efficace sur les hommes blancs
    http://www.lemonde.fr/pixels/article/2018/02/12/une-etude-demontre-les-biais-de-la-reconnaissance-faciale-plus-efficace-sur-

    Lorsqu’il s’agit de reconnaître le genre d’un homme blanc, des logiciels affichent un taux de réussite de 99 %. La tâche se complique lorsque la peau d’une personne est plus foncée, ou s’il s’agit d’une femme. Les logiciels de reconnaissance faciale sont efficaces pour déterminer le genre d’une personne… à condition d’être un homme et d’avoir la peau blanche, à en croire une étude publiée jeudi 8 février sur le site du MIT Media Lab. A l’origine de cette étude, la chercheuse Joy Buolamwini du prestigieux (...)

    #Google #Microsoft #algorithme #biométrie #facial #discrimination #Massachusetts_Institute_of_Technology_(MIT) #IBM (...)

    ##Massachusetts_Institute_of_Technology__MIT_ ##Face++

  • « Black Panther » : comment un faux titre raciste s’est invité sur Google
    http://www.lemonde.fr/pixels/article/2018/02/12/black-panther-comment-un-faux-titre-raciste-s-est-invite-sur-google_5255696_

    Pendant quelques heures, le titre de ce film qui met en scène un superhéros noir a été remplacé par « La Planète des singes : suprématie ». Les internautes qui comptaient se rendre au cinéma le week-end des 10 et 11 février ont eu une mauvaise surprise. En cherchant le nom de certains cinémas dans Google, de mauvais titres de films sont parfois apparus sous des affiches, comme l’ont relevé des internautes sur les réseaux sociaux. Le film américain Black Panther, qui met en scène un superhéros noir, a (...)

    #Google #Facebook #GoogleBombing #GoogleSearch #algorithme #manipulation #discrimination

  • Violences faites aux femmes : Twitter, Facebook et YouTube accusés de laxisme
    http://www.lemonde.fr/pixels/article/2018/02/07/violences-faites-aux-femmes-twitter-facebook-et-youtube-accuses-de-laxisme_5

    Dans un rapport publié mercredi, Facebook, Twitter et surtout YouTube sont accusés de ne pas être suffisamment réactifs en matière de violences faites aux femmes. Les auteurs de violences faites aux femmes en ligne bénéficient d’une « très grande impunité » sur Facebook, Twitter et YouTube. C’est la conclusion d’un rapport publié le 7 février par le Haut Conseil à l’égalité entre les femmes et les hommes (HCE). En juin et juillet 2017, cette instance consultative a signalé auprès de ces plates-formes 545 (...)

    #Facebook #Twitter #YouTube #discrimination

  • YouTube va signaler les chaînes financées par des Etats
    http://www.lemonde.fr/pixels/article/2018/02/05/youtube-va-signaler-les-chaines-financees-par-des-etats_5252029_4408996.html

    Avec cette fonctionnalité qui n’est pour l’instant disponible qu’aux Etats-Unis, YouTube espère garantir plus de transparence à ses …

    #Réseaux_Sociaux

  • Le Britannique Lauri Love, accusé d’avoir piraté l’armée américaine, échappe à l’extradition

    http://www.lemonde.fr/pixels/article/2018/02/05/le-britannique-lauri-love-accuse-d-avoir-pirate-l-armee-americaine-echappe-a

    La justice britannique a bloqué son extradition vers les Etats-Unis. Lauri Love est accusé d’avoir volé des données appartenant à des agences américaines.

    Les Etats-Unis avaient demandé que Lauri Love leur soit remis : l’homme est poursuivi dans trois Etats pour accès illégal à un ordinateur d’une agence américaine, complot, piratage informatique et vol aggravé d’identité. Il est entre autres accusé de s’être infiltré dans les serveurs de la Réserve fédérale pour y voler des informations confidentielles puis de les avoir diffusées sur Internet.

    Il est notamment soupçonné d’avoir rejoint, voire coordonné, l’opération #OpLastResort, lancée par le collectif Anonymous, en soutien à Aaron Swartz — un étudiant poursuivi pour avoir téléchargé des millions d’articles scientifiques, qui s’est suicidé le 11 janvier 2013. Des sites Internet d’agences fédérales avaient alors été piratés. Lauri Love avait été arrêté à son domicile en octobre 2013.

  • Pour poursuivre une veille déjà bien fournie sur seenthis concernant la #synthèse_vocale et la #synthèse_vidéo (assistées par « #intelligence_artificielle ») : « Du porno aux fausses informations, l’intelligence artificielle manipule désormais la vidéo », une compilation des derniers développements en la matière :
    http://www.lemonde.fr/pixels/article/2018/02/04/du-porno-aux-fausses-informations-l-intelligence-artificielle-manipule-desor

    Des vidéos intégrant des visages de célébrités dans des films X pullulent en ligne à cause d’un programme accessible à tous et qui pose question au-delà de la pornographie.

    De fait, au-delà de l’exemple emblématique du #porno (voir à ce propos https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn), c’est toute la manière de produire et de recevoir des informations qui s’en trouve modifiée. La polémique autour des #fake_news n’est que la partie émergée de l’iceberg, la remise en question du rapport aux #médias (et je ne parle pas ici des seuls organismes institués, mais des supports eux-mêmes) se montrant bien plus profonde.

    La chose se trouve d’ailleurs abordée de façon systématiquement catastrophiste (cela entre en collision frontale notamment avec le #droit_à_l'image et peut servir à alimenter le #complotisme), mais elle pourrait avoir un impact positif sur le développement de la #critique_des_médias et la façon de penser le lien entre #vie_privée et #réseaux_sociaux.

    L’approche catastrophiste n’est pas anodine : elle sert un discours de légitimation plus général (symptomatique, à cet égard, que Le Monde, par ailleurs propriétaire du tragico-comique #Decodex, consacre un tel article à la question). Si les médias s’emparent de cette nouveauté, c’est pour brandir une sacro-sainte ligne de démarcation entre les #vraies_infos (labellisées par eux-mêmes) et les fausses. En réalité, leurs « vraies infos », la façon dont ils les fabriquent et les mettent en scène, est tout aussi construite que celle de la synthèse par IA.

    L’on découvre notamment dans ce papier que le #DeepFake devient un genre en soi sur Reddit et Youtube, avec un grand jeu pour mettre #Nicolas_Cage dans plein de films :

    https://www.youtube.com/watch?v=2jp4M1cIJ5A

    Et l’on constate également qu’#Obama est devenu une sorte de mètre-étalon du #vrai-faux discours : on estime qu’il est honnête (c’est-à-dire on se fait une représentation de lui comme portant un discours clair et franc), donc il peut servir de base à un #détournement, contrairement à Trump :

    https://www.youtube.com/watch?v=dw6Zj2FDuzA

    Les deux avaient néanmoins été mis en vedette par #Lyrebird :

    https://soundcloud.com/user-535691776/dialog

    #falsification #leurre #faux-semblant

    • Un (comme d’habitude) très intéressant article d’Olivier Ertzscheid sur la question, même si je ne partage pas entièrement son analyse :
      http://affordance.typepad.com//mon_weblog/2018/02/face-swap-echange-visage.html

      Il note notamment ceci :

      Au-delà du côté blague de ces détournements, quelque chose d’absolument fondamental est aujourd’hui en train de se jouer derrière l’ensemble de ces technologies de l’artefact. Quoi ? Ceci :

      – il ne peut y avoir de société sans documents ayant valeur de preuve ;
      – et il ne peut y avoir de valeur de preuve sans intégrité documentaire.

      Ce qui n’a pas empêché, cependant, que dans des cultures fondées principalement sur l’oral, le dessin ou l’écriture manuscrite, des #faux aient été construits de toutes pièces depuis des siècles. Il est d’ailleurs à peu près certain qu’une partie de notre histoire est basée sur des faux qui n’ont jamais pu être démentis.

      Ce que ces technologies d’interversion de visage (#face_swap) remettent surtout en question, c’est l’illusion, depuis la fin du XIXème et surtout le XXème siècle, que l’enregistrement vidéo et sonore, puis le numérique, offrent de telles preuves. Pourtant, un bon montage analogique permettait déjà de faire des merveilles en matière de faux discours, comme le montre le fameux Reagan speaks for himself de #Douglas_Khan en 1980 :

      https://www.youtube.com/watch?v=AvhBQoSQgUQ


      Bref, c’est une remise en question de techniques et de paradigmes juridiques récents voire très récents à l’échelle historique.

      Il précise ensuite :

      Mashable revient également sur ce phénomène qu’il baptise « DeepFakes », les qualifiant de « dernière crise morale de l’internet » ("A guide to ’Deepkakes", the internet latest moral crisis")

      Crise morale, je ne sais pas trop, mais situation de catastrophe imminente, cela me semble à peu près certain.

      La crise morale ou le sentiment de catastrophe me semblent venir de ce que la technologie a immédiatement été accaparée et diffusée par un milieu spécifique (un groupe sur Reddit) dans un objectif sexiste et diffamatoire (changer les visages dans des films pornos). Le problème de fond, en l’occurrence, c’est le #sexisme et la #misogynie, pas la technologie elle-même. Ce qui n’empêche pas que la technologie restera certainement très marquée par cette origine, et que cela influe sur ses usages.

      #audio

    • Et d’ici quelques dizaines années, nous vivrons avec des hologrammes, saluer son voisin factice, reconstituer des proches, discuter avec Marilyn, demander à Obama de ne pas oublier de ramener du pain.

    • Si les #dystopies se réalisaient de façon aussi spectaculaire que dans les oeuvres de science-fiction, elles en deviendraient comiques ! Mais elles s’insinuent ailleurs, dans les relations entre les gens, la façon de percevoir le monde, les habitudes, les comportements, le renouvellement des normes...

      De mon côté, j’attends avec impatience le premier #docu_fiction sonore qui détournera des voix de personnalités. La Guerre des mondes version XXIème siècle, histoire de continuer à nous affûter les oreilles et l’esprit.

    • Je ne partage complétement les avis, même si je suis dans l’ensemble franchement d’accord.

      Il est d’ailleurs à peu près certain qu’une partie de notre histoire est basée sur des faux qui n’ont jamais pu être démentis.

      Au delà du faux qui circule sans être démenti, il y a déjà tous les faux qu’on véhicule sans savoir qu’ils le sont. Merci les idées reçues et autres sens commun.

      Le problème de fond, en l’occurrence, c’est le #sexisme et la #misogynie, pas la technologie elle-même.

      C’est là que je digresse complétement. La technologie est elle-même un problème de fond. Ce qui ne nuance en aucun cas la force du sexisme et de la misogynie. J’oserais même avancé que la technologie est sexiste et misogyne car depuis toujours souffrant d’une reconnaissance, voir d’une acceptation, uniquement masculine. On y conjugue pouvoir et fierté et nous voilà en plein délire technologiste. Bref, le « présent ».
      Croire enfin qu’on arrivera à dévier le tir, avec toutes les ramifications et autres groundation sensées soutenir la science de son propre poids, est pure folie. J’ajouterai même que la technologie est une application capitaliste de la science : on trouve un truc qu’à l’air pas bête, on l’industrialise pour du profit, on surprend le badaud par l’artifice de l’automatisation - et on cache les coûts.

      Mais il y a de l’espoir, on peut arrêter la machination scientiste et dénoncer les abus de reconnaissance, ou abus de savoir, comme ici :
      BA or DA ? Decoding syllables to show the limits of AI
      https://www.unige.ch/communication/communiques/en/2018/cdp180131

      Sinon, pour revenir à l’atmosphère plus détendu des derniers commentaires, je rappellerai Le grand détournement.

    • Au delà du faux qui circule sans être démenti, il y a déjà tous les faux qu’on véhicule sans savoir qu’ils le sont. Merci les idées reçues et autres sens commun.

      Oui, tout à fait. Des idées reçues peuvent d’ailleurs trouver leur origine, oubliée, dans des assertions biaisées ou propagandistes entrées dans le « roman national ».

      J’oserais même avancé que la technologie est sexiste et misogyne car depuis toujours souffrant d’une reconnaissance, voir d’une acceptation, uniquement masculine.

      L’idée est intéressante, mais je pense que cela est en partie lié au fait que les femmes ont été sciemment effacées de cette histoire. En réalité, elles y ont contribué et y contribuent toujours aujourd’hui. Voir notamment cette petite série :
      https://seenthis.net/messages/662038
      ou cette longue pile de bouquins :
      https://seenthis.net/messages/654254
      Après, je n’ai pas enquêté sur comment et par qui ont été conçus ces logiciels spécifiques de synthèse audio et vidéo. Il y aurait des choses à creuser de ce côté-là, pour comprendre les logiques à l’oeuvre, la généalogie, les financements, les applications autres que ludiques (ou pseudo-ludiques)... Cela donnerait certainement quelques éclaircissements sur la raison pour laquelle ils sont à ce point liés à des usages sexistes dès leur émergence.

      J’ajouterai même que la technologie est une application capitaliste de la science : on trouve un truc qu’à l’air pas bête, on l’industrialise pour du profit, on surprend le badaud par l’artifice de l’automatisation - et on cache les coûts.

      Je suis d’accord. J’aurais dû nuancer : l’approche catastrophiste m’agaçant, j’en ai pris le contrepied. Mais il est on ne peut plus fondé de critiquer cette technologie en tant que telle, par exemple parce qu’elle est non seulement irrespectueuse de la vie privée, mais parfaitement dispensable. La passion de trouver l’emporte de fait régulièrement sur toute considération éthique ou, plus souvent encore, toute notion d’intérêt public. Je retiens l’expression d’ "abus de savoir" .

      J’avais oublié ce film ! Merci pour le rappel et la rigolade au nouveau visionnage !

      https://www.youtube.com/watch?v=l44WKAtZLjI

      Je rêve que quelqu’un·e fasse un film où se confronteraient toutes les figures de justiciers renfrognés, de héros solitaires et glorieux (Colombo, Maigret, Derrick, Poirot, Marlowe, Burma, les #grands_hommes incarnés par Eastwood ou Wayne, etc., etc.). Je crois qu’on s’amuserait beaucoup.

    • L’idée est intéressante, mais je pense que cela est en partie lié au fait que les femmes ont été sciemment effacées de cette histoire. En réalité, elles y ont contribué et y contribuent toujours aujourd’hui.

      Complétement, et c’est là la diode que je cherchais à allumer : les femmes ont été rares dans l’histoire de l’informatique. Il faudrait que je précise : dans l’histoire racontée de l’informatique, dans la représentation imaginaire qui est produite par l’écrasante majorité règnant en maître sur domaine - tous des hommes. Des femmes, les scribes effacent les noms (ou tentent de le faire) et tu fais vraiment bien de venir rattaché ces posts ! L’industrie du logiciel et autres techies tiennent haut le flambeau en matière de discrimination de genre et le défendent dur.

      Merci pour le petit remember youtube. Et bon courage dans ton projet cinéma !!!

    • Sur le sexisme dans la technologie, voir notamment cet article du... Figaro Madame, repéré par @etraces : « Poupées sexuelles, assistantes… Les femmes robots vont-elles s’émanciper un jour ? »
      http://madame.lefigaro.fr/business/femmes-robots-poupee-sexuelle-assistante-miroir-manque-egalite-mixit

      « Les milieux de la recherche technologique sont des milieux où il y a très peu de femmes. Ainsi, le rôle de robots, leur apparence, leurs comportements sont également décidés par des hommes. Il y a un risque de reproduire nos stéréotypes dans la technologie. C’est ce qui fait qu’aujourd’hui la plus plupart des robots femmes sont soit des robots sexuels, soit des assistantes ou des standardistes », explique Laurence DeVillers, professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS.

      Le véritable danger de l’intelligence artificielle selon Aurélie Jean, Ph.D. scientifique numéricienne et entrepreneuse et CTO/CIO et cofondatrice de la start-up MixR à Los Angeles, sont ces biais algorithmiques. « Nous transférons nos réflexes comportementaux sur nos échantillons de recherche. Cela est amplifié à mesure que l’algorithme s’entraîne. » Ce phénomène entraîne une discrimination technologique car il exclut une partie de la population qui est mal représentée du fait que certains critères ont été omis par les concepteurs. Par exemple, en 2016, Joy Buolamwini, une chercheuse afro-américaine du laboratoire américain MIT, n’a pas été reconnue lorsqu’elle testait le premier système de reconnaissance faciale car la machine n’avait été programmée qu’à partir de personnes à la peau claires...

      Selon Laurence De Villers, il est urgent de rétablir de la mixité et de revoir nos critères de sélection. « Il existe aujourd’hui beaucoup de femmes chercheuses en intelligence artificielle, mais on ne leur donne pas assez la parole. »

  • Election américaine : 1,4 million d’utilisateurs de Twitter confrontés à la propagande russe
    http://www.lemonde.fr/pixels/article/2018/02/01/election-americaine-1-4-million-d-utilisateurs-de-twitter-confrontes-a-la-pr

    Le réseau social a revu à la hausse le nombre de ses utilisateurs ayant interagi avec des comptes liés aux intérêts russes pendant la campagne présidentielle américaine de 2016. Twitter avait initialement annoncé le chiffre très précis de 677 775 utilisateurs. Mercredi 31 janvier, le réseau social a revu ses estimations à la hausse : finalement, ce sont en fait 1,4 million de personnes qui ont été confrontées à la propagande russe sur la plateforme lors de la campagne présidentielle américaine de 2016. (...)

    #Twitter #élections #manipulation

  • Controversé et un peu gênant : le manifeste antidiversité qui circulait à Google
    http://www.lemonde.fr/pixels/article/2017/08/07/le-genant-manifeste-antidiversite-d-un-employe-de-google_5169624_4408996.htm

    C’est un message qui a fait grand bruit dans les couloirs des bureaux de Google. Et même, comme c’est rarement le cas, à l’extérieur. La semaine dernière, un employé de Google a diffusé en interne, notamment par e-mail, un document d’une dizaine de pages dénonçant la politique de l’entreprise en matière de diversité.

    Ce message, que le site spécialisé Gizmodo a pu se procurer et a publié dans son intégralité samedi 5 août, estime notamment que le manque de femmes au sein des ingénieurs de l’entreprise, et à des postes à responsabilité, ne relève pas du sexisme. Pour lui, ce sont les « différences biologiques » qui l’expliquent. Les femmes sont, assure-t-il, « plus ouvertes aux sentiments et à l’esthétique qu’aux idées. (…) Elles ont généralement un intérêt plus fort que les hommes pour les gens, plutôt que pour les objets. Ces différences expliquent en partie pourquoi les femmes préfèrent relativement les métiers des secteurs sociaux ou artistiques ». Contrairement aux hommes qui, selon lui, sont plus attirés par le code.

    • De l’article original, avec le texte intégral de la note, cette recommandation pour atténuer le #blues_du_mâle_blanc_réac et, accessoirement, faire du business (qui c’est qu’à les sous ?)

      Exclusive : Here’s The Full 10-Page Anti-Diversity Screed Circulating Internally at Google [Updated]
      http://gizmodo.com/exclusive-heres-the-full-10-page-anti-diversity-screed-1797564320

      Stop alienating conservatives.
      • Viewpoint diversity is arguably the most important type of diversity and political orientation is one of the most fundamental and significant ways in which people view things differently.
      • In highly progressive environments, conservatives are a minority that feel like they need to stay in the closet to avoid open hostility. We should empower those with different ideologies to be able to express themselves.
      • Alienating conservatives is both non-inclusive and generally bad business because conservatives tend to be higher in conscientiousness, which is require for much of the drudgery and maintenance work characteristic of a mature company.

    • Viré…

      Google licencie l’employé qui avait signé un manifeste anti-parité - Business Insider France
      http://www.businessinsider.fr/google-licencie-employe-auteur-manifeste-anti-parite

      Google a licencié un employé qui avait, dans une note interne à l’entreprise, justifié l’inégalité de traitement entre femmes et hommes dans le secteur des hautes technologies par des différences biologiques.

      James Damore, l’ingénieur ayant rédigé ce memo d’une dizaine de pages intitulé ""Google’s Ideological Echo Chamber", a confirmé son licenciement dans un courriel à Reuters, précisant avoir été remercié pour « #perpétuation_des_stéréotypes_de_genre ».

      Il a dit envisager tous les recours légaux possibles.

      J’imagine le dossier avec une telle motivation en prud’hommes…

    • Ben, le dossier suit son cours… et vient de se prendre une première gamelle qui aurait (c’est au conditionnel) abouti au retrait de l’un des recours.

      Premier revers pour James Damore, l’auteur d’un manifeste sexiste licencié par Google
      http://www.lemonde.fr/pixels/article/2018/02/19/premier-revers-pour-james-damore-l-auteur-d-un-manifeste-sexiste-licencie-pa

      Google n’a pas enfreint la loi en renvoyant James Damore. C’est du moins ce qu’assure dans un mémorandum publié lundi 19 janvier et rendu public jeudi 15 février par une avocate membre du National Labor Relations Board (NLRB), une agence américaine indépendante chargée d’enquêter sur les violations du droit dans le monde du travail.

      James Damore avait été licencié en août par son employeur, après avoir diffusé en interne un manifeste sexiste jugé contraire au code de conduite de l’entreprise. Dans le texte, l’ingénieur critiquait la politique de diversité de l’entreprise. Il expliquait aussi que la sous-représentation des femmes chez Google, notamment aux postes d’ingénieurs, était liée à des « différences biologiques », et non à une forme de sexisme.

      Après son renvoi, l’homme avait intenté deux actions en justice contre Google. La première est ce recours déposé auprès du NLRB le 7 août pour non-respect des droits dans le cadre de l’entreprise.

      La seconde, actée le 8 janvier, est une action groupée à l’initiative de M. Damore et d’un autre ancien salarié de Google, David Gudeman. Tous deux reprochent au grand groupe de la Silicon Valley de les avoir « ostracisés, rabaissés et sanctionnés pour leur point de vue politique hétérodoxe, et pour le péché supplémentaire de leur naissance, ayant fait d’eux des Blancs et/ou des hommes ».

      C’est sur la première que le mémorandum a porté. Ecrit par l’avocate Jayme Sophir, il recommande à la NLRB de ne pas donner suite à la plainte de James Damore, jugeant que le renvoi n’est pas contraire à la loi. Il considère en effet que les déclarations de l’ingénieur étaient « trop blessantes, discriminatoires et dérangeantes » pour être protégées par le principe de liberté d’expression qui vaut dans les entreprises. Elles constituent par ailleurs selon le mémo « du harcèlement sexuel », malgré les « efforts » faits pour enrober le manifeste de « références et analyses “scientifiques” ».

      Si ce texte n’a pas en soit de valeur législative († sic), il aurait pu influencer le jugement de la NLRB. Cependant, selon plusieurs médias, parmi lesquels Techcrunch, Wired et Bloomberg, James Damore aurait décidé d’abandonner les poursuites auprès de la NLRB quelques jours après sa publication.

      La seconde plainte de l’ingénieur, menée sous la forme d’une action collective, est, elle, toujours bien engagée contre Google.

      † lire évidemment «  valeur juridique  » à la place du débile «  valeur législative  »