• Un contrat à 10 millions d’euros avec la DGSI
    http://www.telerama.fr/medias/palantir-big-data-renseignement,153229.php

    En mars 2015, quelques semaines après l’attentat contre Charlie Hebdo et l’Hyper Cacher, Palantir a ouvert une filiale française, sur la très chic avenue Hoche, à quelques centaines de mètres de l’Arc de Triomphe. En toute discrétion, comme à son habitude. Après des mois de démarchages et de tractations, la firme américaine a trouvé un accord avec la Direction générale de la sécurité intérieure (DGSI). Selon nos informations, recueillies auprès de plusieurs sources au sein des services de renseignement, le contrat aurait été signé à l’été 2016. Montant estimé : 10 millions d’euros. 5% du budget de la DGSI. Auditionné par la commission défense de l’Assemblée nationale en mai dernier, Patrick Calvar, son patron, balisait le terrain en invoquant l’urgence : « Nous ne manquons pas de données ni de métadonnées, mais nous manquons de systèmes pour les analyser [...] Les entreprises françaises qui [les] développent ne sont pas encore capables de répondre à nos besoins, alors que nous devons acquérir ce big data immédiatement. Nos camarades européens sont dans la même situation. Le choix n’a pas encore été fait mais, en tout état de cause, la solution sera temporaire. »

    #palantir #dgsi #data #surveillance #silicon_army
    #Peter_Thiel #Alex_Karp #trump #NSA #RGPD


  • Know your history: Google has been a military-intel contractor from the very beginning | Surveillance Valley — Yasha Levine
    https://surveillancevalley.com/blog/google-has-been-a-military-contractor-from-the-very-beginning

    Know your history: Google has been a military-intel contractor from the very beginning
    Mar 06, 2018

    #maven #silicon_army


  • «I’m a digital worker, killing an arab. Chronique de la guerre algorithmique.»
    http://www.affordance.info/mon_weblog/2018/03/im-a-digital-worker-killing-an-arab.html

    Il y a quelques années de cela, de nouvelles « #Captcha » sont arrivées. Sous forme de tableau découpé en 9 ou 12 cases, on y voit des paysages, des immeubles d’habitation, des panneaux de signalisation, et l’on nous demande de « cliquer » sur les cases qui comportent ou ne comportent pas tel ou tel élément.

    Et puis à la faveur d’un article de Gizmodo (https://gizmodo.com/google-is-helping-the-pentagon-build-ai-for-drones-1823464533) publié le 6 Mars 2018, on apprend ce dont nous nous doutions déjà vaguement sans y prêter une attention particulière, à savoir que #Google collabore avec le département de la défense américain (Department of Defense ou « #DoD » ci-après). Comme plein d’autres sociétés au travers de programmes de recherche militaires. Jusque-là donc rien de très nouveau.

    Mais nous apprenons aussi que cette collaboration consiste notamment à fournir des technologies d’#intelligence_artificielle permettant de faire du guidage de #drones de combat sur des terrains d’opérations militaires. Cela s’appelle (dans sa première phase en tout cas) le projet Maven.

    (...) Le point commun entre une attaque militaire menée par des drones et l’accès à une vidéo cachée derrière un captcha où il faut reconnaître différents éléments d’une image ? Google. Et notre participation à l’effort de guerre en tant que tâcherons bénévoles et captifs.

    Si la plupart des Captchas utilisent des images représentant des panneaux de signalisation, des paysages, des environnements urbains ou montagneux ou désertiques, si l’on nous demande de « reconnaître » des panneaux, des immeubles, des habitations, des voitures, des montagnes et ainsi de suite, c’est aussi pour entraîner des drones de combat, qui eux-mêmes devront ensuite être capables de les reconnaître sur un théâtre d’opération, en (bonne ?) partie grâce à nous. Et ce « aussi » fait toute la différence.


  • [NSA] Trouver votre voix, par Ava Kofman Traduction Les Crises - The Intercept - Ava Kofman - le 19 janvier 2018
    https://www.les-crises.fr/nsa-trouver-votre-voix-par-ava-kofman

    Oubliez Siri et Alexa – Quand on parle d’identification vocale, la NSA règne en « maître absolu ».

    . . . . . . . . . .
    Les nouveaux outils vocaux
    Tandis que les américains sont au courant depuis 2013 de la collecte massive de données téléphoniques nationales et étrangères par la NSA, le processus par lequel ces données brutes sont converties en informations significatives est resté largement confidentiel. En 2015, The Intercept rapportait que la NSA avait mis au point une série de « technologies du langage humain » pour donner un sens à l’extraordinaire quantité des données audio recueillies par le gouvernement. En développant des programmes pour traduire automatiquement la parole en texte – ce que les analystes appelaient « Google for voice » – l’agence pouvait utiliser des mots-clés et des « sélecteurs » pour rechercher, lire et indexer des enregistrements qui auraient autrement nécessité un nombre infini des personnes pour les écouter.

    La reconnaissance des locuteurs est apparue en même temps que ces logiciels synthétiseurs de la parole au texte comme une technique additionnelle pour aider les analystes à trier les innombrables heures d’interceptions en provenance des zones de guerre. Une grande partie de sa croissance et de sa fiabilité est due aux investissements de la NSA et du Département de la Défense. Avant l’ère numérique, la reconnaissance des locuteurs était principalement pratiquée en science médico-légale. Pendant la Seconde Guerre mondiale, des analystes humains ont comparé les empreintes visuelles des fréquences vocales à la radio. Selon Harry Hollien, l’auteur de Forensic Voice Identification, ces machines à « parole visible », connues sous le nom de spectrogrammes, ont même été utilisées pour réfuter une rumeur selon laquelle Adolf Hitler aurait été assassiné et remplacé par un double.

    « Les empreintes vocales étaient quelque chose que l’on pouvait examiner », explique James Wayman, un éminent spécialiste de la reconnaissance vocale qui préside les efforts fédéraux visant à recommander des standards pour la reconnaissance médico-légale des locuteurs. Il a souligné que le terme « empreinte vocale », bien qu’il soit largement utilisé par les fournisseurs commerciaux, peut être trompeur, car il implique que l’information saisie est physique plutôt que comportementale. « Ce que vous avez maintenant, c’est une équation intégrée dans un logiciel qui crache des chiffres », a-t-il dit.
    Ces équations ont évolué de simples moyennes à des modèles algorithmiques dynamiques. Depuis 1996, la NSA a financé le National Institute of Standards and Technology Speech Group pour développer et tester ce qu’elle appelle “l’approche algorithmique la plus dominante et la plus prometteuse face aux problèmes de reconnaissance des locuteurs”. Parmi les participants qui testent leurs systèmes avec le NIST figurent des entreprises de pointe en biométrie et des universitaires, dont certains sont financés par la NSA et la Defense Advanced Research Projects Agency, ou DARPA.

    Le silence de la NSA autour de son programme de reconnaissance des locuteurs rend difficile de déterminer ses pouvoirs actuels. Mais étant donné les liens étroits qui existent entre la recherche universitaire financée par la NSA et les entreprises privées, une bonne approximation des capacités des NSA peut être tirée de ce que font d’autres pays – et quels fournisseurs les vendent.
    Par exemple, Nuance, l’un des leaders du secteur, fait de la publicité auprès des gouvernements, des forces armées et des services de renseignement « un système biométrique vocal national capable d’identifier et de segmenter rapidement et avec précision les individus au sein de systèmes comprenant des millions d’empreintes vocales ». En 2014, l’Associated Press a rapporté que la technologie de Nuance avait été utilisée par la plus grande société turque de téléphonie mobile pour collecter des données vocales auprès d’environ 10 millions de clients.

    En octobre, Human Rights Watch a signalé que le gouvernement chinois avait constitué une base de données nationale d’empreintes vocales afin de pouvoir identifier automatiquement les personnes qui parlent au téléphone. Le gouvernement vise à relier la biométrie vocale de dizaines de milliers de personnes à leur numéro d’identité, leur origine ethnique et leur adresse. Selon HRW, le distributeur de logiciels vocaux chinois a même breveté un logiciel permettant de localiser les fichiers audio pour « surveiller l’opinion publique ».
    En novembre, un projet international majeur de reconnaissance des locuteurs financé par l’Union européenne a passé son test final, selon un communiqué de presse d’Interpol. Plus de 100 analystes du renseignement, chercheurs et agents des services de police de plus de 50 pays – dont Interpol, le Metropolitan Police Service du Royaume-Uni et la Polícia Judiciária portugaise – ont assisté à la présentation, au cours de laquelle les chercheurs ont prouvé que leur programme pouvait identifier des « locuteurs inconnus parlant dans différentes langues… par le biais de médias sociaux ou de moyens audio légalement interceptés ».

    Les documents de la NSA examinés par The Intercept décrivent les contours d’un système aussi extensif – un système qui, dans les années qui ont suivi le 11 septembre, a permis aux « analystes linguistiques de passer au crible des centaines d’heures de montages vocaux en quelques secondes et de sélectionner des éléments d’intérêt potentiel en fonction de mots clés ou de la reconnaissance vocale des locuteurs. »

    . . . . . . . . . .
    Article original : https://theintercept.com/2018/01/19/voice-recognition-technology-nsa
    #NSA #reconnaissance-audio    #surveillance #internet   #vie_privée   #espionnage   #silicon_army    #privacy    #usa    #contrôle    #sécurité    #censure    #écoutes   #etats-unis #voix


  • Google’s true origin partly lies in CIA and NSA research grants for mass surveillance, by Jeff Nesbit — Quartz
    https://qz.com/1145669/googles-true-origin-partly-lies-in-cia-and-nsa-research-grants-for-mass-surveill

    Did the CIA directly fund the work of Brin and Page, and therefore create Google? No. But were Brin and Page researching precisely what the NSA, the CIA, and the intelligence community hoped for, assisted by their grants? Absolutely.

    The CIA and NSA funded an unclassified, compartmentalized program designed from its inception to spur something that looks almost exactly like Google.

    To understand this significance, you have to consider what the intelligence community was trying to achieve as it seeded grants to the best computer-science minds in academia

    #surveillance #google #CIA #origin_stories #recherche

    • Au début de Google, il y avait d’autres moteurs de recherche (altavista par exemple) presque aussi bons, et ce n’est pas le petit avantage qu’avait Google qui permet d’expliquer son succès à plates coutures...

      En revanche, si la CIA a créé et financé Google, cela explique les moyens gigantesque mis à sa disposition pour acquérir les #Big_Data avec lesquelles elle a acquis ses compétences (pensez par exemple aux photos de chaque maison de chaque rue de chaque ville de chaque pays de toute la planète !), son pouvoir et, en retour, sa fortune, avec au passage la mise au ban de tous ses concurrents.

      Je m’en doutais un peu, mais ce genre d’article permet de remonter le scénario. Aujourd’hui encore, Google travaille donc de concert avec la CIA, comme en témoigne le passage d’Eric Schmidt, ancien PDG de Google et actuel président d’Alphabet, comme conseiller officiel pour le Pentagone...
      https://seenthis.net/messages/466670

      En même temps, c’est aussi l’armée américaine qui a inventé internet, ce n’est pas si étonnant qu’ils veuillent que ça leur soit utile. A nous de le savoir et d’en tenir compte...

    • C’est un peu plus fin, quand même, quand c’est apparu, ils se sont basés sur des recherches (scientifiques) qui aboutissaient à une manière bien différente de trier la pertinence des résultats par rapport aux concurrents. Donc quand on allait dessus, dans pas mal de cas « ça marchait mieux ». C’est quand même un facteur important d’adoption (et qui a abouti à la base utilisateur permettant le big data). Mais ils ont misé sur le bon cheval…

    • Ca marchait un peu mieux, certes, mais en général on était habitués à ce que lors de la version suivante, le concurrent rattrapait son retard, ce qui permettait de ne pas changer ses habitudes, alors que là ils ont fait le vide autour d’eux en quelques mois à peine... Mais bon, je ne veux pas paraître parano...

    • Une #guerre_culturelle comme la CIA sait les mener depuis longtemps.
      Google a su forcer la main des optimistes béats de la technologie alors que les leaders d’opinion comme certain·es intellectuel·les inconscient·es tenaient un discours enchanteur sur la praticité informatique de cette firme (et des autres). Je ne sais comment l’amollissement de leur esprit, très certainement complexé de leur méconnaissance technique (mais oui, donnons le pouvoir aux enfants pour avoir des dictateurs tout neufs), les a rendu aussi incapables de voir que Google allait devenir un operating system au même titre qu’Apple ou Windows, mais avec une hégémonie particulièrement revendiquée de #BigBrother.
      Pour ma part j’approfondirai un jour ma pensée du fait que mettre un pied dans Google est comparable à accepter de mourir.
      POur la petite histoire je viens d’acheter un lave-linge avec la *%#@ robotisé de Google en cadeau, un truc qui se vend soit-disant à 60 euros et qui est entrain d’entrer par la petite porte de la gratuité (également via les opérateurs téléphonqiues) dans tous les foyers … je ne sais pas encore comment je vais noyer cette merde, si vous voulez la décortiquer, je vous l’envoie.
      #boycott_google

    • C’est un effet cumulé, je me souviens qu’altavista c’etait assez performant pour la recherche d’image mais moins pour d’autres type de contenus et que google avait l’avantage d’être sobre, simple et de combiné plusieurs moteurs de recherche en un.
      J’essaye de mon coté de passé sur Qwant depuis deux ou trois semaines mais presque systématiquement je trouve pas ce qui m’interesse et je doit doublé ma recherche sur gogol qui trouve ce que je veux :’(



  • Le fondateur d’Oculus revient avec une technologie de surveillance des frontières
    http://www.01net.com/actualites/le-fondateur-d-oculus-revient-avec-une-technologie-de-surveillance-des-fronti

    Palmer Luckey se lance dans une nouvelle entreprise : développer un système de surveillance des frontières et des zones sensibles grâce à des capteurs et des radars Lidar. Quelques mois après avoir « quitté » Facebook, Palmer Luckey, fondateur d’Oculus, a créé une nouvelle start-up dans un domaine où on ne l’attendait pas forcément : la défense. Le New York Times rapporte qu’on y développe une technologie de surveillance qui pourrait être déployée aux frontières et autour des bases (...)

    #Oculus #frontières #surveillance


  • Oculus Founder Plots a Comeback With a Virtual Border Wall
    https://www.nytimes.com/2017/06/04/business/oculus-palmer-luckey-new-start-up.html

    Palmer Freeman Luckey was the kind of wunderkind Silicon Valley venerates. When he was just 21, he made an overnight fortune selling his start-up, a company called Oculus VR that made virtual-reality gear, to Facebook for $2 billion in 2014. But the success story took a sideways turn this year when Mr. Luckey was pressured to leave Facebook months after news spread that he had secretly donated to an organization dedicated to spreading anti-Hillary Clinton internet memes. While Mr. Luckey (...)

    #Oculus #frontières #surveillance


  • Why Google Is Suddenly Obsessed With Your Photos – The Ringer
    https://theringer.com/google-photos-data-collection-e8578b3256e0

    the way Google Photos works now certainly won’t be the same way it functions in the future, and ideas that sound invasive today could be sold as innovative tomorrow. In 2009, one of Google’s annual April Fool’s Day jokes was an AI program that could scan users’ emails and automatically write appropriate responses. In 2015 this far-fetched concept was added to the company’s email app Inbox, and last week it rolled out on Gmail. When Google was first delving into voice recognition, it felt the need to ask users to donate their Google Voice voicemails for research purposes. Today the company saves all voice search queries by default and uses them to train its AI systems. The company tends to argue that these sorts of use cases don’t pose privacy concerns because people’s messages and voices are being screened by a computer, not a human.

    The cliché when criticizing free internet platforms has always been “You are the product.” Today a more accurate critique might be “You are the resource.” For a long time we worried that tech giants might sell our private information to the highest bidder. But with Silicon Valley throwing all its efforts into artificial intelligence, data itself has become its own currency. (…)

    #photos #IA #Google #silicon_army


  • 5 Corporations Now Dominate Our Privatized Intelligence Industry | The Nation
    https://www.thenation.com/article/five-corporations-now-dominate-our-privatized-intelligence-industry

    five corporations that together employ nearly 80 percent of the private-sector employees contracted to work for US spy and surveillance agencies.

    (…) For the first time since spy agencies began outsourcing their core analytic and operational work in the late 1990s, the bulk of the contracted work goes to a handful of companies: #Leidos, #Booz_Allen_Hamilton, #CSRA, #SAIC, and #CACI_International. This concentration of “pure plays”—a Wall Street term for companies that makes one product for a single market—marks a fundamental shift in an industry that was once a highly diverse mix of large military contractors, small and medium technology companies, and tiny “Beltway Bandits” surrounding Washington, D.C.

    As I argue below, these developments are incredibly risky for a country more dependent than ever on intelligence to fight global wars and prevent domestic attacks.

    #silicon_army #complexe_militaro-industriel #États-Unis


  • Donald Trump et la Silicon Valley, «c’est compliqué» | Mediapart
    https://www.mediapart.fr/journal/international/060317/donald-trump-et-la-silicon-valley-c-est-complique?onglet=full

    Lorsque l’homme d’affaires a affiché son soutien à Donald Trump, beaucoup s’attendaient à ce que Mark Zuckerberg rompe tout lien avec lui, ne serait-ce que pour une question d’image. Il n’en a rien été. Au mois d’octobre dernier, peu après la polémique de Y Combinator, le site Hacker News a révélé une note interne envoyée par le PDG de Facebook pour justifier le maintien de Peter Thiel. « Nous ne pouvons pas créer une culture qui prétend se préoccuper de la diversité et qui exclut près de la moitié du pays parce qu’il soutient un candidat politique », expliquait Mark Zuckerberg à ses salariés.

    Le cas de Peter Thiel n’est pas le seul événement à avoir fait débat au sein de Facebook durant la campagne présidentielle. Un vent de rébellion a même soufflé l’année dernière après la diffusion sur le réseau social de plusieurs posts de Donald Trump ayant choqué de nombreux salariés. Un message notamment, datant du 7 décembre 2015 et dans lequel le candidat républicain s’engageait à « empêcher l’immigration musulmane », a mis le feu aux poudres. Dans ce texte, depuis modifié, le futur président américain détaillait son fameux projet de « muslim ban » dans une version encore plus radicale que la mesure finalement adoptée. Donald Trump ne limitait pas, à l’époque, l’interdiction d’entrée sur le territoire aux ressortissants de pays « suspectés de terrorisme » mais tout simplement à l’ensemble des musulmans, quelle que soit leur origine.

    Ce « post » a été massivement signalé aux services de modération de Facebook où un débat interne s’est engagé, raconte le Wall Street Journal. Sur le service de messagerie instantanée, des employés ont plaidé pour une suppression du texte, en raison des violations évidentes des règles de bonne conduite du réseau social. Ce sont leurs supérieurs qui leur auraient donné l’ordre de ne pas le supprimer. La directrice « du management de la politique globale » de Facebook, Monika Bickert, aurait même justifié cette décision dans un mémo interne expliquant que le réseau social se devait de rester neutre durant la campagne.

    Malgré des demandes de ses salariés, Mark Zuckerberg a décidé, au mois de décembre 2015, que les posts de Donald Trump ne seraient pas censurés. Cette décision personnelle du fondateur de Facebook avait ouvert une véritable crise au sein de la société, raconte le Wall Street Journal.

    En dehors de l’aide active de Peter Thiel, et de celle plus passive de Mark Zuckerberg, Donald Trump a pu compter durant la campagne sur d’autres soutiens qui, le plus souvent, ont tout fait pour rester discrets. Le 23 septembre, le site Daily Beast a révélé l’activisme pro-Trump de Palmer Luckey, le fondateur de la société de réalité virtuelle Oculus Rift, revendue à Facebook en 2014 pour 2 milliards de dollars. Le jeune multimillionnaire de 24 ans a donné quelques milliers de dollars à une organisation baptisée Nimble America ayant pour objectif affiché de mettre en ligne des détournements, des « mèmes », des blagues sur Hillary Clinton et de les faire circuler. Palmer Luckey a lui-même mis la main à la pâte via un compte, « NimbleRichMan », ouvert pour lui sur le réseau social Reddit.

    Les entreprises du numérique ont à la fois trop à gagner à travailler avec l’administration Trump, et trop à perdre à s’y opposer. Outre les avantages que peuvent espérer les entreprises d’un président ultralibéral, elles peuvent également craindre les éventuelles conséquences d’une opposition frontale. Même aux États-Unis, le pouvoir exécutif dispose de pouvoirs économiques non négligeables, désormais entre les mains d’un milliardaire aux méthodes souvent brutales. Durant la campagne, Donald Trump avait ainsi menacé le PDG d’Amazon, Jeff Bezos, de « problèmes » en raison du « monopoly » que constituerait son entreprise et de son organisation fiscale.

    L’un des premiers à avoir ouvertement brisé le tabou depuis l’élection est Gary Shapiro, président de l’influente Consumer Technology Association (CTA), une entité cumulant à la fois les fonctions de syndicat professionnel pour l’industrie électronique grand public, lobby pour la diffusion des nouvelles technologies et organisme de standarisation. C’est elle notamment qui organise, chaque année à Las Vegas, le Consumer Electronics Show, la grand-messe du high-tech.

    J’aime beaucoup celle-là :

    Comme le résumait Gary Shapiro, la question qui se pose aujourd’hui aux patrons de la Silicon Valley est celle-ci : « Êtes-vous plus préoccupés par ce que le président Trump peut faire avec un tweet ou êtes-vous plus préoccupés par ce que peuvent faire vos clients ? »

    Entre digital labor et salariat hyper-qualifié

    La mobilisation des salariés est révélatrice du pouvoir que ces derniers détiennent au sein de certaines entreprises du high-tech. Celles-ci ont en effet réussi à réunir certains des meilleurs informaticiens, mathématiciens ou développeurs du monde, en leur faisant miroiter des conditions de travail idylliques, mais également des valeurs telles que l’ouverture d’esprit, la méritocratie, une responsabilité sociale… Aujourd’hui, c’est cette ressource humaine qui constitue la réelle richesse des sociétés de la Silicon Valley. Le site Wired rappelle par exemple qu’un employé de Facebook génère en moyenne 1,9 million de dollars par an, pour une compensation moyenne de 150 000 dollars. « Le retour sur investissement d’un employé est plus haut que le trafic de drogue », commentait un spécialiste des ressources humaines de l’université de San Francisco, John Sullivan. « Dans la Silicon Valley, la pression sur les entreprises pour qu’elles agissent à 100 % politiquement correct est constante et puissante », poursuivait-il. « Le taux de turnover est déjà tellement haut dans des sociétés comme Google, qu’il serait absurde de faire quoi que ce soit qui mette en colère ne serait-ce qu’une petite portion de votre force de travail. »

    #Silicon_Valley #Trump #politique


  • Apple raffole des start-ups israéliennes
    http://www.actuj.com/2017-03/israel/4834-apple-raffole-des-start-ups-israeliennes

    Après avoir déboursé près de 765 millions de dollars pour y mettre 3 start-ups israéliennes, le géant américain vient d’en rajouter une 4e à dans son panier. Après Anobit, le fabricant de mémoire flash en 2011, la société PrimeSense et son capteur 3D en 2013, LinX concepteur de caméras pour mobiles en 2015, la marque à la pomme vient d’acquérir RealFace, une 4ième start-up israélienne pour 1,9 million d’euros. Créée en 2004 par Gidi Littwin et Aviv Mader, deux anciens étudiants de l’Université de Tel-Aviv, (...)

    #Apple #biométrie #facial


  • #Donald_Trump et la #Silicon_Valley, « c’est compliqué »
    https://www.mediapart.fr/journal/international/060317/donald-trump-et-la-silicon-valley-c-est-complique

    Donald Trump et #Peter_Thiel, le 14 décembre 2016 © Reuters Après avoir fait ouvertement campagne contre le candidat républicain, les entreprises du #Numérique doivent maintenant composer avec la nouvelle administration. Malgré les oppositions à la politique migratoire, certains plaident déjà pour des relations plus apaisées au nom du réalisme économique. D’autres, comme le PDG de PayPal, ont depuis longtemps rejoint le camp Trump et placent leurs pions.

    #International #Fil_d'actualités #Facebook #Mark_Zuckerberg #Palanthir


  • Des intelligences artificielles au milieu des conversations numériques

    Facebook algorithms ’will identify terrorists’
    http://www.bbc.com/news/technology-38992657

    Facebook founder Mark Zuckerberg has outlined a plan to let artificial intelligence (AI) software review content posted on the social network.
    In a letter describing the plan, he said algorithms would eventually be able to spot terrorism, violence, bullying and even prevent suicide.

    He admitted Facebook had previously made mistakes in the content it had removed from the website.

    But he said it would take years for the necessary algorithms to be developed.

    The announcement has been welcomed by an internet safety charity, which had previously been critical of the way the social network had handled posts depicting extreme violence.
    Errors

    In his 5,500-word letter discussing the future of Facebook, Mr Zuckerberg said it was impossible to review the billions of posts and messages that appeared on the platform every day.

    “The complexity of the issues we’ve seen has outstripped our existing processes for governing the community,” he said.

    He highlighted the removal of videos related to the Black Lives Matter movement and the historical napalm girl photograph from Vietnam as “errors” in the existing process.

    Facebook was also criticised in 2014, following reports that one of the killers of Fusilier Lee Rigby spoke online about murdering a soldier, months before the attack.

    "We are researching systems that can read text and look at photos and videos to understand if anything dangerous may be happening.

    “This is still very early in development, but we have started to have it look at some content, and it already generates about one third of all reports to the team that reviews content.”

    “Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda.”

    Mr Zuckerberg said his ultimate aim was to allow people to post largely whatever they liked, within the law, with algorithms detecting what had been uploaded.

    Users would then be able to filter their news feed to remove the types of post they did not want to see.

    “Where is your line on nudity? On violence? On graphic content? On profanity? What you decide will be your personal settings,” he explained.

    "For those who don’t make a decision, the default will be whatever the majority of people in your region selected, like a referendum.

    "It’s worth noting that major advances in AI are required to understand text, photos and videos to judge whether they contain hate speech, graphic violence, sexually explicit content, and more.

    “At our current pace of research, we hope to begin handling some of these cases in 2017, but others will not be possible for many years.”

    The plan was welcomed by the Family Online Safety Institute, a member of Facebook’s own safety advisory board. The charity had previously criticised the social network for allowing beheading videos to be seen without any warning on its site.

    “This letter further demonstrates that Facebook has been responsive to concerns and is working hard to prevent and respond to abuse and inappropriate material on the platform,” said Jennifer Hanley, Fosi’s vice president of legal and policy.

    “I also really like the ability for users to customise their own experiences with these developments. It’s important to give users power over their online experiences, and additional tools and controls will be helpful.”

    Read Kamal Ahmed’s interview with Mark Zuckerberg

    « On y arrive : les algos justiciers », commente @arouvroy.

    Et puis aussi #Jigsaw :

    #Modération des #commentaires : Google propose un coup de pouce de l’intelligence artificielle
    http://www.lemonde.fr/pixels/article/2017/02/23/moderation-des-commentaires-google-propose-un-coup-de-pouce-de-l-intelligenc

    Les messages agressifs et haineux pullulent en ligne, et polluent, entre autres, les fils de commentaires de nombreux sites. Jigsaw, une organisation appartenant à Google et dont le but affiché est de « rendre le monde plus sûr grâce aux technologies », devait annoncer jeudi 23 février la mise à disposition de tous en open source d’une technologie censée aider à assainir les fils de discussion.

    Perspective, c’est son nom, a été testée plusieurs mois sur le site du New York Times. Il s’agit d’une technologie d’intelligence artificielle, ou plus précisément de #machine_learning (apprentissage des machines), capable d’évaluer, sur une note de 1 à 100, le degré de « toxicité » d’un commentaire. Pour y parvenir, elle a analysé des millions de commentaires du New York Times – mais aussi de Wikipédia – et scruté la façon dont ils étaient traités par l’équipe de modération du site. Le programme a ainsi appris à repérer les commentaires problématiques, en se basant sur l’expérience des humains qui l’ont précédé à cette tâche.

    Cet outil permet donc d’évaluer un commentaire bien plus rapidement qu’un humain – et pour un coût bien moindre. Mais n’a pas pour autant vocation à remplacer les modérateurs. Et pour cause : « Cette technologie est loin d’être parfaite », reconnaît volontiers Jared Cohen, le fondateur de Jigsaw, soulignant qu’il ne s’agit que « des premiers pas » de ce programme : « Plus l’outil sera utilisé, plus il s’améliorera. »

    Les sites peuvent d’ailleurs l’utiliser comme bon leur semble : ils peuvent par exemple faire en sorte que les commentaires repérés comme étant les plus problématiques soient envoyés en priorité aux modérateurs humains. Ils peuvent aussi donner la possibilité aux internautes de classer les commentaires en fonction de leur degré de « toxicité ». Ou pourquoi pas, propose Jigsaw, afficher un message au commentateur lui-même, au moment où il s’apprête à publier un message détecté comme violent ? Avec cette dernière méthode, « il est possible de réduire ce genre de discours de façon impressionnante », assure Jared Cohen, en référence à une expérimentation du même type menée par Riot Games, l’éditeur du jeu vidéo très populaire « League of Legends ».

    Jigsaw espère ainsi permettre à ces sites « d’héberger des conversations de meilleure qualité », explique Jared Cohen, mais aussi de créer un environnement plus sain pour faire revenir les personnes n’osant plus participer aux discussions. Outre le New York Times, plusieurs médias comme le Guardian ou The Economist se sont montrés intéressés. Pour l’instant, la technologie fonctionne en anglais, mais sera bientôt accessible dans d’autres langues.

    Et puis donc #silicon_army #terrorisme #surveillance #répression



  • Fake news is ’killing people’s minds’, says Apple boss Tim Cook
    https://www.theguardian.com/technology/2017/feb/11/fake-news-is-killing-peoples-minds-says-apple-boss-tim-cook

    Apple chief calls on governments and technology companies to crack down on misinformation in public discourse

    Diantre. On apprend donc que tout d’un coup les Gafam se soucient de nos cerveaux menacés. Bien… Sauf qu’il y a cette inquiétante formule :

    He said: “All of us technology companies need to create some tools that help diminish the volume of fake news. We must try to squeeze this…

    Apple rejoint donc les initiatives convergentes entre géants des médias (groupes Niel et Drahi par ex.) et mastodontes des technologies (Google, Facebook…) déjà annoncées cette semaine. La remise en question de la liberté d’expression voire d’une certaine neutralité du net n’est même plus cachée. On notera la petite précaution d’usage qui ne mange pas de pain mais qui est révélatrice :

    … without stepping on freedom of speech and of the press, …

    Surtout suivie de l’injonction :

    … but we must also help the reader.

    Je ne sais pas vous, mais je sais pas si j’ai envie (ou besoin) qu’Apple m’aide à choisir les infos que je lis.

    #fake_news #journalisme #silicon_army



  • Les #algorithmes de la #surveillance israélienne en Cisjordanie
    http://lemonde.fr/international/article/2016/11/25/les-algorithmes-secrets-de-la-surveillance-israelienne-en-cisjordanie_503799

    Selon plusieurs sources interrogées par Le Monde, l’#armée israélienne dispose d’un système de détection du risque et de prévention reposant sur des algorithmes. Il a été perfectionné depuis un an. « Tout dépend des impératifs du moment, explique un responsable de l’appareil sécuritaire. Les critères de recherche changent si l’on s’intéresse aux “loups solitaires” ou aux groupes armés locaux, qui, eux-mêmes, se divisent entre Hamas et djihadistes salafistes. Ce système émet plusieurs alertes par jour. Il aide au processus de décision, mais l’ordinateur ne remplace pas l’agent de renseignement. » Selon ce responsable, « plusieurs centaines d’attaques ont pu être ainsi évitées, même si on ne peut être sûr à 100 % que toutes les personnes interpellées allaient commettre une attaque imminente ».

    Ce système est conçu comme une pyramide à trois étages. A la base figure la quasi-totalité des Palestiniens de Cisjordanie (environ 2 millions, sur un total de 2,9 millions d’individus). Puis sont appliqués des critères démographiques et géographiques permettant d’affiner les recherches. Au deuxième niveau se trouvent tout au plus quelques dizaines de milliers de personnes. Au troisième et dernier niveau, il y a les individus considérés à hauts risques, suivis pas à pas, voire neutralisés au plus vite. C’est à ce stade que leur identité complète apparaît. « L’algorithme est créé pour scanner cette population sur la base d’informations administratives, en provenance d’Internet, du renseignement humain classique et de signaux téléphoniques, explique une source familière de ce dispositif. Parfois, il s’agit de données pures, sans signification en soi, qu’il faut croiser. C’est comparable, dans le secteur privé, à l’application #Waze qui propose au conducteur un itinéraire dans la circulation. »

    #silicon_army cc @opironet


  • Quel est le rapport entre Oculus Rift, l’extrême droite US et Donald Trump ?
    http://www.numerama.com/politique/196664-quel-est-le-rapport-entre-oculus-rift-lextreme-droite-us-et-donald-

    Un acteur de l’écosystème tech quasi-milliardaire se cache derrière le groupe le plus actif dans ses campagnes sur les réseaux sociaux contre Hillary Clinton. Qui est-il ? Réponse : Palmer Luckey, le jeune créateur de 24 ans de l’Oculus Rift, devenu riche après le rachat et la commercialisation de sa technologie par Facebook. Si tout cela vous paraît complètement absurde et que vous ne voyez pas le lien entre un brillant ingénieur, la haine raciale de l’extrême droite américaine et le candidat des (...)

    #domination #lobbying #Oculus


  • #Facebook et ses algorithmes, une enquête en 3 parties
    https://labs.rs/en/facebook-algorithmic-factory-immaterial-labour-and-data-harvesting

    1. Data collection – Immaterial Labour and Data harvesting
    2. Storage and Algorithmic processing – Human Data Banks and Algorithmic Labour
    3. Targeting – Quantified lives on discount

    #Datavisualisation #Surveillance #Silicon_army

    https://twitter.com/arnoferrat/status/777428166780551168
    https://twitter.com/arnoferrat/status/777445534973952000

    Au passage, je découvre le moteur de recherche de brevets de Google, qui permet d’avoir une présentation des centaines d’algorithmes déposés par Facebook.
    https://www.google.rs/search?tbm=pts&hl=en&q=inassignee%3A%22Facebook%2C+Inc.%22+


  • How Silicon Valley’s Palantir wired Washington - POLITICO
    http://www.politico.com/story/2016/08/palantir-defense-contracts-lobbyists-226969

    When a little-known Silicon Valley software startup began vying for national security contracts, it went up against an entrenched bureaucracy and opposition from major contractors skilled in the Washington game.

    But quickly, Palantir began pulling pages from the defense industry’s own playbook — bulking up on lobbyists, challenging the Pentagon’s contracting rules and getting members of Congress to sprinkle favorable language into defense legislation. Seven years later, the secretive firm has landed $1.2 billion worth of federal business, and critics say the legislative favors it has secured will give it a leg up on billions more.

    #libertariens (mon cul) #surveillance #lobbying #états-unis #silicon_army



  • Israel Launches Probe After Soldiers Pose as Google Logo
    http://www.nytimes.com/aponline/2016/06/21/world/middleeast/ap-ml-israel-google.html?_r=0

    Israel’s military says it is investigating a recent incident at an air force base in which soldiers were ordered to stand in formation to spell out the Google logo for the company’s visiting executives.

    The good question is what about the relation between Google (and others) and the military complex, in US obviously, but also in the rest of the world like this “incident” suggests there is something. Silicon Army you said?

    #Alphabet_(entreprise) #Armée_de_défense_d'Israël #Eric_Schmidt #Google #Israël #Silicon_Army #Silicon_Valley #Tsahal


  • Pentagon Turns to #Silicon_Valley for Edge in Artificial Intelligence
    http://www.nytimes.com/2016/05/12/technology/artificial-intelligence-as-the-pentagons-latest-weapon.html

    On Wednesday, Secretary of Defense Ashton B. Carter made his fourth trip to the tech industry’s heartland since being named to his post last year. Before that, it had been 20 years since a defense secretary had visited the area, he noted in a speech at a Defense Department research facility near Google’s headquarters.

    #Pentagone #IA


  • Twitter coupe l’analyse des tweets aux renseignements US
    http://www.silicon.fr/twitter-coupe-lanalyse-des-tweets-aux-renseignements-us-146928.html

    Selon la presse américaine, Twitter a demandé à Dataminr, un moteur d’analyse des tweets, de bloquer son accès aux renseignements américains. Décidément les relations entre les autorités américaines et les géants de l’IT ne sont pas au beau fixe. Après les crispations d’Apple au sujet de l’accès par le FBI d’un iPhone, c’est au tour de Twitter de monter au créneau. Selon le Wall Street Journal, le site de micro-blogging a demandé à son partenaire Dataminr, moteur d’analyse de tweets, de couper l’accès à son (...)

    #Twitter #écoutes #Dataminr #surveillance