• Marissa Mayer , CEO de Yahoo !, sa carrière résumée en une page. (c’est comme ça que je perçois l’article).
    Mon partage n’est pas une ode au capitalisme, plus, un intérêt pour une personne déconsidérée en plein cœur de l’économie de marché. Elle n’est sûrement pas à plaindre.
    En plus, un article du monde, d’habitude, je partage avec des pincettes (sur le nez). Mais la rubrique Pixel semble mieux travaillée.


    http://www.lemonde.fr/pixels/article/2017/04/28/le-lent-declin-de-la-toute-puissante-patronne-de-yahoo_5119598_4408996.html
    Extrait à ma sauce :

    Elle a étudié la psychologie cognitive. Elle arrive chez Google en 1999 comme la vingtième employée de l’entreprise, nommée responsable de la page d’accueil. Marissa Mayer participe à de très nombreux projets-clefs, dont la création d’AdWords, Gmail, Google Maps.
    À partir de 2010, lorsque Larry Page reprend le poste de PDG, Marissa Mayer, perd une partie de son pouvoir et est partiellement écartée des grandes décisions stratégiques.
    En juillet 2012, elle quitte Google pour diriger Yahoo ! dans une situation catastrophique. Elle met en place une vaste réorganisation. Alors que les actionnaires la pressent de licencier des milliers d’employés pour redresser les comptes, elle les convainc de lancer plutôt de nouveaux projets.
    Elle met en place un nouveau système d’évaluation des performances des salariés, censé les rendre plus productifs et pousser vers la sortie les moins impliqués, baptisé « Quarterly Performance Reviews ». Structurellement injuste, le système bloque l’avancement et les augmentations des employés, est critiqué à la fois par les salariés du bas de l’échelle et par les managers.
    Les révélations d’Edward Snowden sur l’espionnage de masse de la NSA révèlent que l’agence américaine espionne les données des utilisateurs de Yahoo !
    Le magazine Fortune, qui l’a placée plusieurs années dans son classement des plus puissants patrons au monde, la fait passer en 2016 dans sa liste des chefs d’entreprise les plus décevants.
    Les départs de personnes clefs se multiplient chez Yahoo !
    Elle part avec un parachute doré de 190 millions de dollars.

    #people #femmes #historicisation #silicon_valley

    • Commentaire trouvé dans la suite de l’article :

      La valeur boursière de Yahoo a été multipliée par 3 depuis son arrivée. Passant de 15 milliards à 45 milliards de dollars. Pas si mal pour quelqu’un qui a échoué .

      Les $190 Millions ne sont pas un cheque fait par Yahoo mais le benefice qu’elle tirera de la vente de ses actions.

      C’est vrai que l’article prend un ton d’échec ? Je ne l’ai pas lu ainsi.

    • J’inclus l’article complet si jamais il venait à cacher derrière un #paywal

      Elle part avec un parachute doré de 190 millions de dollars, mais en quittant Yahoo ! après le rachat de l’entreprise par Verizon, Marissa Mayer a cependant laissé beaucoup de son image. En cinq ans, depuis son arrivée en 2012 à la tête du géant du Web américain, Mme Mayer a multiplié les déceptions.

      Longtemps considérée comme la femme la plus puissante de la Silicon Valley, avec Sheryl Sandberg de Facebook, Marissa Mayer a eu une trajectoire stratosphérique. Née en 1975, elle a étudié la psychologie cognitive et l’informatique à Stanford (Californie), où elle se spécialise dans l’intelligence artificielle avant de rejoindre Google en 1999 comme la vingtième employée de l’entreprise – refusant au passage des offres prestigieuses, dont un poste d’enseignante à Carnegie Mellon (Pennsylvanie).

      Au sein de Google, qui croit à une très grande vitesse au début des années 2000, elle occupe rapidement des postes à responsabilité – elle est notamment nommée responsable de la page d’accueil de Google, à une époque où cette page est non seulement la vitrine mais aussi l’unique produit de ce qui n’est encore qu’un moteur de recherche. Elle a laissé dans l’entreprise l’image d’une travailleuse compulsive, obsessionnelle du détail – elle systématise les « tests A/B », consistant à présenter à deux échantillons de visiteurs des versions légèrement différentes du site pour voir laquelle est la plus efficace. Sous la direction de Marissa Mayer, chaque élément de la spartiate page d’accueil de Google est testé, depuis les nuances de couleur du logo jusqu’à la taille des éléments, au pixel près.

      Chez Google, Marissa Mayer participe à de très nombreux projets-clefs, dont la création d’AdWords, celles de Gmail, Google Maps ou encore Google News, tout en enseignant à temps partiel à Stanford. Nommée vice-présidente à la recherche et à l’expérience utilisateur en 2005, elle fait partie des « poids lourds » de l’entreprise, a l’oreille des deux fondateurs de Google (Larry Page et Sergueï Brin), et tout semble lui réussir.

      Mais à partir de 2010, lorsque Larry Page reprend le poste de PDG détenu par Eric Schmidt, les équilibres politiques se modifient : Marissa Mayer, qui a aussi son lot de critiques en interne, change de titre, perd une partie de son pouvoir, et est partiellement écartée des grandes décisions stratégiques.

      La sauveuse annoncée de Yahoo !

      En juillet 2012, elle quitte Google pour diriger Yahoo !, qui est à l’époque au creux de la vague ; l’entreprise, longtemps leader, est dans une situation catastrophique. Marissa Mayer est chargée de la redresser, et pour ce faire, elle lance un grand plan ambitieux, qui commence par la revente d’une partie de la participation de Yahoo ! dans le groupe de vente en ligne chinois Alibaba, en plein essor. L’argent dégagé lui permet de lancer une série d’acquisitions spectaculaires, dont Tumblr en 2013, la plate-forme de microblogs qui connaît alors un succès spectaculaire – mais que Yahoo ! a dû payer au prix fort, 1,1 milliard de dollars, et dont la valorisation est aujourd’hui estimée à 700 millions de dollars.

      En parallèle, elle met en place une vaste réorganisation de Yahoo !. Alors que les actionnaires la pressent de licencier des milliers d’employés pour redresser les comptes, elle les convainc de lancer plutôt de nouveaux projets, et s’engage à trouver d’autres sources d’économies. Elle instaure un système de vote interne, qui permet aux employés de soumettre des questions à la direction, organise de rencontres régulières sur le campus de l’entreprise… Surtout, elle met en place un nouveau système d’évaluation des performances des salariés, censé les rendre plus productifs et pousser vers la sortie les moins impliqués.

      Baptisé « Quarterly Performance Reviews », le système, inspiré de celui en vigueur à Google, est particulièrement byzantin : tous les managers doivent noter, chaque trimestre, tous leurs subordonnés, mais ils doivent le faire en respectant des pourcentages de notes. En pratique, seuls 10 % des employés d’une équipe peuvent obtenir la meilleure note, et 5 % de chaque équipe doit recevoir la pire notation. Structurellement injuste, notamment dans les plus petites équipes, le système bloque l’avancement et les augmentations des employés, est critiqué à la fois par les salariés du bas de l’échelle et par les managers, et provoque en 2013 une vaste fronde au moment où l’entreprise a pourtant réussi à redevenir « cool » depuis l’extérieur.

      S’y ajoutent de vives critiques contre l’interdiction, instaurée par Marissa Mayer, du télétravail, qui pénalise principalement les femmes ; le recrutement de plusieurs anciens « googlers », perçu comme du favoritisme ; et des procès pour licenciements abusifs intentés par d’ex-employés mis à la porte par la nouvelle direction.
      Piratages, problèmes juridiques…

      En un an, Marissa Mayer, accueillie en sauveuse par Yahoo !, est confrontée à des difficultés importantes en interne, tandis que Yahoo ! ne parvient pas à redresser la barre sur le plan financier. Les problèmes s’enchaînent aussi pour l’entreprise sur le plan de la vie privée des utilisateurs : les révélations d’Edward Snowden sur l’espionnage de masse de la NSA révèlent que l’agence américaine espionne les données des utilisateurs de Yahoo !, qui dément toute coopération.

      Plusieurs autres scandales se succèdent. En 2014, l’entreprise est victime d’un piratage de masse, concernant les données personnelles de près d’un milliard d’utilisateurs : c’est le plus important vol de données de l’histoire, qui ne sera rendu public que deux ans plus tard – et dont l’annonce viendra plomber les négociations de rachat par Verizon, qui obtiendra un rabais substantiel dans les discussions. Un autre revers majeur pour Marissa Mayer intervient en 2015, lorsque des incertitudes juridiques conduisent à l’abandon du projet de scission de la participation dans Alibaba, un projet majeur ardemment défendu par la PDG de Yahoo !.

      Marissa Mayer a finalement suivi la longue descente aux enfers de Yahoo !, alors que l’entreprise continue de perdre des parts de marché. Le magazine Fortune, qui l’a placée plusieurs années dans son classement des plus puissants patrons au monde, la fait passer en 2016 dans sa liste des chefs d’entreprise les plus décevants – au dernier trimestre 2015, son entreprise a perdu la somme astronomique de 4,4 milliards de dollars.

      Les départs de personnes clefs se multiplient chez Yahoo ! – dont celui du responsable de la sécurité du groupe, le très respecté Alex Stamos, à qui Marissa Mayer avait caché un accord secret avec le gouvernement américain pour détecter en temps réel des mots-clefs dans les e-mails des utilisateurs de Yahoo !.

      Malgré ces multiples échecs, avant que son départ de Yahoo ! ne soit officialisé, Marissa Mayer avait laissé entendre à plusieurs reprises qu’elle souhaitait continuer à diriger l’entreprise après son rapprochement avec AOL, décidé par Verizon. Mais cette option était jugée très peu crédible par tous les observateurs.

      L’article dit aussi de lire :
      http://siliconvalley.blog.lemonde.fr/2017/04/28/marissa-mayer-va-quitter-yahoo-avec-190-millions-de-dolla
      http://www.lemonde.fr/pixels/article/2017/03/15/yahoo-quatre-inculpations-prevues-dans-le-cadre-de-la-cyberattaque-de-2014_5
      http://www.lemonde.fr/pixels/article/2017/02/16/de-faux-cookies-ont-ete-utilises-pour-pirater-des-comptes-e-mail-yahoo_50805

    • Elle n’hérite que d’une seul livre et un brûlot
      Olivier Wurlod, « La patronne de Yahoo ! déçoit de plus en plus » , 24 heures,‎ 24 avril 2015, p. 13 (ISSN 1661-2256)
      Moi qui pensait trouver une autobiographie ou un bouquin de techniques cognitives.
      En fait, il y en a plein en anglais. Bizarre qu’ils n’apparaissent pas sur Wikipédia Fr.

    • Pour ta question d’il y a 3 mois : « C’est vrai que l’article prend un ton d’échec ? Je ne l’ai pas lu ainsi. »
      Le titre de l’article que tu linkais est quant même très dépréciatifs :

      Le lent déclin de la toute-puissante patronne de Yahoo !

      Marissa Mayer, intellectuelle brillante, passée par les plus hautes responsabilités à Google, a enchaîné échecs et mauvaises décisions à la tête de Yahoo !.

      Même si le contenu n’est pas conforme au titre (et le contenu détail pas mal de problèmes) et que le titre et l’accroche n’est pas fait par les mêmes personnes que le contenu de l’article, le résultat est que l’impression général qui se dégage est à base de « déclin, échecs et mauvaises décisions »

      Après ce qui est bon ou pas change selon les point de vue, pour les actionnaires ca semble de bonnes décisions, si comme le dit le commentaire que tu relève il y a un triplement de la valeur boursière.
      Si on parle de bonnes décisions du point de vue sociale, ca m’étonnerais qu’on puisse tripler la valeur en bourse de Yahoo dans faire des choses nuisibles aux populations du style évasion fiscale et ce genre de choses.

  • Des intelligences artificielles au milieu des conversations numériques

    Facebook algorithms ’will identify terrorists’
    http://www.bbc.com/news/technology-38992657

    Facebook founder Mark Zuckerberg has outlined a plan to let artificial intelligence (AI) software review content posted on the social network.
    In a letter describing the plan, he said algorithms would eventually be able to spot terrorism, violence, bullying and even prevent suicide.

    He admitted Facebook had previously made mistakes in the content it had removed from the website.

    But he said it would take years for the necessary algorithms to be developed.

    The announcement has been welcomed by an internet safety charity, which had previously been critical of the way the social network had handled posts depicting extreme violence.
    Errors

    In his 5,500-word letter discussing the future of Facebook, Mr Zuckerberg said it was impossible to review the billions of posts and messages that appeared on the platform every day.

    “The complexity of the issues we’ve seen has outstripped our existing processes for governing the community,” he said.

    He highlighted the removal of videos related to the Black Lives Matter movement and the historical napalm girl photograph from Vietnam as “errors” in the existing process.

    Facebook was also criticised in 2014, following reports that one of the killers of Fusilier Lee Rigby spoke online about murdering a soldier, months before the attack.

    "We are researching systems that can read text and look at photos and videos to understand if anything dangerous may be happening.

    “This is still very early in development, but we have started to have it look at some content, and it already generates about one third of all reports to the team that reviews content.”

    “Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda.”

    Mr Zuckerberg said his ultimate aim was to allow people to post largely whatever they liked, within the law, with algorithms detecting what had been uploaded.

    Users would then be able to filter their news feed to remove the types of post they did not want to see.

    “Where is your line on nudity? On violence? On graphic content? On profanity? What you decide will be your personal settings,” he explained.

    "For those who don’t make a decision, the default will be whatever the majority of people in your region selected, like a referendum.

    "It’s worth noting that major advances in AI are required to understand text, photos and videos to judge whether they contain hate speech, graphic violence, sexually explicit content, and more.

    “At our current pace of research, we hope to begin handling some of these cases in 2017, but others will not be possible for many years.”

    The plan was welcomed by the Family Online Safety Institute, a member of Facebook’s own safety advisory board. The charity had previously criticised the social network for allowing beheading videos to be seen without any warning on its site.

    “This letter further demonstrates that Facebook has been responsive to concerns and is working hard to prevent and respond to abuse and inappropriate material on the platform,” said Jennifer Hanley, Fosi’s vice president of legal and policy.

    “I also really like the ability for users to customise their own experiences with these developments. It’s important to give users power over their online experiences, and additional tools and controls will be helpful.”

    Read Kamal Ahmed’s interview with Mark Zuckerberg

    « On y arrive : les algos justiciers », commente @arouvroy.

    Et puis aussi #Jigsaw :

    #Modération des #commentaires : Google propose un coup de pouce de l’intelligence artificielle
    http://www.lemonde.fr/pixels/article/2017/02/23/moderation-des-commentaires-google-propose-un-coup-de-pouce-de-l-intelligenc

    Les messages agressifs et haineux pullulent en ligne, et polluent, entre autres, les fils de commentaires de nombreux sites. Jigsaw, une organisation appartenant à Google et dont le but affiché est de « rendre le monde plus sûr grâce aux technologies », devait annoncer jeudi 23 février la mise à disposition de tous en open source d’une technologie censée aider à assainir les fils de discussion.

    Perspective, c’est son nom, a été testée plusieurs mois sur le site du New York Times. Il s’agit d’une technologie d’intelligence artificielle, ou plus précisément de #machine_learning (apprentissage des machines), capable d’évaluer, sur une note de 1 à 100, le degré de « toxicité » d’un commentaire. Pour y parvenir, elle a analysé des millions de commentaires du New York Times – mais aussi de Wikipédia – et scruté la façon dont ils étaient traités par l’équipe de modération du site. Le programme a ainsi appris à repérer les commentaires problématiques, en se basant sur l’expérience des humains qui l’ont précédé à cette tâche.

    Cet outil permet donc d’évaluer un commentaire bien plus rapidement qu’un humain – et pour un coût bien moindre. Mais n’a pas pour autant vocation à remplacer les modérateurs. Et pour cause : « Cette technologie est loin d’être parfaite », reconnaît volontiers Jared Cohen, le fondateur de Jigsaw, soulignant qu’il ne s’agit que « des premiers pas » de ce programme : « Plus l’outil sera utilisé, plus il s’améliorera. »

    Les sites peuvent d’ailleurs l’utiliser comme bon leur semble : ils peuvent par exemple faire en sorte que les commentaires repérés comme étant les plus problématiques soient envoyés en priorité aux modérateurs humains. Ils peuvent aussi donner la possibilité aux internautes de classer les commentaires en fonction de leur degré de « toxicité ». Ou pourquoi pas, propose Jigsaw, afficher un message au commentateur lui-même, au moment où il s’apprête à publier un message détecté comme violent ? Avec cette dernière méthode, « il est possible de réduire ce genre de discours de façon impressionnante », assure Jared Cohen, en référence à une expérimentation du même type menée par Riot Games, l’éditeur du jeu vidéo très populaire « League of Legends ».

    Jigsaw espère ainsi permettre à ces sites « d’héberger des conversations de meilleure qualité », explique Jared Cohen, mais aussi de créer un environnement plus sain pour faire revenir les personnes n’osant plus participer aux discussions. Outre le New York Times, plusieurs médias comme le Guardian ou The Economist se sont montrés intéressés. Pour l’instant, la technologie fonctionne en anglais, mais sera bientôt accessible dans d’autres langues.

    Et puis donc #silicon_army #terrorisme #surveillance #répression

  • Contre le fichage des musulmans, Amnesty interpelle les entreprises collectant des données
    http://www.lemonde.fr/pixels/article/2017/02/27/contre-le-fichage-des-musulmans-amnesty-interpelle-les-entreprises-collectan

    Si Twitter, Facebook et Google ont assuré qu’ils ne participeraient pas à l’élaboration d’un tel fichier si l’administration Trump le leur demandait, ce n’est pas le cas d’autres entreprises qui collectent, analysent et vendent des données personnelles. « Il n’y a besoin que de cinq clics sur ExactData.com pour qu’on nous propose de télécharger les données concernant 1 845 071 personnes listées comme musulmanes aux Etats-Unis. » C’est face à ce constat que l’ONG Amnesty International et seize autres (...)

    #données #Islam #surveillance #discrimination #Amnesty

  • Internet of Things Teddy Bear Leaked 2 Million Parent and Kids Message Recordings - Motherboard
    https://motherboard.vice.com/en_us/article/internet-of-things-teddy-bear-leaked-2-million-parent-and-kids-mes

    A company that sells “smart” teddy bears leaked 800,000 user account credentials—and then hackers locked it and held it for ransom.

    #iot #objets_connectés #internet_of_shit

  • Sur Wikipédia, les « bots » aussi mènent des « guerres d’édition »

    http://www.lemonde.fr/pixels/article/2017/02/24/sur-wikipedia-les-bots-aussi-menent-des-guerres-d-edition_5085115_4408996.ht

    Des chercheurs de l’université d’Oxford ont étudié le comportement de ces petits programmes qui modifient automatiquement les pages Wikipédia. Certains ne cessent de défaire ce que les autres ont créé.

    Seulement voilà, si au début ces bots étaient rares et effectuaient chacun leurs tâches de leur côté, ils se sont peu à peu multipliés, jusqu’à effectuer, en 2014, près de 15 % de toutes les contributions, selon une autre étude menée par un chercheur de Google. Résultat : ils ont parfois fini par interagir, en modifiant les contributions des autres. Chacun étant programmé différemment, il se peut que les règles qui les animent ne soient pas toutes compatibles entre elles, et mènent à des guerres d’édition. « Bien que les bots de Wikipédia soient censés aider l’encyclopédie, ils défont souvent ce que d’autres ont fait, et ces “batailles” stériles durent parfois des années », expliquent les chercheurs.

    Rien de très polémique, donc. Mais ce constat montre, selon les chercheurs, « que même des bots relativement “bêtes” peuvent mener à des interactions complexes, ce qui peut avoir d’importantes implications dans la recherche en intelligence artificielle ». Ils précisent :
    « Un nombre de plus en plus important de décisions, options, choix et services dépend désormais du bon fonctionnement de bots. Et pourtant, nous en savons encore très peu sur la vie et l’évolution de nos “serviteurs numériques”. Plus particulièrement, prévoir la façon dont les interactions entre bots vont évoluer, même s’ils se basent sur des algorithmes très simples, représente déjà un défi. »

    Un défi qui pourrait avoir, selon eux, des conséquences dans des domaines aussi divers que la cybersécurité, les réseaux sociaux ou encore les voitures autonomes. Dans le Guardian, Taha Yasseri, coauteure de l’étude, souligne que les conflits existent souvent entre des bots créés par des wikipédiens de différents pays et cultures. « Cette complexité est un aspect fondamental qui doit être pris en compte dès qu’on parle d’automatisation et d’intelligence artificielle », assure-t-elle.

  • Au Royaume-Uni, Google et Bing s’engagent à limiter la visibilité des sites de contenus piratés
    http://www.lemonde.fr/pixels/article/2017/02/21/au-royaume-uni-google-et-bing-s-engagent-a-limiter-la-visibilite-des-sites-d

    Google et Microsoft ont signé au Royaume-Uni un « code de conduite », ont rapporté lundi 20 février le Guardian et la BBC. Ce code les engage à rendre moins visibles les sites proposant des contenus piratés, comme des films, de la musique, des livres ou des retransmissions de matches. Concrètement, les moteurs de recherche Google et Bing promettent de ne pas mettre en avant les sites signalés par les ayants droit quand les internautes chercheront des contenus. Ils s’engagent à valoriser à la place (...)

    #Google #Microsoft #Bing #GoogleSearch #surveillance #web #copyright

  • En Allemagne, une poupée connectée qualifiée de « dispositif d’espionnage dissimulé »
    http://www.lemonde.fr/pixels/article/2017/02/20/en-allemagne-une-poupee-connectee-qualifiee-de-dispositif-d-espionnage-dissi

    L’agence de régulation des réseaux a interdit le jouet à la vente, et enjoint aux parents de détruire ceux que leurs enfants possèdent. La Bundesnetzagentur, l’agence en charge de la régulation des réseaux en Allemagne, a publié vendredi 17 février un communiqué, dans lequel elle qualifie une poupée connectée, baptisée Cayla par ses fabricants, de « dispositif d’espionnage dissimulé ». Puisque de tels objets intrusifs sont interdits par la loi en Allemagne, le jouet se retrouve de fait interdit à la vente. (...)

    #Mattel #TalkTalk #jouet #famille #surveillance #enfants #Genesis_Toys

  • Modération, politique, intelligence artificielle… le « manifeste » de Mark Zuckerberg
    http://www.lemonde.fr/pixels/article/2017/02/17/moderation-politique-intelligence-artificielle-le-manifeste-de-mark-zuckerbe

    Jusqu’à présent, Facebook considérait que la « bulle de filtres », le fait de n’être confronté qu’à des opinions avec lesquelles nous sommes déjà d’accord, était un phénomène marginal et peu important sur le réseau social. Mais pour M. Zuckerberg, le problème principal concerne « le sensationnalisme et la polarisation [de l’information] qui mènent à l’absence de compréhension ».

    M. Zuckerberg, qui dit s’appuyer sur des études scientifiques, estime que ce problème peut être combattu. Il considère que l’approche la plus efficace sera de « présenter un large panel de perspectives, et de laisser les utilisateurs voir où se situent leurs opinions dans ce spectre, et les laisser parvenir à leur propre conclusion sur ce qui est juste ».

    Complétées par un discours critique, sans le nommer, à l’encontre du président Donald Trump, ces déclarations ne devraient pas manquer de relancer les spéculations sur les éventuelles ambitions politiques de Mark Zuckerberg. A la fin de janvier, le PDG de Facebook avait démenti vouloir se présenter aux élections, mais il multiplie les déplacements dans l’ensemble des Etats-Unis à la manière d’un candidat en campagne. Son long manifeste se termine d’ailleurs par une citation sur le pouvoir de l’imagination et la nécessité pour le peuple américain d’agir de concert – empruntée à Abraham Lincoln.

  • De faux cookies ont été utilisés pour pirater des comptes e-mail Yahoo !
    http://www.lemonde.fr/pixels/article/2017/02/16/de-faux-cookies-ont-ete-utilises-pour-pirater-des-comptes-e-mail-yahoo_50805

    Yahoo ! a envoyé à certains utilisateurs de sa messagerie, ce 15 février, un courriel les avertissant que leur compte avait pu être compromis par des pirates ayant contourné les mots de passe en utilisant des « cookies » contrefaits (des fichiers que de nombreux sites et services installent sur les ordinateurs de leurs visiteurs pour les identifier). Yahoo ! n’a pas précisé combien d’utilisateurs étaient concernés, mais assure dans son message que les cookies incriminés ont été « invalidés », afin que (...)

    #Verizon #Yahoo ! #cookies #hacking

    ##Yahoo_ !

  • Le délit de consultation de sites terroristes censuré par le Conseil constitutionnel

    http://www.lemonde.fr/pixels/article/2017/02/10/le-conseil-constitutionnel-censure-la-consultation-habituelle-de-sites-terro

    Le Conseil constitutionnel a aussi estimé que l’atteinte à la liberté de communication portée par ce délit n’est ni adaptée, ni proportionnée, puisqu’il « n’impose pas que [son] auteur ait la volonté de commettre des actes terroristes », pas plus qu’il adhère « à l’idéologie exprimée » sur ces sites. Autrement dit, et comme l’avait noté l’avocat François Sureau lors de son intervention devant le Conseil pour la Ligue des droits de l’homme, la loi contestée punit la « simple démarche intellectuelle ».

    La loi prévoyait une exception lorsque la consultation habituelle était réalisée « de bonne foi ». Le Conseil a semble-t-il entendu les arguments de M. Sureau, qui a estimé lors de l’audience que la loi attaquée empêchait « le citoyen d’une démocratie de se former une opinion justifiée sur l’une des menaces les plus graves qui pèsent sur notre société, sur sa nature et sur ses formes », jetant « un pan entier de la liberté de penser (…) dans l’ombre policière et répressive ». Les conseillers ont en effet balayé cette exception, jugeant qu’elle faisait « peser une incertitude sur (…) l’usage d’Internet pour rechercher des informations ».

    https://seenthis.net/messages/568432

  • Terrorisme : les systèmes d’analyse des comportements sont inefficaces
    http://www.lemonde.fr/pixels/article/2017/02/09/terrorisme-les-systemes-d-analyse-des-comportements-sont-inefficaces_5077173

    Des documents rendus publics montrent que les outils censés détecter les « comportements à risque » dans les aéroports américains fonctionnent mal. L’American Civil Liberties Union a publié, mercredi 8 février, une série de documents accablants pour la Transportation Security Administration (TSA), agence publique chargée de la sécurité dans les transports aux Etats-Unis. Depuis 2007, celle-ci a mis en œuvre un programme, le Behavior Detection and Analysis (anciennement SPOT, pour Screening of Passengers (...)

    #SNCF #CCTV #comportement #surveillance #voyageurs #discrimination #ACLU

    ##voyageurs

  • Des milliers d’imprimantes détournées avec humour par un pirate
    http://www.lemonde.fr/pixels/article/2017/02/07/des-milliers-d-imprimantes-detournees-avec-humour-par-un-pirate_5075945_4408

    Les messages imprimés soulignent la vulnérabilité de centaines de milliers d’objets connectés. Un hackeur affirme avoir détourné environ 150 000 imprimantes mal sécurisées et les avoir utilisées pour imprimer des messages humoristiques. Les différents messages imprimés mettent en garde les possesseurs des imprimantes, critiquent Donald Trump, disent qu’il faut économiser l’encre et sont pour certains illustrés par un petit robot dessiné à l’aide de (...)

    #bot #hacking

  • Donald Trump Won Because of Facebook (NY Mag)
    http://nymag.com/selectall/2016/11/donald-trump-won-because-of-facebook.html

    (un point de vue sans doute un peu exagéré)

    The most obvious way in which Facebook enabled a Trump victory has been its inability (or refusal) to address the problem of hoax or fake news. Fake news is not a problem unique to Facebook, but Facebook’s enormous audience, and the mechanisms of distribution on which the site relies — i.e., the emotionally charged activity of sharing, and the show-me-more-like-this feedback loop of the news feed algorithm — makes it the only site to support a genuinely lucrative market in which shady publishers arbitrage traffic by enticing people off of Facebook and onto ad-festooned websites, using stories that are alternately made up, incorrect, exaggerated beyond all relationship to truth, or all three. (To really hammer home the #cyberdystopia aspect of this: A significant number of the sites are run by Macedonian teenagers looking to make some scratch.)

    • La thèse de Fred Turner est que :

      La nouveauté introduite par la campagne de Donald Trump tient à sa capacité à utiliser des médias horizontaux et égalitaires pour leur faire célébrer un individualisme narcissique et mettre en circulation des théories fallacieuses et complotistes.

      Dans cette situation, l’audience de Trump ne se vit pas comme une « masse » et Trump lui-même n’apparaît pas comme un dictateur en devenir ; Trump est une personnalité médiatique de notre temps, et développe un totalitarisme pour notre époque.

      Cette thèse s’appuie sur une analyse historique de ces fameux médias sociaux comme héritiers d’une réflexion menée dès les années 1940 pour faire émerger des médias en mesure de contrer la mécanique de la propagande s’appuyant justement sur des médias de masse « traditionnels ». Cette réflexion s’appuyant sur des principes épistémiques biaisés (en gros théorie des systèmes, cybernétique, individualisme méthodologique...) et une réduction de la propagande à l’exploitation de phénomène psychologique (la personnalité autoritaire versus la personnalité démocratique), elle a accompagnée la montée de cet individualisme autoritaire dont Trump serait le couronnement

      Ainsi, la victoire de Trump n’est pas tant le résultat de sa capacité à instrumentaliser Facebook, mais bien plutôt le produit d’un monde qui permet à Facebook d’exister.

    • Zuckerberg denies Facebook News Feed bubble impacted the election | TechCrunch
      https://techcrunch.com/2016/11/10/zuck-denies-facebook-news-feed-bubble-impacted-the-election
      https://tctechcrunch2011.files.wordpress.com/2016/11/mg_1906.jpg?w=764&h=400&crop=1

      “Personally, I think the idea that fake news on Facebook, of which it’s a very small amount of the content, influenced the election in any way is a pretty crazy idea,” Zuckerberg said.
      (...) Rather than placing blame on the accessibility of facts, he pointed to content engagement as the problem. Zuckerberg noted that Trump’s posts got more engagement than Clinton’s on Facebook.

    • et dans cet article repéré par @kassem

      Digital Redlining After Trump : Real Names + Fake News on Facebook
      https://medium.com/@tressiemcphd/digital-redlining-after-trump-real-names-fake-news-on-facebook-af63bf00bf9e

      This week, Mark Zuckerberg denied that the rash of fake news on Facebook could have influenced public opinion during the election.
      It is notoriously difficult to prove a direct causal link between what people read or consume in media and how they act.
      But, that never stopped Facebook and other social media platforms for accepting credit for spreading democracy during the Arab Spring

    • La principale incitation à la « fake news » n’est pas la conquête du pouvoir, mais sa monétisation (qui elle-même n’est envisageable que dans le capitalisme renversé où la production de marchandise d’ordre 2 est devenu le moteur d’une accumulation de capital fictif dont les techniques numériques sont l’infrastructure adéquate, mais c’est une autre histoire...).

      https://www.theguardian.com/technology/2016/aug/24/facebook-clickbait-political-news-sites-us-election-trump

      Zuckerberg a raison de dire que Facebook n’est pas un média mais une plateforme (numérique).

      We’re a technology company. We’re not a media company. When you think about a media company, you know, people are producing content, people are editing content, and that’s not us. We’re a technology company. We build tools. We do not produce the content. We exist to give you the tools to curate and have the experience that you want, to connect with the people and businesses and institutions in the world that you want.

      Et c’est bien ça le problème !

    • Cette polémique est de plus en plus intéressante — Facebook avait les moyens d’agir et n’en a pas eu le courage :

      Facebook’s Fight Against Fake News Was Undercut by Fear of Conservative Backlash
      http://gizmodo.com/facebooks-fight-against-fake-news-was-undercut-by-fear-1788808204

      “They absolutely have the tools to shut down fake news,” said the source, who asked to remain anonymous citing fear of retribution from the company. The source added, “there was a lot of fear about upsetting conservatives after Trending Topics,” and that “a lot of product decisions got caught up in that.”

    • ce matin c’est grand ménage :

      Google and Facebook took on fake news. The search giant said it would prevent usage of its online advertising service by websites that peddle fake news. Facebook updated the language in its ad policy on misleading or illegal content to include fake news sites. The moves come amid criticism that fake news might have influenced the US election.
      http://qz.com/837312/google-goog-will-try-to-starve-fake-news-sites-of-ad-dollars
      http://qz.com/837474/facebook-fb-is-banning-fake-news-publishers-from-its-ad-network

    • #Renegade Facebook Employees Form Task Force To Battle Fake News
      https://www.buzzfeed.com/sheerafrenkel/renegade-facebook-employees-form-task-force-to-battle-fake-n

      “It’s not a crazy idea. What’s #crazy is for him [Mark Zuckerberg] to come out and dismiss it like that, when he knows, and those of us at the company know, that fake news ran wild on our platform during the entire campaign season,” said one Facebook employee, who works in the social network’s engineering division. He, like the four other Facebook employees who spoke to BuzzFeed News for this story, would only speak on condition of anonymity. All five employees said they had been warned by their superiors against speaking to press, and feared they would lose their jobs if named.

      The employees declined to provide many details on the task force. One employee said “more than dozens” of employees were involved, and that they had met twice in the last six days. At the moment, they are meeting in #secret, to allow members of the group to speak freely and without fear of condemnation from senior management.

      rien de tel chez seenthis pour l’instant !

    • La principale incitation à la « fake news » n’est pas la conquête du pouvoir, mais sa monétisation

      Qui a fait élire Trump ? Pas les algorithmes, mais des millions de “tâcherons du clic” sous-payés

      http://www.casilli.fr/2016/11/17/qui-a-fait-elire-trump-pas-les-algorithmes-mais-des-millions-de-tacherons-du

      1. Pour être plus clair : ce ne sont pas ‘les algorithmes’ ni les ‘fake news’, mais la structure actuelle de l’économie du clic et du digital labor global qui ont aidé la victoire de Trump.
      2. Pour être ENCORE plus clair : la montée des fascismes et l’exploitation du digital labor s’entendent comme larrons en foire.

      La thèse de Casilli mériterait d’être nuancée, notamment en prenant en compte celle de Turner pour montrer que le problème ne date pas de Facebook. Sans compter le fait que si Casilli donne une explication pertinente de la contribution des plateformes numériques à l’élection de Trump, cela n’en fait pas le seul facteur (ni même le principal)

      A ce titre, sa thèse mériterait des approfondissement sur la notion de "structure actuelle de l’économie", qu’elle soit du clic ou pas. La notion de digital labor (qu’il partage avec beaucoup de monde) comme producteur de valeur en prendrait un coup dans l’aile, mais serait mieux articulée avec les ressorts du capitalisme renversé qui sont déterminants depuis les années 1970 et s’appuient sur la montée en puissance du numérique.

    • Casilli donne une explication pertinente de la contribution des plateformes numériques à l’élection de Trump, cela n’en fait pas le seul facteur (ni même le principal)

      Par exemple, le facteur « conditions de santé » est fortement corrélé avec la progression du vote Trump

      Illness as indicator

      http://www.economist.com/news/united-states/21710265-local-health-outcomes-predict-trumpward-swings-illness-indicator

      [...] what the geographic numbers do show is that the specific subset of Mr Trump’s voters that won him the election—those in counties where he outperformed Mr Romney by large margins—live in communities that are literally dying. Even if Mr Trump’s policies are unlikely to alleviate their plight, it is not hard to understand why they voted for change.

    • tu peux développer @ktche, ce que tu entends par « les ressorts du capitalisme renversé » ?

      La capitalisme, c’est l’accumulation de travail sans contenu propre, uniquement appréhendé sur une base temporelle abstraite, et toujours en rapport avec un niveau de productivité que personne ne détermine en particulier mais sur lequel tout le monde doit implicitement s’aligner pour simplement participer : le capital se valorise en « consommant » ce travail productif, mais, paradoxalement, chaque capital individuel tend à le supprimer pour améliorer sa profitabilité face aux concurrents. Ceci pousse à l’augmentation permanente de productivité et donc induit une dynamique contradictoire. Le capitalisme est cette forme de synthèse sociale irrationnelle qui supprime tendanciellement ce qui en constitue la base incontournable.
      Chaque innovation technique de l’ère industrielle a participé à cette dynamique. Certaines en tant qu’innovation dans l’appareil de production, d’autres en tant qu’innovation ouvrant de nouveaux marchés de consommation. Ces dernières offraient une contre-tendance à la dynamique contradictoire et ont permis qu’elle se maintienne par le besoin renouvelé en masse de travail.
      Mais à partir des années 1970, les techniques numériques ont introduit des augmentations massives de productivité dans tous les secteurs productifs, à tel point que même les nouveaux marchés de biens et de services n’ont pu compenser la disparition tendancielle du travail. Pour poursuivre sa dynamique, le capital a enfourché un nouveau cheval : plutôt que de consommer du travail passé, il s’est mis à faire des paris sur un hypothétique travail futur. C’est ainsi que la finance est devenue l’industrie qui sert de locomotive au reste de l’économie, en produisant massivement de la dette et des titres financiers, c’est-à-dire des marchandises qui ne représentaient plus un travail accompli, mais la perspective d’un travail à venir. Cette simulation de valorisation permet au zombie de continuer à marcher. Le capitalisme est ainsi renversé, car il s’agit toujours de capitalisme, i.e. de production marchande, mais s’appuyant sur le futur au lieu du passé. Par ailleurs, cette production financière dont les espoirs de valorisation réussie sont toujours déçus (au niveau de productivité atteint, les besoins en masse de travail ne reviendront plus), doit sans cesse élargir sa production, ne serait que pour compenser la valeur des titres qui arrivent à échéance et qui ne sont pas couverts par une consommation réelle de travail productif. Cette production élargie n’est possible que sur la base d’un déploiement massif des techniques numériques pour en gérer le volume et la complexité.
      Ainsi les techniques numériques constituent un facteur indissociable de la phase « renversée » du capitalisme et ceci à double titre : comme cause du changement extrinsèque puis comme cause matérielle intrinsèque, donc.
      L’approche que je viens d’exposer nécessite de revoir assez profondément la notion de digital labor, tout au moins dans la façon dont le conçoit Casilli, mais aussi celles de Trebor Sholz ou Christian Fuchs contre lesquelles il l’a établie.

    • revoir assez profondément la notion de digital labor

      Contrairement à ce que supposent les approches qui identifient « activité captée par un tiers » et « travail productif (de valeur) », le temps de vie ne peut être transformé en force de travail dans n’importe quelle condition. Il faut d’abord que soit opérée la dissociation entre activité productive (au sens du capital, c’est-à-dire productive de valeur) et activité improductive. Cette dissociation opère à un niveau logique et global (une totalité), mais aussi à l’intérieur de toute activité particulière. La capital ne peut donc pas tout saisir pour en faire une force de travail, il doit d’abord faire le grand partage entre ce qui concourt à sa reproduction (la valorisation de la valeur) et ce qui est indispensable à cette reproduction sans être producteur de valeur en soi (le travail domestique notamment). Cette dissociation est aussi celle des genres, tels qu’ils sont exprimés (y compris dans ces aspects psychologique et subjectif) de façon bien spécifique dans la société capitaliste. Chacun des genres devient le masque de ces deux faces dissociées (mais insécables) : force de travail productif d’un coté pour le masculin, simple reproduction de la vie au sens large de l’autre pour le féminin.
      Ainsi la part d’ombre du travail productif (de valeur), ce sont toutes les activités qui sont improductives, mais qui sont transformées par le mouvement du capital pour servir indirectement à sa reproduction (et qui sont souvent des conditions nécessaires à cette même reproduction). Le capital constitue ainsi tendanciellement ces activités improductives à son image (d’où le coercitif), mais cela n’en fait pas pour autant la possibilité d’y appliquer l’exploitation d’une « force de travail » (et donc une opportunité de reproduire le capital lui-même)

      Contrairement à une vision superficielle du business model des plateformes numériques, telles que Google et Facebook, celles-ci ne vendent pas à leurs clients (les publicitaires et les annonceurs) des profils d’utilisateurs combinant informations démographiques et centres d’intérêts manifestés par leurs usages des contenus fournis par les plates-formes. Elles proposent plutôt un accès (payant) aux calculs effectués par leurs algorithmes (c’est là la véritable marchandise produite par les GAFA) pour lequel le client peut choisir une combinaison de données en entrée (effectivement de type localisation ou mot-clef) et qui fournit en sortie un élément d’interaction (généralement un lien navigable) intégré à la page servie à l’internaute et pointant vers le site du client, par exemple. Cette enchère sur les mots-clefs est juste un processus de formation des prix de marché (forme phénoménale superficielle qui manifeste la valeur dans la sphère de la circulation) et non pas la source d’une valeur reproduisant le capital. Ce processus de répartition de la valeur ne peut pas être décrit, même synthétiquement, comme de l’exploitation, au sens capitaliste, d’un travail abstrait de l’internaute producteur de données-marchandises, car la marchandise stricto sensu est constituée par le calcul, pour lequel le travail abstrait exploité est celui des employés – de Google et Facebook – en charge de la conception, de la réalisation et de la mise en œuvre des infrastructures numériques, aussi bien logicielles que matérielles. Par contre, il est indéniable que pour alimenter ces algorithmes, il faut « exploiter » le temps des internautes en les incitant, par leurs interactions au sein des plate-formes numériques, à remplir en permanence le réservoir de données requises. Mais cette part d’exploitation est celle d’une activité « à coté de l’économie », c’est-à-dire ne contribuant pas à la valorisation de la valeur, mais à la reproduction des conditions nécessaires pour que le processus puissent s’accomplir. En ce sens, le « travail » des internautes est comparable à celui accompli dans la sphère domestique. Et pour les mêmes raisons, ce travail n’est pas producteur de valeur. Car ce n’est pas l’achat ou la vente d’un bien – y compris immatériel – qui constitue la source de la (sur)valeur, mais les circonstances de sa production : a-t-il fait l’objet de l’exploitation d’un surtravail, i.e. de la vente par le travailleur pour un temps donné de sa force de travail, et non pas d’une activité concrète particulière ?

      L’activité d’une plateforme numérique est donc en soi (très) faiblement créatrice de valeur car elle contient (très) peu de travail productif (de survaleur) et que cela ne compense pas son éventuel (très) haut niveau de productivité. Comment expliquer alors la (très) forte valorisation des GAFAM ? Justement par le fait qu’ils opèrent dans la phase renversée du capitalisme où la création de valeur a été remplacée par sa simulation comme moteur de l’économie (y compris "réelle"). Leur valorisation n’est pas le reflet de leur capacité à produire de la valeur, mais à être des "porteurs d’espoirs" pour la production de titres financiers. Cette production doit toujours en effet avoir un point de référence dans "l’économie réelle" (Un indice quelconque corrélé à un espoir de production de valeur et projeté dans le futur). Dans le cas des plateformes numériques, ce point de référence, c’est l’accumulation permanente de données dont tous les acteurs de la sphère financière s’accorde à dire qu’elles sont les ressources pour de futures activités marchandes. Certes, ces activités seront marchandes, mais la quantité de valeur qu’elles produiront sera toujours décevante et il faudra donc se projeter encore dans de nouvelles simulations...

    • La cas exposé dans ce fil https://seenthis.net/messages/524134 mériterait une étude selon l’approche développée ci-dessus.

      Un article référencé (http://www.laviedesidees.fr/A-qui-profite-le-crime.html ) indique notamment :

      En proposant la forme « plateforme », Predpol se distingue des logiciels existants de cartographie du crime installés sur les ordinateurs de bureau (desktop) ou sur le réseau interne de la police (l’intranet). Predpol est une offre d’analyse du crime en temps réel qui prend la forme d’un tableau de bord, téléchargeable sur une simple application. Les données sont stockées sur le cloud. Les forces de police peuvent ainsi externaliser le coût de l’installation et de gestion de serveurs car la location du temps de calcul est intégrée dans l’offre.

      et plus loin :

      Quand bien même les forces de police comprendraient les limites de l’algorithme, elles ne renonceraient pas nécessairement à l’offre de Predpol, car l’efficacité prédictive de l’algorithme n’est pas la question cruciale aux yeux de la police. Pour celle-ci, l’enjeu principal est moins la prédiction des crimes qu’un management simplifié de l’action policière. [...] Ce qui compte, c’est de pouvoir optimiser et surtout contrôler ce temps de présence tactique dans l’espace à risques. Pour ce faire, Predpol intègre les données des systèmes de suivi GPS placés dans les voitures de police, ce qui permet ainsi d’optimiser le dosage de la présence des patrouilles de police selon les secteurs de la ville : le carré prédictif reste rouge sur la carte tant que la police n’y a pas patrouillé, il tourne ensuite au bleu lors des premiers passages, puis il apparaît en vert lorsque le policier a passé le temps suffisant et optimal calculé selon les ressources disponibles [...] Pour un responsable de secteur, Predpol apparaît comme un bon outil pour s’assurer que les policiers font bien leur travail préventif, souvent par la simple présence dissuasive, de manière aléatoire, mais sur une durée optimisée, dans les zones où le risque est estimé le plus haut. L’enjeu du predictive policing est de gérer, selon des critères gestionnaires, l’offre publique de vigilance quotidienne.

      Le « travail » des policiers (i.e. la patrouille) n’est plus qu’un carburant requis pour l’exécution d’un algorithme, qui n’est même pas celui mis principalement en avant comme argument publicitaire alors que c’est bien ce dernier qui fait la valeur (fictive) de la start-up...

      #digitalpolicelabor ?

    • Selon lui, la Toile a accompagné le basculement de l’idéal libéral classique de la liberté d’information vers un nouvel idéal plus radical, celui de la liberté de l’information elle-même. Toute information a le droit de circuler librement sur Internet, indifféremment à son contenu

      indifférence au contenu à la fois comme forme marchande et comme forme numérique.