• The Rise and Demise of RSS
    https://motherboard.vice.com/en_us/article/a3mm4z/the-rise-and-demise-of-rss

    Before the internet was consolidated into centralized information silos, RSS imagined a better way to let users control their online personas.

    The story of how this happened is really two stories. The first is a story about a broad vision for the web’s future that never quite came to fruition. The second is a story about how a collaborative effort to improve a popular standard devolved into one of the most contentious forks in the history of open-source software development.

    RSS was one of the standards that promised to deliver this syndicated future. To Werbach, RSS was “the leading example of a lightweight syndication protocol.” Another contemporaneous article called RSS the first protocol to realize the potential of Extensible Markup Language (XML), a general-purpose markup language similar to HTML that had recently been developed. It was going to be a way for both users and content aggregators to create their own customized channels out of everything the web had to offer. And yet, two decades later, after the rise of social media and Google’s decision to shut down Google Reader, RSS appears to be a slowly dying technology, now used chiefly by podcasters, programmers with tech blogs, and the occasional journalist. Though of course some people really do still rely on RSS readers, stubbornly adding an RSS feed to your blog, even in 2019, is a political statement. That little tangerine bubble has become a wistful symbol of defiance against a centralized web increasingly controlled by a handful of corporations, a web that hardly resembles the syndicated web of Werbach’s imagining.

    RSS would fork again in 2003, when several developers frustrated with the bickering in the RSS community sought to create an entirely new format. These developers created Atom, a format that did away with RDF but embraced XML namespaces. Atom would eventually be specified by a standard submitted to the Internet Engineering Task Force, the organization responsible for establishing and promoting the internet’s rules of the road. After the introduction of Atom, there were three competing versions of RSS: Winer’s RSS 0.92 (updated to RSS 2.0 in 2002 and renamed “Really Simple Syndication”), the RSS-DEV Working Group’s RSS 1.0, and Atom. Today we mostly use RSS 2.0 and Atom.

    For a while, before a third of the planet had signed up for Facebook, RSS was simply how many people stayed abreast of news on the internet.

    Today, RSS is not dead. But neither is it anywhere near as popular as it once was. Lots of people have offered explanations for why RSS lost its broad appeal. Perhaps the most persuasive explanation is exactly the one offered by Gillmor in 2009. Social networks, just like RSS, provide a feed featuring all the latest news on the internet. Social networks took over from RSS because they were simply better feeds. They also provide more benefits to the companies that own them. Some people have accused Google, for example, of shutting down Google Reader in order to encourage people to use Google+.

    RSS might have been able to overcome some of these limitations if it had been further developed. Maybe RSS could have been extended somehow so that friends subscribed to the same channel could syndicate their thoughts about an article to each other. Maybe browser support could have been improved. But whereas a company like Facebook was able to “move fast and break things,” the RSS developer community was stuck trying to achieve consensus. When they failed to agree on a single standard, effort that could have gone into improving RSS was instead squandered on duplicating work that had already been done. Davis told me, for example, that Atom would not have been necessary if the members of the Syndication mailing list had been able to compromise and collaborate, and “all that cleanup work could have been put into RSS to strengthen it.” So if we are asking ourselves why RSS is no longer popular, a good first-order explanation is that social networks supplanted it. If we ask ourselves why social networks were able to supplant it, then the answer may be that the people trying to make RSS succeed faced a problem much harder than, say, building Facebook. As Dornfest wrote to the Syndication mailing list at one point, “currently it’s the politics far more than the serialization that’s far from simple.”

    #RSS #Histoire_informatique #Politique_algorithme #Normalisation

    • J’apprécie, comme toi, qu’il fasse remarquer que les décisions
      techniques ont des conséquences politiques. Il est clair que l’abandon de facto de la #syndication SS a accéléré le passage d’un web décentralisé vers un web polarisé par les GAFA. Je suis moins convaincu par ses explications sur les raisons pour lesquelles la syndication n’a pas tenu sur le long terme :

      – dire que RSS n’est pas user-friendly est franchement débile. RSS est un format. L’utilisateur ne le voit pas. Quasiment aucun utilisateur
      de RSS, que ce soit côté producteur ou consommateur, n’a regardé à quoi ça ressemblait en utilisant vi ! Un logiciel peut être
      « user-friendly » ou pas. Pour un format, ça n’a pas de sens.

      – je trouve qu’il exagère le rôle des disputes au sein du monde de la
      syndication. Certes, ces disputes ont pu contribuer à semer le trouble mais n’exagérons pas : ça se passait dans un tout petit microcosme et la grande majorité des webmestres et des lecteurs n’en ont jamais entendu parler. (Au passage, le camp vainqueur est nettement celui qui voulait un format simple : les sites Web n’utilisent qu’une petite partie du format.) Et, d’une point de vue pratique, ces disputes n’ont eu aucune conséquence : tous les logiciels de lecture comprennent les trois formats. Le webmestre peut donc publier ce qu’il veut, sans inquiétude.

      – par contre, il parle trop peu des raisons politico-marketing de
      l’abandon de la syndication : propagande effrénée des médias et
      autres autorités en faveur des solutions centralisées, notamment.

  • Petite mise au point sur les « GAFA | « Calipia : le blog
    https://blog.calipia.com/2018/08/28/petite-mise-au-point-sur-les-gafa

    Assises sur des montagnes de cash « les GAFA » sont désormais en position de force, ils rachètent des sociétés à tour de bras et empêchent l’arrivée de nouveaux entrants, parfois en copiant purement et simplement leurs produits.

    A tel point, que l’âge d’or des start-ups pourraient bien toucher à sa fin d’autant que la nouvelle vague technologique qui émerge (intelligence artificielle, voitures autonomes, réalités altérées, crypto-monnaies virtuelles, …) favorise les grosses firmes qui possèdent déjà les données et la puissance informatique.

    Car en plus de racheter de nombreuses sociétés les GAFAM investissent massivement dans les infrastructures Cloud dites hyperscale qui sont et seront nécessaires à la mise en œuvre des nouveaux services à venir pour les entreprises et utilisateurs.

    Ces dépenses d’investissement (Capex) en infrastructure des opérateurs cloud à très grande échelle ont atteint 75 milliards de dollars en 2017, dont 22 au quatrième trimestre, soit une croissance de 19 % par rapport à 2016.

    Amazon, Apple, Facebook, Google et Microsoft ont représenté plus de 70 % des investissements à très grande échelle du quatrième trimestre, ce qui fait d’eux les cinq premiers investisseurs, selon les données collectées par Synergy Research Group[3]. En fait, le cabinet d’études souligne que les GAFAM ont dépensé plus de 13 milliards de dollars par trimestre en 2017 sur ce simple secteur.

    Une solide culture d’évasion fiscale

    Les outils traditionnels de régulation (taxes, anti-trust, …) semblent bien inadaptés pour maîtriser cette nouvelle puissance concentrée entre les mains de quelques-uns. Semblant intouchables, ils utilisent leur fortune à renforcer leur influence. Pas facile d’aller ennuyer ceux qui jonglent avec nos informations les plus secrètes, qui sont en passe de maîtriser les outils de l’intelligence artificielle (avec les changements sociétaux y afférant), qui bouleversent radicalement le marché de l’emploi, et qui sont sollicités par les états lorsque leurs budgets ne permettent plus de financer leurs ambitions d’investissement.

    Champions de l’optimisation et des paradis fiscaux, ces géants, pourtant si riches et si rentables, sont aussi accusés de ne pas prendre part au bien commun des sociétés par l’impôt et de ne pas savoir faire face à leurs nouvelles responsabilités sociales.

    Pas facile non plus d’appliquer des lois anti-trust quand les prix de leurs services restent bas ou gratuits, et de plus en plus addictifs puisque les GAFA restent immensément populaires en simplifiant la vie du consommateur qui continue d’utiliser massivement leurs services et appareils.

    Google et Facebook ont désormais une influence sur plus de 70% du trafic Internet et la majorité du trafic des sites d’infos dépend de ces deux plateformes (recherche et trafic social). Des tests effectués récemment dans six pays par Facebook ont montré comment une modification de son algorithme pouvait priver des sites d’informations des trois quarts de leur trafic. Et cette expérience est vécue quotidiennement par les organes de presse ayant des articles référencés sur Apple News (selon des critères pour le moins opaques) accessibles aux utilisateurs d’iPhone. Un déréférencement pouvant faire chuter le nombre de lecteur de 35 %[4].

    Donc Facebook, meilleur moteur de ciblage, et Google, meilleur moteur de recherche, ont pris le contrôle de la distribution des créateurs et des médias d’information.

    Mais sans les responsabilités qui sont généralement associées, car Google, Facebook, Apple, Twitter ou LinkedIn se présentent comme des plateformes technologiques neutres, des hébergeurs, qui ne prennent pas de décisions éditoriales, ne produisent pas de contenus elles-mêmes, et n’emploient pas de journalistes.

    Elles estiment donc, contre toute évidence, ne pouvoir être donc assimilées à des médias, refusant d’en assumer les devoirs. Or non seulement, elles diffusent les contenus, qui informent bien ou mal les citoyens, mais elles vivent (plutôt bien) de la pub qui y est associée.

    Sur cet aspect de l’utilisation des technologies de Machine Learning dans les algorithmes définissant les contenus et les publicités proposés aux utilisateurs de moteurs de recherches ou de réseaux sociaux, je vous recommande la lecture d’un article[5] de François Chollet (chercheur en Intelligence Artificielle chez Google, spécialiste de « l’apprentissage profond »), dans lequel il distingue quatre techniques d’optimisation sociale actuellement utilisées :

    Le renforcement social négatif : si vous publiez un post qui exprime un point de vue que l’algorithme de contrôle ne veut pas que vous teniez, il peut choisir de ne le montrer qu’à des personnes ayant un point de vue opposé au vôtre et qui auront une critique sévère afin de vous isoler.
    Le renforcement social positif : si vous faites un post qui exprime un point de vue que l’algorithme de contrôle veut propager, il peut choisir de montrer votre post à des gens (ou des robots) qui vont l’aimer afin de renforcer votre ego.
    Le biais d’échantillonnage : l’algorithme favorise parmi les publications de vos amis celles qui défendent l’opinion qu’il veut que vous ayez.
    La personnalisation des arguments : l’algorithmes peut observer que l’exposition de personnes dont le profil psychologique est proche du vôtre à certains contenus provoque souvent un changement de point de vue. A terme, l’algorithme peut générer ce genre de contenu spécialement pour vous convaincre.

    #Plateformes #GAFA #Politique_algorithmes

  • Le scandale Facebook pose avant tout une question politique - Libération
    http://www.liberation.fr/debats/2018/03/23/le-scandale-facebook-pose-avant-tout-une-question-politique_1638346

    L’affaire qui touche en ce moment le réseau social aux 2 milliards d’utilisateurs n’est que le symptôme du naufrage de l’action publique.

    Le scandale Facebook pose avant tout une question politique

    D’abord il y a l’évidence. A l’évidence, quiconque peut disposer d’une partie substantielle et suffisamment ciblée des données collectées et agrégées par Facebook dispose d’un outil d’influence absolument redoutable et tout à fait inédit à l’échelle de l’histoire de l’humanité et de la manipulation de l’opinion. Quantitativement et qualitativement, jamais aucun média n’avait été en capacité de disposer d’autant de données privées et intimes sur autant de personnes en temps réel et à flux constant (plus de 2 milliards d’utilisateurs).« Une version postmoderne de la Stasi », pour reprendre la formule de Julian Assange. Mais en pire.

    Ceci étant posé en préalable, toute agence de « relations publiques » (RP) comme elles se nomment par euphémisme et antiphrase, puisqu’il s’agit surtout d’entretenir des connivences privées, Cambridge Analytica compris, aura une tendance naturelle à surestimer auprès de ses clients et des médias le pouvoir réel dont elle prétend pouvoir disposer pour façonner l’opinion. Au regard de ce que sont ses clients et ses intérêts, cette affaire est cyniquement une extraordinaire publicité pour Cambridge Analytica.
    Facebook et Cambridge Analytica n’ont pas « fait l’élection »

    Mais attention à ne pas rater l’essentiel des enjeux de cette affaire. Certes, la collecte de données est massive. Certes, le mode opératoire de la collecte est suspect (au travers d’applications tierces notamment). Certes, les soupçons de collusion entre Facebook et Cambridge Analytica méritent d’être explorés par la justice. Certes, le laissez-faire de Facebook confine à l’incurie chronique dans cette affaire. Mais n’allons pas pour autant imaginer que l’élection de Trump s’est jouée uniquement sur de l’analyse de données et du profilage marketing, même parfaitement ciblé, même à cette échelle.

    D’autant que rien n’est vraiment nouveau. Un porte-parole de la campagne d’Obama indique que lui aussi a « naturellement » travaillé avec Facebook pour avoir accès aux données personnelles d’utilisateurs d’obédience plutôt démocrate. C’est un fait : tous les candidats de toutes les élections de tous les pays travaillent et travailleront toujours avec toutes les entreprises et médias susceptibles de leur apporter des infos en termes d’analyse de l’opinion et accessoirement leur promettant d’être en capacité d’exercer des actions d’influence.

    Mais pour le reste, choisir pour qui nous allons voter est, heureusement, un processus décisionnel largement multi-factoriel qu’aucune martingale algorithmique ne peut prétendre modéliser de manière fiable, fut-elle gavée d’une immensité de données qualifiées. Et à ce titre, l’élection de Trump en est d’ailleurs la preuve éclatante. Facebook et Cambridge Analytica ont certainement une part de responsabilité dans cette élection mais ils n’ont à eux seuls pas « fait l’élection ». Loin s’en faut.

    A lire aussi :Scandale Facebook : les petits remèdes du Dr Zuckerberg
    Facebook et son projet politique

    Au-delà des agences de com ou de RP, la première question qu’il me semble essentiel de retenir de toute cette affaire, c’est celle de savoir comment garantir que « l’executive board » de Facebook lui-même ne cède pas à la tentation d’exploiter l’immensité des données dont il dispose pour mener une campagne d’influence sur des sujets politiques ou sociétaux. D’autant que l’on sait qu’une place était réservée pour Zuckerberg dans l’équipe Clinton si celle-ci avait remporté l’élection. Et sans pour autant avoir besoin de fantasmer sur les intentions présidentielles de Mark Zuckerberg, il est au moins acquis et avéré qu’à l’échelle qu’atteint aujourd’hui Facebook, il ne peut pas, il ne peut plus faire l’économie d’un projet politique.

    L’autre question liée est celle de l’intentionnalité de la collecte et de l’usage qui est fait de ces immenses volumes de données. L’un des ingénieurs en intelligence artificielle chez Google, François Chollet, a peut-être très opportunément, mais de mon point de vue très justement, indiqué quel était l’enjeu principal de cette intentionnalité en déclarant sur son compte Twitter (je souligne) :

    « Le problème avec Facebook n’est pas « uniquement » la question de la privacy et le fait qu’il puisse être utilisé comme un panoptique totalitaire. L’aspect le plus inquiétant à mon avis est son utilisation de notre consommation d’information comme un outil de contrôle psychologique ("The more worrying issue, in my opinion, is its use of digital information consumption as a psychological control vector"). […] En bref, Facebook est en capacité de simultanément prendre la mesure de tout ce qui nous touche et nous concerne, et de contrôler l’information que nous consommons. Quand vous avez à la fois accès à ces dimensions de perception et d’action, vous faites face à une situation classique en Intelligence Artificielle. Vous pouvez établir une boucle logique optimisée pour le comportement humain. […] Une boucle dans laquelle vous observez l’état actuel de vos cibles et déterminez l’information avec laquelle il est nécessaire de les alimenter, jusqu’à ce que vous observiez les opinions et les comportements que vous voulez obtenir. Une bonne partie du champ de recherche en Intelligence Artificielle (particulièrement celle dans laquelle Facebook investit massivement) concerne le développement d’algorithmes capables de résoudre de tels problèmes d’optimisation, de la manière la plus efficace possible, pour pouvoir clore la boucle et disposer d’un niveau de contrôle total sur le phénomène. »
    Quel impact sur les comportements ?

    Et la dernière question est celle de savoir si cette énième affaire, s’ajoutant à la liste déjà longue des casseroles qui collent à l’image de la plateforme sociale, aura ou non une incidence sur le comportement des usagers, sur nos comportements. Un article du New York Times indiquait que Zuckerberg aurait été averti de l’essentiel des révélations qui allaient être faites quinze jours avant leur sortie, et qu’il aurait sous-estimé le tollé que cela allait susciter. Il est plutôt probable que Zuckerberg ait vu dans cette affaire l’occasion d’un crash test bienvenu : voir jusqu’où les utilisateurs sont prêts à tolérer que la plateforme continue de faire et de laisser-faire absolument n’importe quoi avec leurs données, voir jusqu’où l’idée que Facebook soit reconnu comme un formidable média de manipulation de masse n’empêche en rien d’en avoir un usage trivial nous servant simultanément d’exutoire, de service de mise en relation et un peu aussi de source d’information.

    Croire que cette affaire sera un éclair de lucidité dans l’opinion et permettra une prise de conscience accrue des enjeux posés par une plateforme privée rassemblant deux milliards d’utilisateurs sur un modèle économique de régie publicitaire est une chose. Imaginer que cela impactera les comportements de ces mêmes utilisateurs en est une autre. Ceux qui le pensent font la même erreur que ceux qui pensaient que Trump n’avait objectivement absolument aucune chance de l’emporter tant l’énormité de ses prises de parole ou ses positions était une caricature de caricature.
    Ne pas se tromper de cible

    Par l’architecture de panoptique sur laquelle il repose, Facebook ne peut de toute façon pas être autre chose qu’un instrument de surveillance. L’utiliser comme tel n’est ni « bon » ni « mauvais » mais juste « logique et cohérent ». Et ses 2 milliards d’utilisateurs n’ont pas besoin d’une quelconque perversité pour se mettre à se surveiller les uns les autres dès lors qu’ils sont installés dans cette architecture panoptique. Fenêtre sur cour. La fonction crée l’organe et l’architecture crée la perversité des régimes de sur- ou de sous-veillance. N’espérons donc pas davantage un changement de mentalité, de moralité ou un exode des utilisateurs à la faveur des révélations de ce nouveau scandale ; « révélations » qui ne sont en fait que la répétition et l’incarnation de la fonction panoptique de la plateforme. Et n’espérons pas davantage que les excuses de Zuckerberg changeront quoi que ce soit. Sans changement d’architecture et sans changement de modèle économique, rien ne pourra changer dans les logiques d’usage que la plateforme autorise.

    Entre responsabilité effective et influence relative dans l’élection américaine, et qu’il s’agisse de Facebook ou de Cambridge Analytica, il ne faut pas que nous nous trompions de cible en combattant les symptômes plutôt que le mal. La solution pour empêcher l’accession au pouvoir de personnalités névrotiques ou simplement avides de leur propre suffisance ne se trouve pas dans la régulation de Facebook ou dans l’abolition de son modèle publicitaire mais dans le seul champ de l’action publique. Dans le champ du politique dont Facebook n’est que le reflet le plus souvent hors-cadre.

    C’est sur l’incurie de l’action politique et sur la perte de sens de la parole politique que se fabrique et s’entretient le modèle d’affaire des agences de RP comme Cambridge Analytica. « Building a community », comme ne cesse de le répéter Zuckerberg, n’est rien d’autre qu’un slogan marketing totalement creux. La seule chose que Facebook ait jamais permis de construire c’est une architecture de la surveillance dans laquelle Mark Zuckerberg a constitué une audience dont viennent se repaître annonceurs et agences de RP. Et la seule communauté qui vaille est celle des intérêts financiers de la firme.

    Facebook n’est que le reflet du naufrage de la publicitarisation de l’action publique et de la parole politique. De la société du spectacle de Debord, décidément visionnaire à plus d’un titre. Mais plus qu’un reflet Facebook est aussi un miroir. Le miroir qui nous est tendu de l’Hiroshima démocratique qui nous attend collectivement si nous n’arrivons pas à redresser la barre. Car quand Facebook ou Zuckerberg se mettront vraiment à faire de la politique, alors il sera en effet trop tard.

    Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions)
    Olivier Ertzscheid Enseignant-chercheur en sciences de l’information et de la communication à l’université de Nantes

    #Olivier_Ertzscheid #Facebook #Politique_algorithmes

  • SNCF : les prix des billets risquent-ils de « mécaniquement exploser » avec la grève ?
    http://abonnes.lemonde.fr/economie/article/2018/03/20/sncf-pourquoi-les-prix-des-billets-risquent-de-mecaniquement-explose

    La direction ne confirme pas cette information. « Aucune décision en ce sens n’a été prise à ce stade », déclare un porte-parole, mais l’entreprise laisse filtrer le fait que le plan de transport sera certainement revu à la baisse . « Les lendemains de grève sont toujours des moments difficiles de reprise, puisque le mouvement se prolonge jusqu’à 8 heures, glisse un responsable. Ces jours précis, nous allégerons probablement l’offre afin de ne pas risquer de promettre ce que nous ne pourrons pas tenir. »

    Cette décision aura-t-elle pour conséquence de faire grimper les prix par le jeu du yield management ? Cette pratique inspirée de la gestion des chambres d’hôtel et consistant à optimiser le prix de chaque siège d’un même train en fonction de la vitesse de réservation et du niveau de la demande est d’usage courant à la SNCF. « La décision a été prise d’augmenter les prix entre les jours de grève », affirme un employé de Voyages SNCF au « Monde ». « Les prix pourraient mécaniquement exploser, ajoute un cadre interne. A moins que la direction décide de limiter la hausse. »

    De son côté, Voyages SNCF « dément formellement », dans un communiqué, toute inflation tarifaire liée à la mécanique du yield management sur les « billets de TGV et Intercités pendant la période de grève. Consciente de la difficulté des clients à s’organiser pour des voyages en avril, la direction de la SNCF porte une attention particulière aux prix des trains les jours de non-grève. Les prix habituellement pratiqués restent les mêmes sur ces journées. »

    Ben tiens, "dément formellement"... et c’est avant la concurrence ;-)

    #Algorithmes #Politique_algorithmes #Prix #Transports #Commerce_électronique

  • YouTube, the Great Radicalizer - The New York Times
    https://www.nytimes.com/2018/03/10/opinion/sunday/youtube-politics-radical.html

    Par Zeynep Tufekci

    It seems as if you are never “hard core” enough for YouTube’s recommendation algorithm. It promotes, recommends and disseminates videos in a manner that appears to constantly up the stakes. Given its billion or so users, YouTube may be one of the most powerful radicalizing instruments of the 21st century.

    This is not because a cabal of YouTube engineers is plotting to drive the world off a cliff. A more likely explanation has to do with the nexus of artificial intelligence and Google’s business model. (YouTube is owned by Google.) For all its lofty rhetoric, Google is an advertising broker, selling our attention to companies that will pay for it. The longer people stay on YouTube, the more money Google makes.

    What keeps people glued to YouTube? Its algorithm seems to have concluded that people are drawn to content that is more extreme than what they started with — or to incendiary content in general.

    Is this suspicion correct? Good data is hard to come by; Google is loath to share information with independent researchers. But we now have the first inklings of confirmation, thanks in part to a former Google engineer named Guillaume Chaslot.

    It is also possible that YouTube’s recommender algorithm has a bias toward inflammatory content. In the run-up to the 2016 election, Mr. Chaslot created a program to keep track of YouTube’s most recommended videos as well as its patterns of recommendations. He discovered that whether you started with a pro-Clinton or pro-Trump video on YouTube, you were many times more likely to end up with a pro-Trump video recommended.

    Combine this finding with other research showing that during the 2016 campaign, fake news, which tends toward the outrageous, included much more pro-Trump than pro-Clinton content, and YouTube’s tendency toward the incendiary seems evident.

    YouTube has recently come under fire for recommending videos promoting the conspiracy theory that the outspoken survivors of the school shooting in Parkland, Fla., are “crisis actors” masquerading as victims. Jonathan Albright, a researcher at Columbia, recently “seeded” a YouTube account with a search for “crisis actor” and found that following the “up next” recommendations led to a network of some 9,000 videos promoting that and related conspiracy theories, including the claim that the 2012 school shooting in Newtown, Conn., was a hoax.

    What we are witnessing is the computational exploitation of a natural human desire: to look “behind the curtain,” to dig deeper into something that engages us. As we click and click, we are carried along by the exciting sensation of uncovering more secrets and deeper truths. YouTube leads viewers down a rabbit hole of extremism, while Google racks up the ad sales.

    #Zeynep_Tufekci #Google #YouTube #Radicalisation #Pouvoir_algorithmes #Politique_algorithmes

  • Could Facebook Have Caught Its ’Jew Hater’ Ad Targeting? - The Atlantic
    https://www.theatlantic.com/amp/article/539964

    Facebook lives and dies by its algorithms. They decide the order of posts in your News Feed, the ads you see when you open the app, and which which news topics are trending. Algorithms make its vast platform possible, and Facebook can often seem to trust them completely—or at least thoughtlessly.

    ProPublica does not argue that Facebook actually set up an anti-Semitic demographic that can be targeted by advertising. Rather, it suggests that algorithms—which developed the list of targetable demographics—saw enough people self-describing as “Jew hater” to lump them into a single group.

    “Facebook does not know what its own algorithm is doing,” said Susan Benesch, a faculty associate at the Berkman Klein Center for Internet and Society and the director of the Dangerous Speech Project. “It is not the case that somebody at Facebook is sitting in a dark room cackling, and said, ‘Let’s encourage people to sell Nazi ads to Nazi sympathizers.’”

    She continued: “In some ways, that would be much easier to correct, because there would be some intention, some bad person doing this on purpose somewhere. The algorithm doesn’t have a bad intention.”

    Indeed, Facebook might not be alone in permitting unscrupulous ads to get through. The journalist Josh Benton demonstrated on Thursday that many of the same anti-Semitic keywords used by Facebook can also be used to buy ads on Google.

    #Facebook #Politique_Algorithmes #Publicité

  • Facebook teste l’insertion de messages d’élus dans les fils d’actualité
    http://abonnes.lemonde.fr/pixels/article/2017/08/07/facebook-teste-l-insertion-de-messages-d-elus-dans-les-fils-d-actual

    D’un côté Google déréférence les sites progressistes US, de l’autre Facebook limite la politique aux paroles d’élus (dont la corruption, la collusion avec une police raciste et le conflit d’intérêt sont bien connus et documentés). Ah, la « neutralité algorithmique » est un art difficile.

    Des utilisateurs américains de Facebook ont vu apparaître fin juillet des publications d’élus locaux, qu’ils ne suivaient pas, dans leur fil d’actualité. Dans un communiqué, le réseau social a confirmé au site spécialisé Recode qu’il s’agit d’une nouvelle fonction, et qu’elle est actuellement en test.

    « Nous testons une nouvelle fonction d’engagement citoyen, qui montre aux utilisateurs de Facebook les publications importantes de leurs élus. Notre but est de donner aux gens un moyen simple d’apprendre ce qu’il se passe à tous les niveaux de leur gouvernement. »

    #Facebook #Post_Truth #Politique_algorithme

  • Henri Verdier Blog : Quand Zuckerberg veut faire le bonheur de l’humanité
    http://www.henriverdier.com/2017/07/quand-zuckerberg-veut-faire-le-bonheur.html

    par Henri Verdier

    Comment ? Grâce aux paramétrages des subtils algorithmes qui décident quels amis nous seront présentés, quels sont ceux de leurs messages qui nous seront affichés, quelles publicités, quels services et quelles ressources nous seront proposés. Des algorithmes éduqués avec des méthodes simples et robustes, de grandes quantités de données et, prochainement, un peu d’intelligence artificielle pour mieux reconnaître les images, détecter les émotions dans les conversations, etc. Des algorithmes, aussi, qui seront mis au service d’une philosophie de la régulation propre au réseau social. Ainsi, pour lutter contre les « fake news » (une responsabilité politique que Facebook a initialement refusé d’assumer), l’algorithme analysera le comportement des utilisateurs et recommandera moins les vidéos qui auront été partagées avant sans avoir été visionnées au préalable.
    Au delà de l’inquiétant fantasme de toute-puissance, et de la naïveté (feinte ?) de ce néopositivisme, ou même de notre inquiétude devant ce désir de façonner l’ « Homme nouveau », il faut prendre ces annonces comme le signe de quelque chose de sérieux.

    Smartphones, drones, réseaux sociaux, vidéosurveillance, satellites, véhicules connectés, villes intelligentes, CRM, grands systèmes administratifs… crachent à jet continu des données numériques qui décrivent nos villes, nos corps et même nos émotions. Tout se passe comme si nous construisions une copie digitale du monde. Une carte au 1 /1e, dynamique, maniable, activable, sur laquelle s’appuie une part croissante des activités humaines.

    Ce dernier point est sans doute l’un des plus importants. Il devient chaque jour un peu plus difficile d’envisager de créer quoi que ce soit, ou de communiquer avec qui que ce soit, sans solliciter les données de cette nouvelle matrice, qui devient petit à petit le terreau, l’humus de notre économie. Et par tant, il devient difficile de créer quelque valeur que ce soit, ou d’échanger quoi que ce soit, sans donner un petit peu de valeur à cette matrice, comme nous l’avons montré, avec Nicolas Colin, dans L’Age de la Multitude.

    Peut-être doutez-vous de l’impact réel des réseaux sociaux sur nos représentations du monde ? Effectivement, les premières recherches tendent à relativiser grandement cette supposée influence. Peut être pensez-vous que nous restons libres de ne pas aller sur Facebook ?
    Mais le numérique et ses algorithmes sont depuis bien longtemps sorti des ordinateurs. Les algorithmes décident des contrôles fiscaux, des tirs de drones en Irak ou en Corée, du rythme des feux rouges, des cours de bourse, ou de l’admission des Français à l’université. Ils prennent des décisions politiques.

    Si les GAFA ont du mal à lutter contre les Fake news, ce n’est pas par attachement à la liberté d’expression, c’est que leur modèle profond, fondé sur la publicité, est structurellement bienveillant envers le sensationnalisme.

    Pour cela, il nous faut une nouvelle politique, qui ne peut plus se contenter des concepts et des techniques de pouvoir forgés à la fin des Lumières.
    Il faut désormais se battre sans relâche pour préserver un espace du Commun : une infrastructure nous permettant d’agir et d’innover sans être déterminés par les plateformes et les algorithmes de tiers. L’Etat, en devenant Etat plateforme peut contribuer à desserrer l’étau des plateformes privées.
    Il faudra intégrer au débat public de nouveaux concepts, comme le droit de reprendre possession de ses données personnelles (la « dataportabilité »), le droit à demander l’effacement de ses données, le droit au silence des puces et à celui des algorithmes.
    Il faudra organiser la transparence sur l’existence et le fonctionnement de ces algorithmes, la nécessité de pouvoir en vérifier le fonctionnement effectif, la possibilité de leur demander des comptes, comme s’y emploie desormais l’Etat pour ses propres algorithmes.
    Il faudra apprendre à concevoir des algorithmes qui augmentent les degrés de liberté des individus et à repousser ceux qui se contentent de restreindre leurs choix.
    Il faudra apprendre à débattre collectivement de leurs visées et de leurs impacts, à faire naître une intelligence collective qui nous rende à nouveau responsables de notre destin politique.

    Je ne suis malheureusement pas convaincu que la définition donnée ici de « l’Etat plateforme » soit celle qui intéresse vraiment ceux qui agitent cette idée. Il s’agit au contraire de permettre aux entreprises privées de « plugger » leurs services sur la plateforme d’Etat.

    #Facebook #Politique_algorithmes #fake_news

  • Pourquoi la décision de Bruxelles concernant Google est historique
    http://abonnes.lemonde.fr/economie/article/2017/06/28/pourquoi-la-decision-de-bruxelles-concernant-google-est-historique_5

    « On s’est longtemps demandé si le mode de fonctionnement de ces sociétés de l’Internet était si complexe, que les autorités de la concurrence ne pouvaient pas agir. La Commission vient de prouver l’inverse, ajoute Mme de Silva. Sa démarche analytique crée un cadre de référence très fort pour agir, elle nous a permis de faire un pas de géant. »

    L’institution a voulu prouver que le moteur de recherche « général » de Google était en position dominante et qu’il en a abusé sur un marché connexe, Google Shopping. Elle a voulu démontrer ce qui se passait sur le moteur avant et après les changements dans son logiciel ; elle s’est fondée sur la manière dont les autres agents économiques avaient été impactés pour montrer qu’ils étaient discriminés.

    Même la méthode choisie pour obliger Google à changer de comportement est jugée novatrice. Le géant californien ne dispose que de 90 jours pour faire « respecter le simple principe d’égalité de traitement entre les services concurrents de comparaison de prix et son propre service », selon la Commission.

    L’institution ne lui impose aucune solution technique, juste une obligation de résultat. En cas de non-respect, le groupe s’expose à une astreinte journalière très sévère : jusqu’à 5 % du chiffre d’affaires moyen réalisé quotidiennement au niveau mondial par Alphabet, la société mère de Google.

    #Google #Europe #politique_algorithmes