schrödinger

feed me, seymour

  • Une grosse majorité des contenus Facebook vous sont cachés

    http://www.numerama.com/magazine/30297-une-grosse-majorite-des-contenus-facebook-vous-sont-caches.html

    Fin 2013, Facebook a ainsi annoncé le déploiement d’un nouvel algorithme de tri des fils d’actualités, officiellement pour donner la priorité aux « contenus de grande qualité » (officieusement pour vendre des « promotion des publications » à prix d’or), se permettant de fait de manipuler l’information que les internautes partagent avec le réseau social.

    Un journaliste du Washington Post a passé son temps à comparer le nombre de publications apparaissant dans son fil d’actualité, au contenu publié par ses amis et pages qu’il aime. Résultat : seulement 29% de tout ce contenu figure dans son fil.

    Facebook fait le tri pour vous concernant ce qui peut vous intéresser.

    Mais le risque pour chaque utilisateur est alors de s’enfermer dans ses propres convictions, centres d’intérêts et opinions, partagées par les seuls pairs qui ont sensiblement les mêmes. C’est l’absence de dissonance cognitive faite reine, avec un risque effroyable d’appauvrissement intellectuel et de radicalisations mutuelles. Ne communiqueront ensemble que ceux qui partagent les mêmes vues et publient de quoi remettre de l’eau au moulin. Tout opinion dissidente, parce que peu partagée par son cercle d’amis, restera invisible.

    Et maintenant cela devient pire : Le temps de lecture est pris en compte et Facebook compte fouiller dans le contenu disponible pour diversifier vos lectures.

    Facebook renforce la personnalisation de votre fil d’actualité

    http://www.numerama.com/tech/165617-facebook-renforce-la-personnalisation-de-votre-fil-dactualite.html

    Après avoir compilé des données sur chaque utilisateur, Facebook adaptera le fil d’actualité en fonction, avec des contenus susceptibles de l’intéresser au maximum en intégrant de nouveaux éléments. En premier lieu, le temps passé sur une publication est dorénavant considéré comme un indicateur d’interêt. C’est une donnée largement utilisée par les producteurs de contenu.

    Facebook appelle cela son Feed Quality Program

    http://newsroom.fb.com/news/2016/04/news-feed-fyi-more-articles-you-want-to-spend-time-viewing

    Faites confiance à Facebook et outsourcez-lui votre cognition.

    #Facebook_manipulation
    #consonance_positive #positive_consonance

    • Il y a plusieurs problèmes avec des flux qui peuvent devenir énormes, et je comprends que facebook cherche à les organiser ; mais c’est sans doute la méthode adoptée (masquer ce qu’on like le moins, si j’ai bien compris) qui pose question.
      Avec seenthis on a un terrain d’expérimentation pour d’autres méthodes ; par exemple, je me demande si un groupement automatique des messages par « topics » (LSI) serait utile.

    • Je ne sais pas, il faudrait faire des essais. Les techniques de LSI (cf le tag #gensim) permettent de reconnaître que deux articles ont plus mots en communs que deux autres, et de définir ainsi des regroupements plus ou moins « pertinents ». On pourrait imaginer une interface où les posts de seenthis seraient triés dans des « boîtes » définies de cette manière. Ce qui fait que si tu as dans ton flux 50 posts à lire, tu aurais d’abord les 20 messages traitant plus ou moins de cinéma, puis 10 parlant plus ou moins de cartographie, puis 5 sur les migrants, 8 sur nuitdebout, et enfin les « isolés ».

    • LSI = latent semantic indexing

      Il s’agit d’appliquer des calculs statistiques sur les mots employés dans chaque article, pour faire surgir des « thèmes » (ou topics). Ces topics formeront les n dimensions d’un espace où l’on pourra « projeter » chaque texte, sous forme d’un point.

      Par exemple si notre corpus de texte comporte des textes sur le cinéma et les migrants, et qu’on choisit n=2, les topics seront « 1) film écran scénario » et « 2) frontière passeport police » ; enfin c’est l’idée, et justement le but de ces algorithmes est de trouver des topics pertinents.

      Un article est représenté par un point dans cet espace, avec des coordonnées du type (1,0) ; (0.5,0.5) : le premier parle exclusivement de cinéma, le second parle un peu de cinéma et un peu de migrants.

      On applique ensuite diverses méthodes selon la question qui nous intéresse, par exemple :
      – quels sont les articles proches de telle phrase ? => moteur de recherche
      – peut-on former des groupements d’articles ? => clustering
      – prendre un article en anglais, le passer dans google translate, chercher quelque chose qui ressemble au tas de mots récupérés => recherche de l’article source d’une traduction.

      Voilà c’est ça l’idée de base, et #gensim est un outil génial pour traiter des corpus de textes, et leur appliquer ce type d’algorithmes. Mais il ne fait pas le café et c’est à nous de voir comment on peut l’utiliser et pour faire quoi.