company:internetactu.net

  • AlireAilleurs c’est fini... mais ça continue !
    https://alireailleurs.tumblr.com/post/149796698943

    Après une longue coupure estivale, AlireAilleurs s’apprête à reprendre, mais plus ici ! Désormais vous pourrez suivre notre revue de web sur InternetActu.net. Les billets publiés sur ce tumblr resteront accessibles pour ne pas briser les liens que vous avez établi vers nos informations… Mais tous les billets publiés depuis plus d’un an ici sont désormais également disponibles sur InternetActu.net. Les brèves d’AlireAilleurs seront intégrés au flux RSS d’InternetActu.net : un seul abonnement vous permettra de suivre toute notre activité éditoriale. Pour recevoir les articles par e-mail, vous pouvez vous abonner pour recevoir chaque publication par e-mail ou vous abonner à notre newsletter mensuelle. La page Facebook et le fil Twitter d’AlireAilleurs vont par contre s’arrêter. Nous vous invitons à vous (...)

  • Legal by design : des icônes pour rendre le droit lisible par les humains et les machines ? | InternetActu.net
    http://www.internetactu.net/2019/02/07/legal-by-design-des-icones-pour-rendre-le-droit-lisible-par-les-humain

    Le constat est ancien. Personne ne lit les Conditions générales d’utilisation (CGU) des services en ligne, ces contrats unilatéraux que nous devons accepter pour les utiliser. Mais si personne ne les lit, pourquoi continuent-ils à être la colonne vertébrale légale d’internet ?, s’interroge un éditorial du New York Times. Il faut approximativement 9 heures pour lire les conditions d’utilisation d’Amazon… Et ce n’est pas mieux de tous les autres services que nous utilisons. Pour le New York Times, nous sommes dans une « fiction juridique » du consentement (cf. « Du consentement en ses limites »). Les gens acceptent les conditions sans se rendre compte de ce à quoi ils donnent accès : l’utilisation de leurs données certes, mais aussi leurs observation et interprétation comportementales, c’est-à-dire leur traitement.

    #données_personnelles #CGU

  • Des effets des outils sur nos pratiques : pourquoi les médecins détestent-ils leurs ordinateurs ? | InternetActu.net
    http://www.internetactu.net/2019/01/31/des-effets-des-outils-dans-nos-pratiques-pourquoi-les-medecins-deteste
    /assets/images/logo_ia.png

    Car le logiciel génère des heures de travail supplémentaires, passées non avec les patients, mais devant l’écran. En 2016, une étude montrait que les médecins passaient environ 2 heures devant leur écran pour chaque heure passée devant leur patient – l’Europe connaît le même phénomène : une étude menée dans le Service de médecine interne du Centre hospitalier universitaire vaudois indique que les médecins assistants passent 5 heures par jour devant un écran, contre 1,7 devant les malades. Ces 5,2 heures sont consacrées à entrer des informations dans le « dossier patient informatisé ».

    #numérique

    • @cedric3 Oh combien ! Me rappelle une prof de Maths qui a refusé de me recevoir arguant que je trouverais tout ce qu’il faut sur internet. #technocratie

      Cependant, il est assez incroyable, voire pitoyable, que chacun·e ne prenne pas sa part de responsabilité dans l’avènement du fachisme informatique. A commencer par les politiques, mais aussi les médecins qui ont accepté le fichage de ceux dont ils auraient du prendre soin. Rappeler que la #carte_vitale n’est pas obligatoire, pas plus que la carte bleue non plus de mettre son enfant dans des centres fermés nommés écoles ou d’emplir son sac de carte de fidélité.
      A un moment, on peut aussi dire non à la #technocratie et entrer en résistance, ça coûte cher à tout niveau mais le sens critique de mes contemporains semble s’être arrêté à leur porte monnaie.
      C’est plus facile de faire taire d’un revers de main ceux et celles qui dénoncent et se sont élevé·es contre cette #aliénation et d’aller jouir de son rôle dans le fichage de la population.
      Ça me met en colère à vrai dire et me fait penser à la vallée d’Aspe, une fois que les tunnels ont été construits et la vallée détruite, les habitants ont reconnu que finalement c’était une calamité mais ah ben zut les écolos givrés qui se cadenassaient sur les chantiers avaient donc raison.
      #DMP #données_personnelles #santé #fichage #amazon

  • Les 3 niveaux de nos identités en ligne | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/les-3-niveaux-de-nos-identites-en-ligne
    /assets/images/logo_ia.png

    Dans un graphique particulièrement parlant (à consulter en haute définition), la Fondation Panoptykon détaille les 3 couches d’information qui composent nos identités en ligne.

    La première couche d’information est la seule sur laquelle nous avons le contrôle. Elle se compose des données que nous insérons dans les médias sociaux ou les applications (informations de profil, publications, requêtes, photos, événements, déplacements…).

    La seconde couche est constituée d’observations comportementales et de métadonnées qui donnent un contexte à ces choix : position en temps réel, graphe de nos relations intimes et professionnelles, le temps que nous passons, les habitudes d’achat, les mouvements de nos souris ou de nos doigts…

    La troisième couche est composée des interprétations de la première et de la seconde couche. Nos données sont analysées et comparées en permanence à d’autres profils pour inférer des corrélations statistiques significatives… Ce qu’on appelle souvent la personnalisation, mais qui vise plus à nous catégoriser qu’à nous distinguer.

    Le problème est que si l’utilisateur contrôle la première couche, ce n’est pas le cas des deux autres. Or ces inférences permettent de déterminer beaucoup de nos comportements : profil psychométrique, QI, situation familiale, maladies, obsessions, engagements… Or, nombre de décisions contraignantes sont prises depuis ces interprétations et corrélations. Le problème est que le « double » numérique que le traitement de ces données produit ne nous est pas accessible… et que si nous y avions accès, nous pourrions ne pas nous y reconnaître. « Que diriez-vous si vous découvriez que votre « double de données » est malade ou émotionnellement instable, sans possibilité de crédit, ou plus simplement pas assez cool, et tout cela à cause de la façon dont vous faites vos requêtes en ligne ou de vos relations en ligne ? »

    #Identité_numérique #Traçage #Médias_sociaux

  • Uberland : l’avenir du travail à l’heure des algorithmes | InternetActu.net
    http://www.internetactu.net/2018/12/18/uberland-lavenir-du-travail-a-lheure-des-algorithmes
    /assets/images/logo_ia.png

    Dans Uberland : comment les algorithmes réécrivent les règles du travail (2018, Presse universitaire de Californie, non traduit), la chercheuse Alex Rosenblat (@mawnikr) a synthétisé quatre années de recherche ethnographique avec les conducteurs d’Uber. Un livre où transparaît une vision dystopique du travail où des millions de conducteurs sont gérés par un système technique qui combine à la fois l’autoritarisme du management scientifique à la Frederick Taylor et le leadership cynique d’un Michael Scott (le personnage incarné par Steve Carell dans la série The Office), rapporte Intelligencer.

    (...) Le mot entrepreneur cache de plus en plus souvent un travailleur sans salaire minimum, sans avantages sociaux ni protection. L’absence de hiérarchie signifie que les indépendants sont soumis aux caprices de système de notation anonymes. Dans l’économie du partage, personne n’est licencié, les conducteurs sont « désactivés », sans que ce processus ne soit ni juste ni transparent. Les interactions humaines authentiques que vantaient les plateformes ont surtout créé de la paupérisation. L’évolution de l’économie du partage, comme de l’industrie de la techno, a commencé par un rêve utopique et s’achève dans un cauchemar dystopique. Les entreprises qui annonçaient vouloir changer le monde, comme Airbnb et Uber, ont visiblement été construites sur des idéaux qui ont atteint leur date d’expiration, conclut Mike Bulajewski. Si l’ubérisation n’est peut-être pas encore tout à fait morte, la lutte contre ses effets, elle, ne cesse de s’organiser.

    #futur_du_travail #économie #algorithme #économie_du_partage

  • Jen Schradie : « Internet contribue souvent à renforcer les inégalités existantes »
    http://www.internetactu.net/2018/10/01/jen-schradie-internet-contribue-souvent-a-renforcer-les-inegalites-exi

    Le #Digital_Society_Forum – disclosure : dont la Fing et InternetActu.net sont partenaires – initié par Orange est un site qui s’intéresse à l’impact du numérique et qui publie notamment des dossiers sur les transformations de nos comportements à l’heure du numérique. Dans le cadre d’une thématique qui explore la (...)

    #Articles #Interviews #Usages #e-inclusion #non-usages #sociologie

  • L’internet des familles modestes : les #Usages sont-ils les mêmes du haut au bas de l’échelle sociale ?
    http://www.internetactu.net/2018/09/21/linternet-des-familles-modestes-les-usages-sont-ils-les-memes-du-haut-

    Il semble toujours difficile de saisir une enquête sociologique, car, comme toute bonne enquête sociologique, celles-ci sont surtout qualitatives et se fondent sur des témoignages peu nombreux et variés… dont il semble difficile de dégager des lignes directrices. C’est pourtant ce que réussit à faire la sociologue Dominique Pasquier dans (...)

    #Articles #Interviews #e-inclusion #non-usages #sociologie

  • Retour – décevant – sur l’expérience de Milgram | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/retour-decevant-sur-lexperience-de-milgram

    Dans le New Scientist, la psychologue et écrivain Gina Perry s’est penchée à nouveau sur cette expérience, a interrogé certain des participants et consulté les archives de Milgram et ce qu’elle a découvert ne l’a guère convaincu : « J’ai été frappé par la fragilité des affirmations que le monde a acceptées comme étant des faits », écrit-elle. Elle a d’ailleurs publié un livre sur ses découvertes, Behind the shock Machine, the untold story of the notorious Milgram psychology experiments.

    Selon Perry, Milgram a été plutôt cavalier avec les protocoles expérimentaux, les changeant parfois en cours de route.

    Par exemple, au départ, il était entendu qu’un sujet refusant quatre fois d’appliquer des chocs électriques à la victime était considéré comme « résistant » et l’expérience était arrêtée. Cette condition a ensuite été abandonnée, et une fois, une femme a dû subir 26 fois l’insistance du chercheur avant de finalement céder. Une autre femme avait refusé de continuer et éteint la pseudo-machine censée envoyer les chocs. Mais le « chercheur » a rallumé l’appareil, insistant pour qu’elle continue, ce qu’elle a fini par faire. Selon Gina Perry : « en écoutant les bandes enregistrées, on pourrait croire qu’il s’agissait d’une recherche sur l’intimidation et la coercition, pas sur l’obéissance ».

    Autre problème, les participants étaient-ils aussi naïfs que Milgram le supposait ? Certains ne se doutaient-ils pas qu’il s’agissait d’une simple mise en scène ?

    En fait, Milgram l’a remarqué lui même : il a avoué que 56 % seulement des sujets croyaient à l’authenticité de l’opération. Et dans une étude non publiée, il reconnaît que les participants qui doutaient de la réalité de l’expérience étaient ceux qui avaient tendance à accepter de distribuer le plus facilement les chocs électriques.

    Au final, que pensait Milgram lui-même de sa fameuse expérience ? Dans une note non publiée retrouvée dans ses archives, il se demande si celle-ci était : « de la science significative ou simplement du théâtre efficace… Je suis enclin à accepter cette dernière interprétation « .

    Depuis quelque temps, les sciences sociales subissent une crise de crédibilité : expériences mal conçues, jamais répliquées… L’expérience de Milgram n’est pas le premier grand classique à être mis en doute. Sera-t-il le dernier ?

  • De quelle éducation aux médias avons-nous besoin ? | InternetActu.net
    http://www.internetactu.net/2018/06/06/de-quelle-education-aux-medias-avons-nous-besoin/#comment-1200553
    /assets/images/logo_ia.png

    Lors du dernier SXSW consacré à l’éducation, la chercheuse américaine danah boyd (@zephoria) a, comme à son habitude, délivré une très intéressante conférence sur la question de l’éducation aux médias (vidéo) devant un parterre de spécialistes. Intéressante parce qu’elle remettait en question certaines approches faciles ou rapides de la façon dont on considère l’éducation aux médias

    L’éducation aux médias à l’heure de la post-vérité

    danah boyd avait commencé à éclairer ces questions dans un article publié l’année dernière. Elle y soulignait déjà que pour elle, les deux solutions pour combattre la désinformation, à savoir l’éducation aux médias et les initiatives de vérification de l’information, oublient de prendre en compte le contexte culturel de notre consommation d’information.

    « Lorsque les élèves sont invités à comprendre le fonctionnement des médias, on leur enseigne à être critique, tout en soulignant que certaines publications sont plus dignes de respect que d’autres. Or, tout le monde n’est pas d’accord sur ce qui fait une source fiable. Aux États-Unis (pas seulement) nous vantons la responsabilité personnelle. » Chacun est son propre maître : tant et si bien que chacun est sensé comprendre par exemple la finance pour gérer efficacement sa retraite. Cette logique culturelle libérale est très forte. Mais elle a également des conséquences pour la connaissance et l’information. « Tout ce qu’ils ont à faire est de « faire les recherches » par eux-mêmes et ils sauront mieux que quiconque ce qui est réel ». Ce qui n’est pas sans poser problème, comme le pointe une étude récente de Francesca Tripodi pour Data & Society, l’Institution de recherche que dirige danah boyd, qui a observé les pratiques de recherches d’information de conservateurs américains et qui souligne que ni Google, ni les termes que l’on recherche ne sont neutres. Les recherches visant à vérifier des faits finissent par les imposer. Tripodi parle ainsi « d’inférence scripturale » pour décrire les méthodes de recherche de ces publics, profondément influencés par leurs propres convictions et par les termes qu’utilisent les médias conservateurs auprès de leurs publics qui les invite à s’informer sur ceux-ci plutôt que sur d’autres, comme l’explique le Washington Post. Les différences de termes utilisés vous conduisent à faire des recherches différentes et à des résultats différents et orientés.

    #danah_boyd #Médias_sociaux #EMI #Education_Médias_information #Pensée_critique #Culture_participative

  • Re-contraindre le #design
    http://www.internetactu.net/2018/05/07/re-contraindre-le-design

    On a souvent évoqué sur InternetActu.net les travaux du designer James Auger (blog, @crapfutures ; voir notamment « Quelle éthique pour le design ? » et « Le design pour construire le futur dans lequel nous voulons vivre »). L’occasion d’une masterclass qu’il livrait récemment à l’Ensci, nous permet de revenir sur l’éclairage qu’il apporte à (...)

    #Articles #Technologies #écologie

  • Technosciences : de la démocratie des chimères… aux chimères de la démocratie | InternetActu.net
    http://www.internetactu.net/2018/04/11/technosciences-de-la-democratie-des-chimeres-aux-chimeres-de-la-democr
    /assets/images/logo_ia.png

    La question du Gouvernement des technosciences, c’est-à-dire de la participation démocratique au choix du progrès est un des sujets de fonds de l’histoire et de la sociologie des sciences. Loin d’être le seul mode de gouvernement des sciences, la participation des citoyens à définir une innovation responsable et démocratique, leur permettant d’influer sur l’évolution technologique de la société, a semblé, depuis une vingtaine d’années, une réponse possible à des choix industriels et de recherche qui se font trop souvent par-devers eux – quand ce n’est pas contre eux. L’historien des sciences Dominique Pestre (Wikipédia), en introduction et en conclusion de son ouvrage collectif, pointait déjà pourtant combien l’enjeu de la gouvernance démocratique, qu’a promu au début des années 2000 le concept d’Empowerment (ou capacitation) tout comme la Commission Européenne via son livre blanc sur la Gouvernance européenne (.pdf), n’était pas parvenu, loin s’en faut, à inverser cette tension. Pourtant, ces dernières années, notamment avec l’essor du numérique et la montée des contestations à l’encontre de nombre de projets technologiques, la démocratie technique semblait avoir fait un pas en avant en proposant de nombreuses modalités de débats, de conférences participatives, de forums collaboratifs… Force est de constater qu’ils n’ont pas toujours produit grand-chose – quand ce n’est pas rien du tout. La question du dialogue et de la concertation pour limiter les risques des nouveautés techno-industrielles n’a pas réussi à inverser la logique libérale des marchés.

    la démocratie des chimèresLe constat que dresse la sociologue Sara Aguiton dans son livre La démocratie des chimères, gouverner la biologie synthétique va dans le même sens. La démocratie des chimères propose à la fois une mise en perspective historique de la biologie synthétique sous l’angle de la sociologie des sciences et une très intéressante critique des dispositifs de discussion mis en oeuvre autour de cette technologie. Certes, le champ de la démocratie technique qu’elle observe par le prisme de la seule biologie synthétique ne recouvre pas toutes les expériences participatives existantes, mais néanmoins permet de faire le point sur ses échecs. Car force est de constater que, de modèle pour réinventer la gouvernance des technosciences, la biologie synthétique a surtout brillé par ses échecs en la matière. Si les technologies sont plus démocratiques, c’est-à-dire que de plus en plus de gens peuvent s’en emparer, force est de constater qu’elles sont, comme avant, orientées et façonnées, plus que jamais, par la recherche et les entreprises qui les produisent.

    #Biotechnologies #Biologie_synthèse #Sarah_Aguiton #Technoscience #Controverses_scientifiques

  • La mite au secours de l’IA : vers des réseaux de neurones bio-inspirés
    http://www.internetactu.net/a-lire-ailleurs/la-mite-au-secours-de-lia-vers-des-reseaux-de-neurones-bio-inspires

    On a déjà souvent mentionné dans InternetActu.net la différence entre l’apprentissage par les machines et celui effectué par les humains (et les autres animaux) : dans le second cas, très peu d’exemples suffisent pour reconnaître un objet ou un stimulus, alors qu’un programme informatique a besoin de milliers de data. La (...)

    #A_lire_ailleurs #Recherches #biologie #IA #intelligence_artificielle

  • De l’automatisation des inégalités | InternetActu.net
    http://www.internetactu.net/2018/01/15/de-lautomatisation-des-inegalites

    Les processus de décision sont de plus en plus confiés à des machines, rappelle la chercheuse. « Des systèmes d’éligibilité automatisés, des algorithmes de classements, des modèles de prédiction des risques contrôlent les quartiers qui doivent être policés, quelles familles peuvent obtenir des aides, qui peut accéder à un emploi, qui doit être contrôlé pour fraude. (…) Notre monde est parcouru de sentinelles informationnelles (…) : d’agents de sécurité numérique qui collectent de l’information sur nous, qui fabriquent des inférences à partir de nos comportements et contrôlent l’accès aux ressources ». Si certains sont visibles, la plupart sont impénétrables et invisibles. « Ces outils sont si profondément tissés dans la fabrique de la vie sociale, que la plupart du temps, nous ne remarquons même pas que nous avons été surveillés et analysés ».

    Comme le confesse Eubanks : « Je trouve troublant la philosophie qui voit les êtres humains comme des boites noires inconnaissables et les machines comme transparentes. Ce me semble être un point de vue qui renonce à toute tentative d’empathie et qui verrouille toute possibilité de développement éthique. L’hypothèse qui veut que la décision humaine soit opaque et inaccessible est un aveu que nous avons abandonné la responsabilité que nous avons à nous comprendre les uns les autres. »

    #inegalites #automatisation

  • Vers un #design de la médiation (2/2) : jouer avec les interfaces | InternetActu.net
    http://www.internetactu.net/2017/11/15/vers-un-design-de-la-mediation-22-jouer-avec-les-interfaces
    /assets/images/logo_ia.png

    ans la première partie de ce dossier, j’ai tenté de montrer, avec l’aide du remarquable article du journaliste et développeur James Somers, que la manière même de produire du code était en train d’évoluer, que nous passions de l’écriture artisanale à des modèles de programmation qui permettent une compréhension plus globale de ce que le code accomplit. Que la complexité à laquelle le code parvenait nécessitait de nouvelles approches, de nouvelles modalités de conception. De nouveaux outils ouvrent des possibilités pour faciliter cette relation, pour transformer le dialogue entre le code et ce qu’il produit, entre codeurs et codés. De nouvelles formes de médiation entre le code et les développeurs ouvrent la voie à une autre forme de médiation entre les données, les systèmes, les traitements et ceux qu’ils calculent. Une évolution qui, via les interfaces, impacte directement notre rapport aux données et aux traitements qu’ils produisent. Dans la longue histoire des interfaces, une nouvelle étape de la médiation entre systèmes techniques et société semble se dessiner. Des interfaces optimisées et lisibles pour les machines comme le code ou jeux de données, nous glissons vers des interfaces plus accessibles aux humains tout en permettant leur exploitation conjointe par les hommes et les machines. Telle est la promesse du design de la médiation aux données.

    #visualisation #données #datavisualsiation

  • Pour un rétro-Design de l’attention | InternetActu.net
    http://www.internetactu.net/2017/10/18/pour-un-retro-design-de-lattention
    /assets/images/logo_ia.png

    Trop souvent, la seule réponse qu’obtiennent les utilisateurs à ces problèmes attentionnels est qu’elle relève de leur responsabilité, alors que des milliers de designers agencent toujours plus finement la frontière entre l’incitation et la manipulation, en façonnant chaque boucle de rétroaction du moindre de leurs outils. Les stratégies d’exploitation attentionnelle que produisent les concepteurs vont devenir de plus en plus visibles à mesure que de plus en plus d’outils vont les utiliser. Elles sont donc appelées à être de plus en plus critiquées, pointées du doigt… voire certainement régulées.

    Le problème est que ce qui est important pour l’utilisateur est lié à ce qui est important pour l’entreprise : « la machine sur laquelle vous perdez votre temps est aussi celle que vous utilisez pour savoir si votre enfant est malade, vous ne pouvez donc pas l’éteindre ou la laisser derrière vous ». Effectivement, c’est en cela que la réponse par la déconnexion, qui incite chacun à se doter de pratiques vertueuses, oublie que l’hyperconnexion à laquelle nous avons succombé, malgré ses défauts, permet d’abord de nous libérer, de nous mettre en capacité, d’élargir les formes d’interaction sociale auxquelles nous aspirons. Notre hyperconnexion n’est pas une faute morale, mais est d’abord et avant tout un moyen de gagner en autonomie.

    La fluidité des outils numériques permet de les adapter en permanence aux utilisateurs, de trouver les moyens de les « accrocher », de les « retenir »… d’exploiter et manipuler leurs comportements. « Il semblerait bien que la force de certains conditionnements invisibles logés au sein des programmes numériques soit de plus en plus puissante », comme le note le chercheur Anthony Masure dans sa thèse portant sur « le design des programmes ». Nous sommes désormais cernés de contraintes invisibles et qui s’imposent à nous, qui nous poussent à répondre, à interagir, à nous inscrire dans ce que l’anthropologue Natasha Schüll, l’auteur d’Addiction by Design, appelle « la zone de la machine », ce piège de la conception où le mécanisme lui-même devient le point, le coeur de son objet. Ce design de la dépendance qui nous rend toujours plus vulnérables à des formes de manipulation non conscientes.

    L’exploitation de notre anxiété, les pages sans fin, les flux infinis, les vidéos qui se lancent toutes seules… n’ont pas pour objectifs de vous fournir des informations qui collent à votre personnalité, mais de produire des calculs depuis notre personnalité pour mieux exploiter les contenus et les propositions que nous font ces services.

    #Attention #Design #Plateformes

  • Comment YouTube s’est transformé | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/comment-youtube-sest-transforme
    /assets/images/logo_ia.png

    Longtemps, en matière de personnalisation, YouTube est resté assez timide : l’utilisateur pouvait s’abonner à des chaînes… et c’était à peu près tout. Le temps moyen passé sur YouTube ne progressait guère. Désormais (au grand drame des youtubeurs d’ailleurs), les chaînes ne dominent plus YouTube. Quand vous ouvrez YouTube, quelques recommandations proviennent encore des chaînes auxquels vous vous êtes abonnés, mais pas l’essentiel. Il vous recommande plutôt des vidéos selon des critères d’audience, de fraîcheur des contenus ou de centre d’intérêts liés aux mots clefs qui les indexent. Petit à petit, YouTube a modifié ses outils de recommandation dans le but d’augmenter le temps moyen que chacun passe à regarder des vidéos.

    Ce changement et cette réussite, YouTube le doit à Google Brain, la division intelligence artificielle de Google, à laquelle YouTube a recours depuis 2015. Alors que YouTube a longtemps recommandé des vidéos très similaires (d’autres vidéos d’un même compte ou d’un même humoriste par exemple), l’apprentissage automatisé a permis d’élargir la recommandation. Pour cela, YouTube a développé la catégorisation des vidéos (un peu comme Netflix et ses générations de catégories à la volée que décodait Ian Bogost…). Si pour l’instant elles ne semblent pas générées automatiquement, les catégories permettent de recommander des vidéos adaptées : recommander une vidéo politique à quelqu’un qui regarde de la politique par exemple.

    Google Brain s’est mis aussi à recommander des vidéos plus courtes à ceux qui se connectent à YouTube depuis un mobile et plus longues à ceux qui se connectent depuis un écran de télévision. YouTube a réalisé quelque 190 changements en 2016 et il devrait en réaliser plus de 300 cette année. Des tas de petites améliorations qui s’ajoutent les unes aux autres au fil du temps. Il a également adopté un fonctionnement plus rapide qui permet de mieux repérer les vidéos les plus récentes et identifier les vidéos virales pour mieux les recommander. Brain a eu un très fort impact : 70 % du temps passé sur YouTube est le fait des recommandations algorithmiques, estiment ses promoteurs.

    Ce qui a tout changé, explique Jim McFadden, le responsable technique des recommandations de YouTube, c’est quand le moteur de recommandation a décidé de baser ses recommandations algorithmiques non pas sur le nombre de personnes ayant cliqué sur une vidéo, mais sur le temps que les gens passaient à la regarder, le fameux time watch. Le temps passé sur YouTube a alors augmenté de 50 % par an (et ne cesse d’augmenter à un rythme soutenu). Pour YouTube, le fait de regarder une vidéo est devenu un indicateur de sa qualité, tout comme le nombre de liens pointant vers une page a été le critère principal de qualité du pagerank de Google Search.

    Pour Todd Beaupre, responsable de la découverte chez YouTube, le moteur de recommandation de YouTube réussit à la fois à croiser ce que vous avez déjà aimé (essentiellement les catégories liées aux contenus sur lesquels vous avez passé du temps) avec ce qui est à la mode et populaire (lié aux mêmes catégories).
    Plutôt que d’élargir les choix, beaucoup reprochent à YouTube d’être très enfermant, notamment du fait de son choix de recommander ce que d’autres ont également regardé et sur lequel ils ont passé du temps. Ces choix de conception ne sont pas sans biais

    C’est moi qui souligne :

    La popularité et l’ addictivité semblent être devenues des critères forts de la recommandation chez YouTube, plus fort que la personnalisation déterminée par les like et dislike (qui semblent n’avoir plus aucun impact), les abonnements ou l’historique de navigation.

    En fait, tous les algorithmes des médias sociaux se désintéressent des choix de l’usager. Ainsi quand on suit une Page de Facebook, cela ne veut aucunement dire que l’on reçoit des informations de nouveautés sur cette page...

    En fait, ce n’est plus la « bulle de filtre » composée de notre réseau social qui est en jeu, mais une « bulle individuelle fabriquée par algorithme ». Le Meilleur des mondes quoi.

    #YouTube #Recommendation #Algorithme

  • « Tout est recommandation » : comment Netflix s’est transformé | InternetActu.net
    http://www.internetactu.net/2017/10/25/tout-est-recommandation-comment-netflix-sest-transforme
    /assets/images/logo_ia.png

    n quelques années, Netflix est devenue la plus grande plateforme de vidéo en streaming par abonnement. Non seulement, elle croule sous les succès (en terme d’abonnements), mais elle ne cesse d’investir sans compter dans des productions originales pour se démarquer des concurrents (les chaînes câblées américaines notamment). Des productions dont la particularité est que leurs modalités ont souvent été imaginées depuis les préférences des utilisateurs de la plateforme. Plus que jamais, Netflix semble faire corps avec son moto : « Tout est recommandation ».

    Dans leur article, les deux responsables de Netflix soulignent que le temps de séduction est compté : les utilisateurs perdent intérêts dès qu’ils dépassent 60 à 90 secondes à choisir un film, c’est-à-dire dès qu’ils dépassent les 10 à 20 titres proposés (et ce alors que nous avons beaucoup de mal à choisir un film). Et le risque bien sûr, est que si les utilisateurs ne lancent pas un film, ils abandonnent le service. L’article souligne très bien que la rétention de l’abonné est l’obsession des ingénieurs et que le système de recommandation est entièrement dédié à ce seul objectif.

    La personnalisation (PVR) permet de générer une multitude de recommandations et d’éviter que tout le monde se voie recommander les mêmes vidéos, se défendent Carlos Gomez Uribe et Neil Hunt. Elle permet de maximiser l’exploration du catalogue et améliore significativement la recommandation par rapport à une recommandation aléatoire. Mais cette insistance sur la personnalisation semble minimiser le rôle de la popularité des contenus. Selon eux, le « taux de prise », c’est-à-dire le calcul des recommandations qui donnent lieu à un visionnage effectif est nettement amélioré par la personnalisation (PVR) par rapport à la seule popularité des vidéos. Reste qu’elle semble malgré tout limitée. A ce qu’on en comprend, la personnalisation active surtout les multiples catégories, mais pas la popularité des films. Au final, House of cards, l’une des séries phares de Netflix, demeure un des produits les plus recommandés, comme bien des productions maison.

    un autre usage de la recommandation chez Netflix, absolument pas évoquée par les 2 ingénieurs de la compagnie : la façon dont Netflix a utilisé ses données pour initier des productions capables de plaire à la plupart de ses utilisateurs. Ainsi pour House of Cards, Netflix s’est basé sur le succès de la mini-série éponyme produite par la BBC dans les années 90, le fait que ceux qui l’appréciaient appréciaient aussi les films avec Kevin Spacey, pour produire sa première série. House of Cards, ni nombre des séries qui ont suivi n’ont pas été créées par des algorithmes, comme le souligne Todd Yellin, directeur de l’innovation de Netflix, mais la technologie a permis de choisir une histoire et des composants qui avaient du potentiel.

    #Netflix #Recommandation #Fidélité #Algorithmes

  • La rencontre en ligne change-t-elle la nature des couples ? | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/la-rencontre-en-ligne-change-t-elle-la-nature-des-couples
    /assets/images/logo_ia.png

    es sites de rencontre ont incontestablement changé la façon dont les couples se rencontrent (pour le meilleur ou pour le pire). Mais il se pourrait qu’ils influencent également le mariage et sa stabilité, estime une récente étude relevée par la Technology Review. Depuis le lancement de Match.com (né en 1995), OkCupid (en 2000) ou Tinder (2012)… c’est désormais plus d’un tiers des mariages qui commencerait en ligne.

    Les sites de rencontres ont changé la façon dont les gens trouvent leurs partenaires. Traditionnellement les liens faibles jouaient un rôle très important dans la rencontre de partenaires : beaucoup de couples se formaient en rencontrant des amis d’amis ou sur des lieux de loisirs (comme les bars et restaurants). Désormais, la rencontre en ligne d’inconnus, qui n’appartiennent pas à des réseaux relationnels existants, est devenue le deuxième moyen le plus commun pour se rencontrer chez les partenaires hétérosexuels (et le premier chez les partenaires homosexuels).

    « Les gens qui se rencontrent en ligne ont tendance à être de parfaits étrangers », expliquent les chercheurs responsables de l’étude, Josue Ortega de l’université d’Essex aux États-Unis et Philipp Hergovich de l’université de Vienne en Autriche, créant par là même des liens sociaux qui n’existaient pas auparavant.

    Attention cependant, comme le souligne ce très documenté article d’Alternatives Economiques, les rencontres en ligne semblent n’avoir pas d’effet positif sur l’homogamie, c’est-à-dire que « en ligne comme ailleurs, les rencontres amoureuses, loin de pouvoir être réduites à un simple marché, « font appel à des codes, des rituels et des manières de faire » qui continuent de différencier nettement les diverses catégories sociales. »

    #Sites_rencontre #Mariages

  • Le #progrès n’a pas encore tout à fait disparu ! | InternetActu.net
    http://www.internetactu.net/2017/10/12/le-progres-na-pas-encore-tout-a-fait-disparu

    Pour Pinker, cette #révolution humaniste doit tout au développement de l’imprimerie et à la montée de l’#alphabétisation. Peu à peu, la connaissance remplace la superstition et l’ignorance. Tel est l’apport des Lumières. Éduquée, la population est moins capable de croire que les juifs empoisonnaient les puits, que les hérétiques vont en enfer, que les sorcières sont responsables des mauvaises récoltes… La #connaissance mine la #violence. Comme le disait Voltaire : « ceux qui vous font croire en des absurdités peuvent vous faire commettre des atrocités ». Sans compter que lire et écrire favorisent le cosmopolitisme. Lire permet de prendre conscience de l’esprit de l’autre, de se mettre à sa place, d’imaginer ce qu’il ressent. « Plus nous sommes emphatiques et moins nous sommes portés à la cruauté ».

    #empathie #civilisation

  • Pourquoi les réseaux sociaux décentralisés ne marchent-ils pas ? | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/pourquoi-les-reseaux-sociaux-decentralises-ne-marchent-ils-pas
    /assets/images/logo_ia.png
    Un peu réducteur

    Pour illustrer les limites de ces solutions, sur son blog, Ethan Zuckerman revient en détail sur le développement et le fonctionnement de Mastodon. Il rappelle que du fait que Mastodon soit une espèce de fédération de services, on connaît mal son envergure, c’est-à-dire le nombre de personnes qui l’utilisent réellement (le Mastodon Monitoring Project recense environ 2142 instances de Mastodon, soit 1,5 million d’utilisateurs enregistrés – mais tous les serveurs ne sont ni fédérés ni déclarés). Néanmoins, on estime qu’une grande majorité d’utilisateurs de Mastodon sont japonais. Or, ce succès s’explique surtout par le succès du lolicon, des dessins érotiques ou pornographiques que Twitter et Facebook ont chassés de manière très agressive. Les serveurs Mastodon ont été pour ces utilisateurs un refuge. La seule raison de la croissance de Mastodon vise donc à contourner la censure automatisée que pratiquent les plateformes centralisées.

  • Une plateforme pour la génomique personnelle | InternetActu.net
    http://www.internetactu.net/a-lire-ailleurs/une-plateforme-pour-la-genomique-personnelle
    /assets/images/logo_ia.png

    Centralisation comme décentralisation posent des problèmes. Et dans tous les domaines (monnaie, données personnelles d’usage,...)

    23andMe a-t-il du souci à se faire ? Une nouvelle génération d’entreprises se consacrant à la génomique personnelle est en train de voir le jour, et parmi elles Helix, à laquelle la Technology Review a consacré un récent article. Helix utilise une technique de « vrai » séquençage de l’ADN, et non de génotypage comme le fait aujourd’hui 23andMe, et se montre en mesure de fournir, pour 80$, une lecture de l’exome, c’est-à-dire une portion de l’ADN bien plus importante que celle proposée aujourd’hui par la société d’Anne Wojcicki. Mais pour la revue du MIT, l’originalité d’Helix tient à ce qu’elle appelle un App store pour l’ADN. En effet, explique l’article, les compagnies de génomique classique fonctionnent en une seule étape. On envoie sa salive, puis on reçoit les résultats une bonne fois pour toutes. Helix se veut une plateforme ouverte à des développeurs externes qui fabriqueront des applications susceptibles de donner certaines informations précises sur le contenu de notre génome. Par exemple, la société Exploragen se propose d’analyser les rythmes de sommeil. Insitome de son côté va découvrir la proportion de gènes néandertaliens au sein d’un ADN…

    Évidemment, comme tout ce qui touche à ce domaine très controversé, des questions d’éthique et de risque se posent (comme le fait de devoir payer un loyer à vie pour pouvoir accéder à notre propre code génétique et bénéficier des avancées de la médecine, comme s’en inquiète le professeur de marketing, Christophe Benavent sur son blog). Lorsque tous les résultats sont concentrés au sein d’une même société, on peut à la limite tenter d’avoir un peu de contrôle. Mais dans un système décentralisé, qui va vérifier le sérieux des applications ?

    #Génomique