person:dominique cardon

  • Dominique Cardon : « Il ne faut pas avoir peur de la liberté d’expression qu’offre Internet »
    https://podcasts.usbeketrica.com/article/dominique-cardon-liberte-internet-podcast

    Le numérique est avant tout une culture, qu’il convient de comprendre et de décoder. Voilà l’objet - et le but - du dernier livre du sociologue Dominique Cardon, Culture numérique, publié aux Presses de Sciences Po. Avec lui, nous sommes remontés aux origines de cette culture, et de celle d’Internet. Internet a été un rêve, un rêve de libération et d’émancipation, le rêve d’un monde libéré du pouvoir des puissants. Mais qu’en reste-t-il aujourd’hui, à l’heure des GAFAM (Google, Apple, Facebook, Amazon et (...)

    #Apple #Google_-_Advanced_Technology_And_Projects_(ATAP) #Microsoft #Amazon #Facebook #algorithme #domination #censure (...)

    ##Google_-_Advanced_Technology_And_Projects__ATAP_ ##GAFAM

  • Culture numérique : Fake news panic
    http://www.internetactu.net/2019/04/11/culture-numerique-fake-news-panic

    Le numérique a enfin son manuel ! En 400 p., le sociologue et directeur du Médialab de Sciences Po, Dominique Cardon (@karmacoma) livre avec Culture numérique qui vient de paraître aux Presses de SciencesPo, une somme d’une rare clarté, faite de courts chapitres très didactiques, qui pose les bases de l’histoire d’internet, (...)

    #Enjeux #Tribune #désinformation #eDémocratie #Médias

  • Dominique Cardon, Culture numérique
    https://journals.openedition.org/lectures/32737

    Sont ainsi mobilisés de nombreux savoirs associés au numérique, à ses outils, et aux services informatiques. Autour d’un objet trop rarement saisi dans sa globalité, Cardon mûrit une analyse qui croise la sociologie, la science politique, l’économie, ou encore les sciences de l’information et de la communication. Les ruptures que l’informatique a pu induire en termes de pratiques de communication, de consommation et de production y sont décrites avec précision. Bien souvent, l’auteur prend appui sur les protagonistes de ces ruptures – ingénieurs, manageurs, scientifiques, politiques – pour dynamiser son propos et restituer les rôles de grandes figures souvent méconnues. In fine, Culture numérique aborde successivement : la généalogie d’internet ; le web comme bien commun ; la culture participative et les réseaux sociaux ; l’espace public numérique ; l’économie des plateformes ; le big data et les algorithmes.

    Les deux chapitres suivants traitent de la participation numérique aux débats publics et des nouveaux procédés de communication associés au numérique – ceci en prise avec les précédents travaux de l’auteur1. Notamment, il s’agit de décrire et classer les réseaux sociaux selon une typologie qui tient compte de la visibilité des acteurs et de leurs modalités de prise de parole : Cardon y distingue d’une part l’identité en ligne réelle de l’identité projetée, afin d’envisager sa fidélité à la réalité ; d’autre part, il s’agit de tenir compte, en termes d’identité acquise ou active, de la tendance des internautes à montrer qui ils sont ou ce qu’ils font. En découlent de nombreuses classifications – l’identité civile renvoyant par exemple à la subjectivation des individus qui publicisent leurs caractéristiques réelles sur des réseaux sociaux tandis que l’identité narrative résulterait d’un processus de théâtralisation des informations mises en ligne. Ainsi, ces types d’identité déterminent plusieurs formes de visibilité des acteurs sur les plateformes : montrer en étant caché, tout montrer et tout voir, etc. Les réseaux sociaux comportent en effet des systèmes relationnels spécifiques, solidaires du déploiement d’identités parfois exclusivement numériques. Ils permettent à chacun de choisir ce qu’il diffuse et démocratisent des pratiques créatives telles qu’entre autres la musique ou l’écriture – même s’ils consacrent en retour un certain conformisme2 et posent des enjeux de régulation très clairs3.

    #Culture_numérique #Dominique_Cardon

  • « Occupy » les ronds-points : les gilets jaunes déplacent le « mouvement des places » - Libération
    https://www.liberation.fr/debats/2019/01/11/occupy-les-ronds-points-les-gilets-jaunes-deplacent-le-mouvement-des-plac

    Le rond-point devant l’Intermarché serait-il la nouvelle Puerta del Sol ? Les années 2010 avaient commencé par une série de mouvements sur les places des grandes villes : Indignados, Occupy Wall Street, Tahrir… Elles se terminent avec une invention des provinces françaises, les mouvements de ronds-points. La comparaison est peu faite entre les gilets jaunes et ces mouvements grassroots qui ont essaimé sur la planète. C’est pourtant une clé pour comprendre la manière de faire politique des gilets jaunes.

    C’est une petite phrase qui revient souvent sur les ronds-points : « Les gilets jaunes ne sont ni d’extrême droite ni d’extrême gauche mais d’extrême nécessité. » Les étiquettes politiques divisent, il faut trouver d’autres moyens de faire groupe. Les gilets jaunes sont soudés par ce destin économique commun et par la construction d’un ennemi partagé, source de tous leurs maux : Emmanuel Macron. A Wall Street, on fabriquait du consensus en dressant une ligne très claire avec l’ennemi qui s’appelait alors « les 1% » : « Ce que nous avons tous en commun, c’est que nous sommes les 99 % qui ne tolèrent plus l’avidité et la corruption des 1% restant », proclamaient-ils. Ces définitions gazeuses du mouvement leur permettent de brasser large, « de faire du collectif avec de l’hyper divers politiquement », analyse Dominique Cardon, sociologue au Médialab de Sciences-Po qui a étudié les mouvements des places. « Ils ne se préoccupent pas de définir substantiellement les valeurs du collectif, ils définissent le collectif par sa diversité. »

    Sur les ronds-points, comme jadis sur les places, tout le monde a le droit à la parole, dans un horizontalisme radical. « On retrouve chez les gilets jaunes le même refus de la délégation que sur les places, explique Dominique Cardon. Tout porte-parole est sous le contrôle permanent d’une base qu’on ne peut pas délimiter. Ils savent qu’il est extrêmement fragile de formuler une phrase comme "nous voulons". Tout énoncé collectif doit formuler sa propre contestation. »

    #Gilets_jaunes #Mouvement_des_places

  • Face aux algorithmes, « défendre les médiocres et ceux qui sont dans la moyenne »
    https://www.mediapart.fr/journal/culture-idees/010918/face-aux-algorithmes-defendre-les-mediocres-et-ceux-qui-sont-dans-la-moyen

    Premier article d’une série consacrée aux algorithmes et à leur utilisation par les pouvoirs publics. Pour le sociologue Dominique Cardon, l’algorithme accompagne l’évolution d’une société marquée par une individualisation des rapports et une dérive vers la méritocratie. « Algorithme » est devenu un des principaux mots-totems de notre société, un terme mystérieux dont peu de gens sont capables de donner une définition claire mais investi d’un fort pouvoir symbolique. L’algorithme est censé être partout dans (...)

    #CambridgeAnalytica #Google #Facebook #GoogleSearch #algorithme #Predpol #criminalité #données #surveillance #BigData #profiling #contrôle (...)

    ##criminalité ##solutionnisme

  • Classer les choses, penser les hommes (3/4)
    Tous fichés ?

    LSD, La série documentaire par Perrine Kervran – 17/01/2018
    https://www.franceculture.fr/emissions/lsd-la-serie-documentaire/classer-les-choses-penser-les-hommes-34-tous-fiches

    http://rf.proxycast.org/1390971409584365568/10177-17.01.2018-ITEMA_21558541-0.mp3

    Des vies dans des serveurs et des noms sur des fiches

    Aujourd’hui nos vies ont des reproductions sous forme de données ou de traces dans des serveurs et sont répliquées partout dans le monde. De quoi sont faites ces données, comment sont-elles utilisées, qu’est-ce qu’elles racontent de notre identité ?

    2,5 millions de fiches et 600 000 dossiers constituent le fichier central de la sureté nationale, un incroyable « fossil archivistique » conservé aux archives nationales datant du 19ème siècle et qui raconte de manière administrative le destin de millions de personnes.

    Classer les signes visibles, marquer les gens, le fichage des êtres humains que ce soit économique ou politique suscite toujours des inquiétudes légitimes. Des serveurs de Pantin aux fichiers administratifs, réflexion autour du fichage et de l’identification.

    "Qu’est ce qui fait mon identité, la vôtre, qu’est ce qui fait que je suis différent de vous, qu’est ce qui fait que vous êtes unique et que personne ne vous ressemble ?

    Nous sommes à la fois là et dans le serveur.

    On a été des catégories maintenant nous sommes des comportements.

    Imaginons une situation où vous observez que chaque nuit la lumière chez telle personne s’allume et s’éteint 4 ou 5 fois, qu’est-ce que ça peut vouloir dire ?

    J’ai besoin de vivre dans une société dans laquelle des gens cachent des choses.

    Ces fichiers sont la seule trace de l’existence de millions de gens."

    AVEC

    Arnaud Laroche, directeur associé de la société EY
    Mokrane Lamari, directeur des opérations clients chez Equinix France
    Dominique Cardon, sociologue et directeur du laboratoire de recherche MédiaLab de Science Po
    Jean-Marc Berlière, professeur émérite d’histoire contemporaine à l’université de Bourgogne et chercheur au CNRS
    Marion Veyssière, conservateur du patrimoine aux Archives Nationales et responsable du département de la justice et de l’intérieur
    Violaine Challeat-Fonck, conservateur aux Archives Nationales en charge des fonds du ministère de l’intérieur

    Une série documentaire de Laëtitia Druart, réalisée par Doria Zénine

    BIBLIOGRAPHIE

    A quoi rêvent les algorithmes ? Nos vies à l’heure des big data - Dominique Cardon, éditions du Seuil

    Histoire de l’identification des personnes - Ilsen About et Vincent Denis, éditions de La Découverte

    Fichés ? Photographie et identification du second empire aux années 60 - Catalogue de l’exposition sous la direction de Jean-Marc Berlière et Pierre Fournié

    EXTRAITS DES FILMS

    « Le prisonnier » de George Markstein et Patrick McGoohan (1967)

    « Alphaville » de Jean Luc Godard (1965)

    « Brazil » de Terry Gilliam (1985)

    EN PARTENARIAT

    Cette semaine, LSD, La série documentaire est en partenariat avec Tënk, la plateforme du documentaire d’auteur, qui vous permet de visionner le film de Philippe Ayme, intitulé Brigitte Senut, la dame aux fossiles.

  • Paléo-inspiration : quand le passé invente le futur

    http://www.lemonde.fr/sciences/article/2017/11/20/paleo-inspiration-quand-le-passe-invente-le-futur_5217667_1650684.html

    Des bétons antiques, des pigments ou des alliages qui ont traversé les âges sont des sources de savoirs pour concevoir des objets et matériaux innovants.

    Une teinture naturelle, aussi résistante qu’une couleur chimique mais non polluante. Un béton ­indestructible, capable d’isoler durablement les déchets nucléaires. Des aimants de nouvelle génération, d’une puissance extrême et produits sans terres rares. Des capteurs photoélectriques ultrasensibles, susceptibles de détecter dans un avion les premières traces d’un gaz… Ces produits de rêve ne semblent, à première vue, pas avoir grand-chose en commun, sauf peut-être le rêve, justement. Tous demeurent, en effet, à l’état de prototype, voire de projet de recherche. En vérité, ils partagent une autre caractéristique bien plus fondamentale, une origine commune, une marque de fabrique : ils sont nés de découvertes archéologiques ou de l’étude de matériaux ancestraux.

    Faire du neuf avec du vieux. L’idée peut sembler basique. Elle figure pourtant au cœur d’un pari particulièrement ambitieux que viennent de lancer quatre scientifiques – physiciens, chimiste, ingénieur. Dans un article que publie la revue Angewandte Chemie, la plus prestigieuse dans la discipline de la chimie, ils ne proposent rien moins que de créer une nouvelle méthode de conception des matériaux modernes, « en imitant les propriétés particulièrement intéressantes (mécaniques, optiques, structurales…) des systèmes anciens ». Un processus qu’ils ont baptisé du doux nom de « paléo-inspiration ». Pour les amateurs de sciences, la référence est transparente. Depuis une dizaine d’années, en effet, des chercheurs venus de tous horizons se sont rassemblés sous la bannière de « bio-inspiration » ou « bio-mimétisme ».

    Leur principe est simple : trouver dans la ­nature les outils de conception des systèmes ­innovants. Une méthode déjà ancienne, en ­vérité : du papier de bois inspiré des réalisations des guêpes (1719), au Velcro imitant les petits crochets présents sur les fleurs de bardane (1941), sans compter une myriade de médicaments puisés dans la biosphère, animaux et végétaux ont beaucoup inspiré les scientifiques.

    L’apposition officielle d’une étiquette a pourtant dopé ce qui est pratiquement devenu une discipline à part entière. Désormais, on conçoit des surfaces adhésives d’après les pattes des geckos, des torpilles mimant les petits marteaux des crevettes-mantes, des combinaisons hydrophobes pour les astronautes inspirées des feuilles de lotus ou des logiciels informatiques reproduisant les ­réseaux de neurones.

    « Les découvertes archéologiques ou paléontologiques identifient des matériaux particulièrement résistants à l’altération. Mieux encore, beaucoup de ces matériaux ont été produits par une chimie douce, sobre en énergie et utilisant souvent des équipements rudimentaires. »
    Le chemin est donc tracé. Et les auteurs en sont convaincus : ce que la nature a pu apporter aux chercheurs « bio-inspirés », l’ingéniosité des hommes d’autrefois et surtout le temps, cet intraitable juge de paix, doivent pouvoir l’offrir aux scientifiques « paléo-inspirés ». Ils s’expliquent dès l’exposé introductif de leur article : « Les découvertes archéologiques ou paléontologiques identifient des matériaux particulièrement résistants à l’altération. Mieux encore, beaucoup de ces matériaux ont été produits par une chimie douce, sobre en énergie et utilisant souvent des équipements rudimentaires. » Deux qualités particulièrement précieuses à l’heure de l’anthropocène, soulignent-ils.

    Ce « ils », quatuor de choc aux accents pionniers, s’est construit l’été dernier, lors d’un colloque aux Etats-Unis. Des spécialistes de matériaux anciens y sont invités à présenter leurs recherches en cours et à proposer un « développement méthodologique ». Trois des quatre mousquetaires sont là : Loïc Bertrand, directeur d’Ipanema, la plate-forme européenne de recherche sur les matériaux anciens, sur le plateau de Saclay ; Claire Gervais, professeure assistante de chimie à l’école des arts de Berne ; et Admir Masic, professeur de sciences des matériaux au département d’ingénierie civile du Massachusetts Institute of Technology (MIT). Luc Robbiola, ingénieur de recherche en métallurgie au CNRS (Toulouse) et restaurateur d’œuvres d’art, les rejoindra pour former l’équipe définitive.

    Le principe de la paléo-inspiration

    « C’est lors des discussions après nos présentations respectives que l’idée de poser un concept est apparue, raconte Loïc Bertrand. On a listé ce qui pouvait entrer dedans. Il y avait les matériaux artistiques, comme les peintures, que Claire analyse et dont elle simule la dégradation. Les matériaux de construction anciens, qu’Admir étudie pour tenter d’améliorer les systèmes modernes. De nombreux échantillons passés chez nous, au synchrotron ­Soleil, des vernis traditionnels aux produits de corrosion inconnus, qui nous avaient posé des questions fondamentales originales. Et la liste s’agrandissait… En fait, beaucoup de chercheurs avaient fait de la paléo-inspiration sans le savoir. On s’est dit : essayons d’écrire un article concept et soumettons-le à une grande revue, sans résultats nouveaux mais posant un principe, en s’appuyant sur de nombreux exemples. »

    Le béton romain constitue indiscutablement un des plus beaux d’entre eux. Voilà un produit qui, depuis maintenant 2000 ans, résiste aux ravages du temps. Le Colisée, les marchés de Trajan, ou ­encore le Panthéon, le plus grand monument ­antique romain demeuré intact, apportent un ­témoignage éclatant de la qualité du savoir-faire des Romains. « Les bétons modernes sont garantis au mieux cent ans et ils se détériorent souvent bien plus tôt, souligne Admir Masic. Quel était donc le secret des Romains ? » Le hasard d’un congé sabbatique en Italie a conduit l’archéologue américaine Marie Jackson à consacrer sa vie professionnelle à lever les mystères d’un miracle déjà décrit par Pline l’Ancien mais resté longtemps incompris.

    Immortel béton romain

    « Les Romains étaient d’incroyables observateurs de la nature et de grands expérimentateurs, insiste la scientifique de l’université de l’Utah. Ils ont pris ce qu’ils avaient autour d’eux et sans doute testé ce qui marchait le mieux. » Pour construire le mortier, ils n’ont ainsi pas eu recours à n’importe quelle argile, mais à de la cendre volcanique – dont la région ne manque pas – qu’ils ont ­mélangée à de la chaux. A ce liant, ils n’ont pas ­adjoint un vulgaire sable ou de quelconques graviers, comme nous le faisons aujourd’hui pour former le béton, mais de la roche volcanique. En étudiant des échantillons anciens avec des techniques d’imagerie de pointe, elle y a trouvé un minerai, la stratlingite, produit par cristallisation, dont les minuscules lamelles viennent combler les failles apparues dans le mortier mais aussi aux zones de contact du matériau. Plus élastique, le ciment a ainsi pu résister aux tremblements de terre, fréquents dans cette région.


    A Portus Cosanus, en Toscane, les scientifiques tentent de percer le secret de la résistance de cette structure marine en béton, datant du Ier siècle avant J.-C.

    L’archéologue a poursuivi sa quête, étudié les bétons marins utilisés par les Romains dans leurs différents ports de la Méditerranée. Pline, toujours lui, avait décrit l’impressionnant durcissement du matériau au contact de l’eau de mer. Pourtant, nos propres bétons, soumis au même régime, se désagrègent rapidement. Marie Jackson a là encore ­retrouvé des matières volcaniques, mais issues cette fois des champs Phlégréens, près de Naples, ou du Vésuve. Et ses analyses ont fait apparaître un minéral d’une dureté extrême mais aussi particulièrement difficile à fabriquer : la tobermorite ­alumineuse. « Les Romains l’ont fait, et à basse température », souligne la chercheuse. Cet été, elle a même montré qu’au contact de l’eau de mer, la production de tobermorite pouvait se poursuivre… pendant des siècles. Comme n’a cessé de s’épaissir la fine couche de misawite – un composé rare de fer, d’oxygène et d’hydrogène – qui protège de la rouille le mystérieux pilier de fer de Delhi, érigé au Ve siècle, sous la dynastie des Gupta.


    L’analyse du ciment formé par les cendres volcaniques, la chaux et l’eau de mer a mis en évidence des cristaux de tobermorite alumineuse.

    Les découvertes de Marie Jackson intéressent évidemment les industriels. Protection nucléaire, construction marine, bâtiments durables : plusieurs pistes sont aujourd’hui explorées. « Quand on sait que la production de ciment, avec sa cuisson à 1 450 °C, est responsable, à elle seule, de 7 % à 8 % des émissions totales de CO2 et que les Romains se contentaient d’une température bien moindre, on mesure l’enjeu », ajoute Admir Masic. Encore faut-il s’adapter aux contraintes modernes, de ­robustesse mais aussi de temps de fabrication. Son équipe du MIT tente ainsi de faire « la synthèse des deux mondes ». Il ne donnera pas de détails, preuve du potentiel.

    Percer les secrets de fabrication

    Reproduire les anciennes recettes pour proposer de nouveaux plats : c’est aussi l’objectif de Roberto Giustetto. Son ingrédient à lui se nomme le bleu maya. Encore un mystère : comment cet indigo organique, obtenu à partir des fleurs d’indigofera et apposé sur des fresques murales ou des sculptures, a-t-il pu résister pendant des siècles ? Les couleurs végétales ne sont-elles pas réputées fragiles ? « Normalement oui, répond le chercheur de l’université de Turin. Sauf que les Mayas ont eu l’idée géniale de mélanger ce pigment à la palygorskite, un minéral présent dans certaines argiles mexicaines, et ont fabriqué ainsi un des premiers nanomatériaux. »


    Grâce aux liaisons chimiques entre l’argile et l’indigo, le bleu maya de cette statue représentant Tlaloc, dieu aztèque de la pluie, datée entre le XIIe et le XIVe siècle, a traversé les années.

    Depuis les années 1930 et la redécouverte du bleu maya, plusieurs générations de chercheurs s’étaient approchées du secret, avaient mis en évidence la palygorskite et prouvé que, chauffé à 100 °C, un tel mélange résistait ensuite à l’alcool et aux acides. Roberto Giustetto a achevé de lever le mystère. « Nous avons montré que la palygorskite était composée de petits tunnels de 0,7 nanomètre, que le chauffage évacuait l’eau qui s’y trouvait et permettait au pigment de pénétrer. Mais ce n’est pas qu’un abri. Des liaisons chimiques s’établissent entre les deux éléments et rendent la structure presque indestructible. »

    Le chercheur italien s’est fixé un nouveau défi : « reproduire ce que les Mayas avaient fait mais avec d’autres couleurs ». Il a jeté son dévolu sur le rouge de méthyle. Un choix paradoxal : le rouge de méthyle – souvenez-vous des premières expériences de chimie – sert d’indicateur coloré, passant du jaune à l’orange, puis au rouge violacé à mesure que l’acidité augmente. Peu stable, donc. Sauf qu’encapsulé dans la palygorskite, le violet ­demeure inaltéré. La recette du « rouge maya » a été publiée. Celle de l’orange est prête et un vert maya est en voie d’achèvement. « L’idée d’avoir transposé le savoir maya dans notre culture, d’avoir nourri le présent avec le passé pour construire le futur m’enthousiasme », insiste-t-il.

    Explorer la couleur

    L’art des couleurs paraît particulièrement adapté à la paléo-inspiration. Au cours de sa thèse, entre la Cité de la céramique (Sèvres et Limoges) et l’Institut de minéralogie, de physique des matériaux et de cosmochimie (Paris), Louisiane Verger s’est ainsi penchée sur les 136 pigments synthétisés depuis deux siècles à la Manufacture nationale, et plus particulièrement aux 76 pigments contenant du chrome – rose, vert ou encore jaune oranger, suivant le minéral d’origine. Elle a ­ensuite jeté son dévolu sur les spinelles, une ­famille de minéraux aux teintes variables. En analysant, avec toutes les techniques de pointe, les ­décors de porcelainiers du XIXe siècle, les nuanciers de travail des artisans mais aussi ses propres échantillons (destructibles, donc), elle est parvenue à expliquer chimiquement mais aussi physiquement les dégradés observés : une migration de l’aluminium dans le silicate fondu, laissant la part belle au chrome et modifiant son environnement dans la maille cristalline. Elle a également proposé une méthode capable à la fois de contrôler le dégradé des couleurs et leur intensité. « Il semble que ça n’intéresse pas seulement les céramistes, mais aussi des spécialistes d’autres domaines comme la géologie et la minéralogie », explique-t-elle, modestement.

    La couleur, voilà trente ans que Dominique ­Cardon, directrice de recherche émérite au CNRS, trempe dedans. Que la chercheuse reconnue, ­médaille d’argent du CNRS, assure, à qui veut l’entendre, que les méthodes de teintures ancestrales ont beaucoup à nous apprendre. Cela a commencé avec un morceau de laine rouge, datant du Moyen Age, retrouvé sur un cadavre au fond d’un puits. Cela s’est poursuivi à travers le monde où, du Japon au Pérou, du Vanuatu au Vietnam, elle a étudié les méthodes traditionnelles encore en ­vigueur. Désormais, elle rêve d’adapter au monde contemporain les techniques de teinturiers du XVIIIe siècle, dont elle a retrouvé les carnets. ­Utopie ? « La planète est dans un tel état, et les rejets de dérivés soufrés de la teinture des jeans si terribles, que ça me semble au contraire tout à fait réaliste. Levi’s a fait une collection à partir de colorants naturels. Chevignon aussi. Et des Coréens s’inspirent des techniques que nous avons retrouvées. Je suis convaincue que les procédés anciens peuvent inspirer les innovations futures. »


    Les reflets colorésdans le noir des poteries de la dynastie Song(Xe-XIIIe siècle) proviennent d’une forme rarissime d’oxyde de fer, susceptible de produire des aimants surpuissants.

    Un avenir parfois tout à fait imprévu. Ainsi ­Philippe Sciau, physicien et directeur de recherche au CNRS, ne s’attendait-il pas à trouver, dans des ­céramiques chinoises de ladynastie Song (Xe -XIIIe siècle) une forme d’oxyde de fer particulièrement instable. « On voulait comprendre l’origine de l’irisation colorée dans le noir. Ça ressemblait un peu aux couleurs que vous voyez sur un CD, quand vous le tournez. On a vite vu que c’était de l’oxyde de fer mais aucune phase classique ne fonctionnait. Et on a découvert la bonne. » Un des « polymorphes » d’oxyde de fer, comme disent les chimistes, organisation particulière des atomes, qu’aucun laboratoire n’avait pu jusqu’ici produire au-delà de l’échelle de la dizaine de nanomètres, et encore avec 20 % d’impuretés. Cette fois, les cristaux semblent parfaitement purs et mesurent plusieurs centaines de nanomètres. Pas gigantesques, certes. Mais suffisants pour donner de l’appétit aux fabricants d’aimants ou aux développeurs de systèmes de communication sans fil, tant les propriétés magnétiques du matériau paraissent exceptionnelles. Reste désormais à comprendre les raisons de cette stabilisation. « Est-ce la glaçure sur les pots ? La fabrication à très haute température ? Un refroidissement particulièrement lent ? s’interroge Philippe Sciau. On sait qu’ils avaient des grands fours mais on n’a pas leurs recettes. On va chercher. »

    Systèmes complexes

    Se laisser surprendre. Prendre les matériaux ­anciens pour ce qu’ils sont : des systèmes complexes, produits par le temps et les hommes. Comme ses trois cosignataires, Luc Robbiola, ingénieur de recherche au CNRS, métallurgiste immergé dans un laboratoire d’archéologie, est convaincu que le temps est venu d’un autre regard sur les objets ­patrimoniaux. Est-ce sa deuxième casquette de restaurateur d’œuvre d’art ? Le fait d’avoir connu la période maigre, quand ce pionnier des « sciences au service de l’art » dut trouver refuge dans une école de chimie, faute d’intérêt au CNRS ? Ou simplement les résultats obtenus ? Récemment, il a ainsi mis en évidence des nanostructures inconnues, très denses et très protectrices, sur les patines des bronzes. « Un programme européen a été lancé pour mettre au point des revêtements non toxiques, des industriels sont associés. Au départ, c’était juste de l’archéologie. »

    L’aventure de l’amulette de Mehrgarh, conduite par Loïc Bertrand et Luc Robbiola offre les mêmes perspectives. Il y a tout juste un an, l’annonce que ce petit objet de cuivre, retrouvé sur un site au ­Pakistan et analysé au synchrotron Soleil, probablement le plus ancien spécimen de fonte à la cire perdue, avait passionné les archéologues. Au passage, les scientifiques avaient reconstitué tout le processus de fabrication utilisé il y a 6 000 ans, mais aussi les six millénaires de vieillissement. Ils avaient mis en évidence une forme particulière d’oxyde de cuivre, dont l’équilibre de phase ne pouvait avoir lieu qu’à 1 066 °C. « Comme l’eau, qui, sous pression normale, bout toujours à 100 °C, ­explique Luc Robbiola. Ça paraît anodin mais ça ouvre plein de perspectives. Ça intéresse les métallurgistes, les physiciens théoriciens mais aussi les fabricants de semi-conducteurs, de témoins de température en cas d’incendie, ou de détecteurs de gaz dans les avions. »

    Un avenir radieux ? Ou juste le signe que du passé, il n’est plus question de faire table rase ? « Les temps changent », jure en tout cas Admir Masic. Pour preuve, le module d’un semestre de sciences des matériaux qu’il organise commence par un voyage de trois semaines en Italie, suivi de travaux pratiques. Les mains dans ­l’argile, à la romaine.

  • Sur la propriété des données personnelles (et leur valeur marchande)

    https://linc.cnil.fr/vivrons-nous-demain-au-moyen-age

    Alors, nouveau système féodal ? En tout cas, il est intéressant de passer ces analyses au prisme de l’esprit du cadre européen de protection des données : le droit français (en particulier par la modification de l’article 1er de la Loi dite "Informatique et Libertés" suite à la Loi pour une République Numérique, ) et le droit européen (Règlement général à la protection des données) évitent soigneusement cette notion de propriété des #données_personnelles, qui peut paraitre séduisante de prime abord, mais est en réalité probablement une impasse : si l’expression « mes données » est une belle manière d’affirmer la souveraineté de l’individu sur ce qui le concerne au premier chef, tout ce qui vient en droit (et dans une moindre mesure en économie) avec la notion de propriété est extrêmement difficile à mettre en musique quand on parle de données, a fortiori de données personnelles. Par exemple les données génétiques d’un individu peuvent être considérées comme des données « pluripersonnelles » comme le rappelle la nouvelle publication de la CNIL sur le sujet (Le point CNIL : Les données génétiques, à la Documentation française, p. 41) : elles sont héritées et transmissibles, donc partagées avec les ascendants et descendants et peuvent porter atteintes à leurs droits. Comment dès lors "jouir et disposer de la manière la plus absolue" d’elles seul, pour reprendre la définition du droit de propriété du Code civil (article 544) ? 

    Le droit européen et français met plutôt en avant le pouvoir de contrôle des individus et leurs droits fondamentaux, par exemple par l’entremise du principe d’"auto-détermination informationnelle" et par l’existence, réaffirmée par le RGPD, des droits des individus sur les données les concernant (accès, suppression, portabilité, …). Peut-être disposons-nous déjà de la base juridique nécessaires aux Lumières du numérique ?

    Ces données ne seraient donc pas si « personnelles » ? Quid, du coup, de leur valeur ? Peut-on se contenter de dire qu’elle est extorquée par les plate-formes numériques ? Cf. Dominique Cardon dans son bouquin co-écrit avec @antoniocasilli, Qu’est-ce que le #digital_labor ? :

    Les plateformes d’intermédiation ne produisent pas un service substantiel (comme de fabriquer les contenus de programmes), mais procédural : agréger de la méta-information ou opérer de la mise en relation. J’ai parfois l’impression que dans le reproche fait à Google ou Facebook de « ne rien faire » pendant que les internautes « font le travail » peuvent s’entendre encore les présupposés de l’économie industrielle opposant le « vrai travail » au « faux service ». À ne pas prendre au sérieux l’importance cruciale prise aujourd’hui par les procédures d’intermédiation (hébergement, agrégation, classements, algorithmes, etc.), on risque toujours de penser qu’il suffirait d’agir du côté des plateformes, ou d’en créer de nouvelles d’un claquement de doigts, pour se libérer de la captation indue de plus-value par les GAFA (Google-Apple-Facebook-Amazon).

    Sans effet réseau, sans artefact de mise en relation, sans algorithme de recommandation, sans métrique de visibilité, nos productions numériques ne seraient plus du travail extorqué, mais elles auraient aussi perdu leur visibilité, leur réputation, les gratifications de l’échange et les honneurs du commentaire, bref, elles seraient sans aucune valeur, ni monétaire ni symbolique. Ce raisonnement d’économie « industrielle » fait comme s’il existait une valeur « unitaire » des productions individuelles, ou des données, des internautes, alors que, à l’unité, ces productions, ou ces données, sont sans valeur aucune. C’est leur transformation par un mécanisme d’agrégation, de calcul, de comparaison, de filtre, de classement ou de recommandation qui leur confère un sens (pour les internautes) et une valeur (pour les plateformes). Le service rendu par la plateforme, qui consiste à agréger les interactions et à automatiser la révélation d’une « intelligence collective » des productions unitaires grâce à des algorithmes, est négligé ou minoré dans ces travaux, alors que c’est lui qui rend valorisable le travail gratuit des internautes.

    • Evgeny Morozov et le « domaine public » des données personnelles, par @calimaq
      https://scinfolex.com/2017/10/29/evgeny-morozov-et-le-domaine-public-des-donnees-personnelles

      Au début du mois, l’essayiste biélorusse-américain Evgeny Morozov a donné une interview pour l’émission Soft Power, dans laquelle il résume de manière intéressante les positions assez iconoclastes qu’il défend à propos des données personnelles. Là où les militants numériques mettent l’accent sur la défense de la vie privée, Evgeny Morozov explique que l’enjeu principal est d’ordre économique et que le bras de fer avec les géants du numérique (GAFAM et autres) passe par le fait de considérer les données personnelles comme un « bien public » et de les faire relever d’un « domaine public ». C’est une idée qu’il avait déjà avancée dans un article remarqué paru dans le Guardian en décembre 2016, traduit en français par le Monde Diplomatique sous le titre « Pour un populisme numérique (de gauche) ». (https://blog.mondediplo.net/2016-12-15-Pour-un-populisme-numerique-de-gauche)

      (…) l y a beaucoup de choses à dire sur ces différentes propositions, mais je voudrais commencer par souligner l’impression « épidermique » que doit ressentir toute personne qui entend pour la première fois l’expression « domaine public des données personnelles ». En droit de la propriété intellectuelle, le domaine public constitue ce statut auquel les œuvres accèdent à l’issue de la période d’exclusivité, pour devenir librement réutilisables (moyennant le respect du droit moral), y compris à des fins commerciales. Dès lors, dire que l’on veut faire entrer les données personnelles dans un « domaine public » est de nature à susciter un certain malaise, car on voit mal comment les données personnelles, qui touchent à la vie privée des individus et à leur intimité, pourraient relever d’un tel droit d’usage généralisé. Mais ce n’est pas vraiment à cette « métaphore » du domaine public de la propriété intellectuelle qu’Evgeny Morozov rattache ses propositions. Ce qu’il décrit ressemble davantage au régime dit de la domanialité publique, qui régit les biens possédés par les personnes publiques. C’est le système qui s’applique notamment à l’occupation des trottoirs et des places publiques par des commerces (occupation temporaire du domaine public), moyennant des conditions à respecter et le versement d’une redevance.

  • Internet, raison et sentiments
    https://www.franceculture.fr/emissions/la-grande-table-2eme-partie/internet-raison-et-sentiments


    http://media.radiofrance-podcast.net/podcast09/12360-28.12.2016-ITEMA_21179411-1.mp3

    Le web - et notamment via les réseaux sociaux - est devenu un espace majeur pour le partage des émotions. Les sentiments vécus lors de chaque événement, collectif ou privé, trouve un terrain d’expression sur le net. Mieux, si le partage de nos émotions est un élément fondamental de la vie sociale, le moyen numérique permettrait encore plus au groupe de bénéficier d’une expérience particulière. L’expression des émotions semble être néanmoins exacerbée dans cette relation dématérialisée. On constate en effet que l’émergence d’Internet modifie la définition sociale des émotions. Que devient notre vie émotionnelle dans un environnement qui exclut toute présence physique ? Quelles nouvelles formes d’échanges émotionnels Internet crée-t-il ? On en parle avec le sociologue Dominique Cardon.

    "La grande transformation numérique est en train de bouleverser la forme de l’espace public. Or, on applique à cette nouveauté beaucoup de critères, de raisonnements, d’interprétations qui viennent de la forme ancienne de l’espace publique. Et du coup, on a du mal à comprendre la nouveauté."

    #filter_bubble #personnalisation #médias_sociaux etc.

    Où j’apprends qu’il y a eu une tribune pour des États généraux du Web indépendant ? On a du en parler ici forcément.

    Et aussi que Google a mis en place un Google actu inversé (qui ne recense que les infos dont tout le monde se fout).

    J’irais chercher les liens plus tard.

  • Nous sommes responsables de nos aveuglements
    https://www.franceculture.fr/emissions/la-vie-numerique/eh-bien-oui-nous-sommes-responsables-de-nos-aveuglements

    @xporte : Sauf qu’il y a deux jours, le sociologue Dominique Cardon m’a orienté vers une étude qu’il estime solide méthodologiquement, une étude effectuée en 2015 par trois chercheurs de l’Université du Michigan qui ont analysé les relations politiques de 10 millions de comptes Facebook. Les chercheurs sont très prudents, ont bien conscience de tous les biais de leur travail, mais l’étude apporte deux résultats à méditer.

    => http://cn.cnstudiodev.com/uploads/document_attachment/attachment/681/science_facebook_filter_bubble_may2015.pdf

    Le premier, c’est que les utilisateurs de Facebook sont plus exposés qu’on ne le croie à des opinions en contradiction avec les leurs. En moyenne, ils sont exposés à hauteur de 20% à des avis politiques qui contredisent les leurs. (…)

    Le second résultat de ce travail est plus troublant. Etudiant de manière comparée les réseaux de personnes se disant démocrates et de personnes se disant républicaines, les chercheurs ont remarqué que les républicains étaient plus enclins à se confronter aux contenus démocrates, que l’inverse. (…)

    #filter_bubble #personnalisation #algorithmie etc.

    Étude à regarder de plus près, et à comparer à celle-ci : https://seenthis.net/messages/305366

    • [...] si les gens de droite s’exposent plus aux idées de gauche que l’inverse, c’est lié à un engagement politique plus faible. [...]

      Mais comme cette conclusion ne me paraît pas complètement satisfaisante, j’en appelle à votre sagacité pour formuler des hypothèses plus convaincantes.

      Les gens de droite sont plus enclins à suivre les contenus produits par les gens de gauche sur les réseaux sociaux car leur engagement politique se traduit plus facilement sous la forme du harcèlement de l’opposant, sous couvert de confrontation des idées ? Ce que les gens de gauche ont tendance à considérer comme un « engagement faible »...

    • Une autre :

      Les gens de droite sont plus enclins à suivre les contenus produits par les gens de gauche sur les réseaux sociaux car... ce sont des contenus de droite ? Chaque fois que Mélenchon se lance dans une défense du « travail honnête », il y a forcément quelques électeurs F.N. qui s’abonnent à son fil twitter...

  • Facebook, faux ami de la démocratie

    http://www.lemonde.fr/actualite-medias/article/2016/11/01/facebook-faux-ami-de-la-democratie_5023701_3236.html

    Quand Susanna Lazarus s’est éveillée, ce vendredi 24 juin, et qu’elle a allumé la télévision, la stupeur l’a envahie. Son pays, le Royaume-Uni, venait de choisir de quitter l’Union européenne, à près de 52 %. Pourtant, dans les jours qui précédaient, cette Londonienne de 27 ans n’avait rien vu venir. Sur Facebook, presque tous ses amis, issus comme elle de la cosmopolite capitale économique du pays, avaient partagé les arguments du « remain ». La campagne adverse, celle du « Leave », était absente de son flux. « Quand je suis allée me coucher, hier soir, je me sentais optimiste, et une grande part de cet espoir venait de l’état d’esprit que je percevais sur mes fils sociaux », a confessé cette journaliste dans un article du magazine Radio Times, au lendemain du vote. Et de conclure, amère : « Hier, mon fil Facebook m’a fait un gros mensonge ».

    Un tel témoignage prêtait bien sûr le flanc à la critique. « Franchement, si vous êtes assez bête pour faire confiance aux réseaux sociaux pour vous informer et vous forger un avis, vous méritez ce genre de surprise », l’a sévèrement tancée Rosemary, de Genève, dans les commentaires. Un autre internaute, David, a pris un peu de hauteur : « Nous avons tous tendance à échanger en priorité avec des gens qui partagent nos points de vue. » Susanna n’avait pas caché vivre dans une espèce de « bulle », entourée de gens qui lui ressemblent. Dans la région de Londres, 40 % des votants ont pourtant choisi le Leave. Mais Susanna comptait sans doute très peu d’entre eux parmi ses « amis numériques ».
    Plus d’un milliard d’utilisateurs

    Facebook nous « ment »-il, comme l’a écrit la jeune Londonienne après son douloureux réveil ? La question est devenue extrêmement sensible, à mesure que le réseau social dominant s’est mué en un lieu d’information et de débat – alors qu’il n’était à l’origine qu’une espèce de répertoire, inspiré des trombinoscopes des facs américaines. Douze ans après sa création par Mark Zuckerberg, The Social Network – pour reprendre le titre du film qui narre ses origines – compte 1,13 milliard d’utilisateurs quotidiens (dont 24 millions de Français). Et parmi eux, 44 % déclarent l’utiliser pour s’informer, selon le Reuters Institute for the Study of Journalism, de l’université d’Oxford (Royaume-Uni).

    Sur le réseau, l’intérêt pour le débat public et la politique est encore plus grand pendant les campagnes électorales, comme actuellement en France ou aux Etats-Unis. De janvier à septembre, 103 millions de personnes – soit la moitié des membres américains de Facebook − ont interagi avec des contenus concernant la présidentielle du 8 novembre. Fin 2015, la plate-forme a même mesuré que l’élection était, aux Etats-Unis, le premier sujet de conversation de ses utilisateurs, devant les attentats ou la crise des réfugiés.

    « Une chose est sûre : le débat public est sur ces plates-formes », résume Axel Calandre, responsable de la campagne numérique de Nicolas Sarkozy. Pour preuve, ces milliers de pages partisanes, outre-Atlantique, dont l’audience cumulée rivalise sur Facebook avec celle de CNN ou du New York Times, selon une enquête du New York Times Magazine. Les grands médias ne sont plus qu’une partie d’un espace public bien plus vaste, au sein duquel le réseau social américain occupe une place de plus en plus centrale.

    Or, quels que soient leurs biais, les médias traditionnels fonctionnent avec des règles qui reflètent celles des sociétés démocratiques : ils font entendre différents points de vue, s’attachent à proposer un équilibre dans les sujets qu’ils abordent, à respecter le principe du contradictoire… Dans certains cas, ils sont même soumis à une régulation, à l’image des radios et télévisions en France, qui se voient imposer par le CSA de respecter le pluralisme et l’équilibre des temps de parole en politique.

    Aucune responsabilité éditoriale

    Autant de principes qui sont étrangers à Facebook. Ce dernier n’a pas été conçu comme un média. C’est « avant tout un service qui vous permet de vous connecter avec vos amis et votre famille », prêche son responsable produit, Chris Cox, proche de Mark Zuckerberg et apôtre de Facebook parcourant le monde entier. Conséquence formulée par sa responsable des relations avec les politiques, Katie Harbath : « Nous sommes agnostiques sur le contenu, nous n’avons pas d’avis éditorial ». Facebook se présente comme « une plate-forme neutre et ouverte », insiste-t-elle.
    Facebook est avant tout une usine à publicité ciblée. Sur mobile, elle rivalise avec Google pour la première place et dégage environ 6 milliards d’euros de revenus… par trimestre.

    Le réseau réfute toute notion de responsabilité éditoriale. En revanche, il exerce bien une forme de sélection des contenus, par le biais d’un algorithme. « Notre but est de montrer à chaque personne le genre d’histoires qu’elle veut le plus voir, d’après nos indications », expose un document de référence publié en juin par Facebook pour expliciter les « valeurs » du fil d’actualité – ce flux de contenus choisis par un algorithme, que chacun voit quand il se connecte au réseau. Et de préciser : « Nous agissons ainsi non seulement parce que nous pensons que c’est la bonne chose à faire, mais aussi parce que c’est bon pour notre business ». Un rappel salutaire : Facebook est avant tout une usine à publicité ciblée. Sur mobile, elle rivalise avec Google pour la première place et dégage environ 6 milliards d’euros de revenus… par trimestre.

    Il y a donc un hiatus entre ce qu’est Facebook et ce pour quoi il est utilisé, en tout cas quand il s’agit d’information. Ce hiatus explique la mésaventure de Susanna Lazarus, et une série de prises de parole récentes pointant des effets de cloisonnement. En France, ce sont les opposants à la loi travail qui sur Facebook voient surtout des contenus confortant leur vision, sans vraie porosité avec les défenseurs du texte. Ou les adversaires du burkini qui échangent en cercle fermé, comme le font, dans le camp opposé, ceux qui dénoncent l’islamophobie. Faute d’une information commune, ces différents groupes risquent de se retrouver dans l’incapacité à débattre ensemble, ce qui est pourtant un fondement de la culture démocratique.

    Ni médiation ni équilibre

    Parfois, la logique communautaire de Facebook épouse les fractures de conflits bien plus terribles. C’est le cas en Syrie, selon le chercheur Yves Gonzalez-Quijano, spécialiste des cultures numériques du monde arabe. A l’origine, pointe-t-il, Facebook est associé à une « mythologie positive », celle des « printemps arabes » de 2011. Mais cette année-là, un faux blog, « A gay girl in Damascus », en fait tenu par un Américain, crée le trouble. Et puis, à mesure que la guerre civile s’intensifie, les fils sociaux deviennent « un cocktail explosif où les discours de haine s’entre-alimentent de vidéos glaçantes de corps en morceaux, de tortures, et autres images invérifiables ». Les clichés et les points de vue défilent, sans médiation, sans notion d’équilibre. D’où le constat posé par cet enseignant-chercheur de l’université Lumière-Lyon-II, dans un entretien à Big browser, un blog du Monde, au printemps 2016 : « On navigue à travers une succession de filtres générés par les gens que l’on “suit” ou que l’on a ajoutés à sa liste d’“amis”. On ne s’ouvre pas à tous les possibles, au contraire, on a accès à des informations filtrées par un réseau coopté. On fonctionne en circuit fermé. »

    A des milliers de kilomètres des affres syriennes, la campagne présidentielle américaine a elle aussi révélé la puissance de ces « filtres ». Aux Etats-Unis, Facebook range ses utilisateurs parmi 98 catégories politiques, afin de pouvoir vendre un ciblage très fin aux annonceurs. En mai, le Wall Street Journal a créé un outil permettant de comparer le fil d’un utilisateur classé comme « très libéral » à celui d’un autre, « très conservateur ». Résultat : deux visions du monde radicalement différentes. Par exemple, sur une question clivante comme celle de l’avortement, le fil « bleu » (libéral) remonte une vidéo des manifestations en Pologne contre son interdiction, tandis que le fil « rouge » (conservateur) renvoie vers une pétition contre le financement public du planning familial.

    Comment Facebook en vient-il à nous montrer des contenus aussi différents ? Avec son algorithme, l’entreprise californienne veut répondre à l’abondance des publications. Il s’agit de les écrémer en détectant, pour chaque utilisateur, les plus pertinentes. Pour cela, le réseau exploite les informations dont il dispose, en temps réel, pour déterminer, parmi toutes les publications des « amis » d’un utilisateur, celles avec lesquels il a la plus grande « affinité » ; mais aussi à quelle place il faut les afficher sur son fil de contenus Facebook. Parmi les milliers de critères utilisés, les plus importants dépendent du comportement individuel de l’utilisateur : ses clics, ses partages, ses likes… Mais les actions de ses amis sont aussi prises en compte. Accepter un ami sur Facebook, c’est donc accepter d’être influencé par ses choix.

    S’il ne dévoile pas le détail de son algorithme, par ailleurs quotidiennement affiné, le réseau n’en cache pas la logique générale : « Les actualités qui s’affichent dans votre fil d’actualité sont sélectionnées en fonction de votre activité et de vos contacts sur Facebook », explique l’une de ses pages d’aide, ajoutant : « Si vous avez l’impression que vous ne voyez pas toutes les actualités ou que vous voyez dans votre fil d’actualité des actualités qui ne vous intéressent pas, vous pouvez régler vos paramètres. »

    Dans les faits, peu d’utilisateurs utilisent cette possibilité. Et selon une étude publiée en 2015 par des chercheurs américains, 63 % des quarante utilisateurs interrogés ignoraient même que leur fil d’actualité était filtré par un algorithme. Ils couraient donc le risque de croire que ce qu’ils voyaient était une vision fiable de l’actualité à un instant T, alors qu’il s’agissait d’une sélection fondée sur leurs actions et celles de leurs amis.

    La création d’une « auto-propagande »

    Activiste politique et homme de médias, l’Américain Eli Pariser a donné un nom à ce phénomène : les « filter bubbles » (bulles de filtres) – titre de son ouvrage paru en 2012 (The Filter Bubble, Penguin, non traduit). Ces bulles créent selon lui une « auto-propagande ». « Vous vous endoctrinez vous-même avec vos propres opinions. Vous ne réalisez pas que ce que vous voyez n’est qu’une partie du tableau, a exposé, dans un entretien au magazine Time, l’activiste cofondateur des sites Upworthy et Avaaz.org. Et cela a des conséquences sur la démocratie : pour être un bon citoyen, il faut que vous puissiez vous mettre à la place des autres et avoir une vision d’ensemble. Si tout ce que vous voyez s’enracine dans votre propre identité, cela devient difficile, voire impossible. »

    Or, Facebook est le réseau social le plus propice aux « filter bubbles ». « Toutes les plates-formes à algorithmes sont concernées, mais Facebook concentre deux effets d’enfermement, analyse Benoît Thieulin, membre du Conseil national du numérique. Le premier effet est lié à sa nature de réseau social symétrique, qui relie des amis qui vous acceptent eux aussi comme amis, à la différence de Twitter, qui est un peu plus ouvert et vous permet de suivre des gens qui ne vous suivent pas. Le second est l’effet de l’enfermement algorithmique. »

    « La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. » Dominique Cardon, chercheur
    Pour contrer ces critiques, le réseau social a fait publier dans la prestigieuse revue Science, en mai 2015, une vaste étude mesurant « l’exposition à une information diverse sur Facebook », fondée sur l’observation de ses utilisateurs se déclarant « conservateurs » ou « libéraux » (soit 9 % des membres de Facebook aux Etats-Unis). Ses résultats confirment une polarisation de la circulation des contenus, mais battent aussi en brèche certaines idées reçues.

    Selon l’étude, s’ils étaient exposés de façon aléatoire aux contenus partagés sur Facebook, les « conservateurs » en verraient 45 % qui ne sont pas majoritairement partagés par les gens de leur bord politique, et les « libéraux » 40 %. Mais comme les membres n’ont accès qu’aux publications partagées par leurs « amis », cette proportion de contenu « différent » tombe à 34 % pour les « conservateurs » et 23 % pour les « libéraux ». Ensuite, la sélection opérée par l’algorithme rabote encore les chiffres à 33 % et 22 %. Enfin, si l’on ne compte que les liens sur lesquels les utilisateurs cliquent finalement, les proportions descendent à 29 % et 20 %.

    Quelles conclusions tirer ? « Sur Facebook, vous êtes exposé à une large diversité de contenus, interprète Katie Harbath. Il n’y a pas que des pro-Clinton et des pro-Trump discutant entre eux. Il y a une zone commune. » Et l’effet de bulle ? « Il est proche de celui qu’on rencontre dans la vraie vie, répond cette ancienne de la campagne présidentielle du républicain Rudy Giuliani. Chacun a des amis qui pensent comme lui mais aussi d’autres qui ont des opinions différentes. »

    « La leçon de l’étude de Facebook, c’est que le filtre est en nous, sourit Dominique Cardon, chercheur au laboratoire des usages d’Orange et auteur de A quoi rêvent les algorithmes ? (Seuil, octobre 2015). La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. »

    Une reproduction de la société

    Selon certains travaux, le cercle des amis Facebook, souvent acceptés rapidement et sans engagement, est plus large que celui des gens régulièrement côtoyés dans la vraie vie, et donc plus hétérogène, sauf pour les individus les plus politisés. En revanche, comme l’indique une étude du Pew Research Center parue fin octobre, une majorité d’Américains jugent « stressant et frustrant » le fait de parler de politique, sur les réseaux sociaux, avec des gens d’un autre bord, en raison notamment du ton.

    Historien des médias, Patrick Eveno rappelle que la recherche d’un entre-soi est ancienne : « Le lecteur assidu de L’Humanité dans les années 1950 ne regardait ni Le Figaro, ni Le Monde, ni La Croix ; et réciproquement ». Une différence de taille, toutefois : le cloisonnement entre lecteurs de journaux était un choix actif, une inscription assumée dans une famille de pensée politique. Celui de Facebook est subi et parfois inconscient.

    Les défenseurs du réseau estiment donc qu’il ne fait que reproduire la société : « Cela fait vingt ans que les Etats-Unis se polarisent de plus en plus politiquement », souligne Katie Harbath. Le logiciel ne ferait que refléter un champ démocratique fracturé, composé de différentes tribus antagonistes, comme le Tea Party ou le courant Alt-Right américains.

    Cette fragmentation est accentuée par les effets du marketing politique, devenu intense sur Facebook, même si, pour les groupes qui l’utilisent, il est aussi un moyen de sortir de leur cercle d’habitués. Une partie de la publicité est en effet acquise par des partis, candidats ou lobbies qui « sponsorisent » des billets adressés à des internautes ciblés en fonction de leur âge, leur sexe, leurs centres d’intérêt, leur lieu de résidence, leur profession… Par exemple, dans la campagne française, à droite, Alain Juppé, Nicolas Sarkozy ou François Fillon peuvent faire parvenir leur programme sur la santé à des gens qui ont aimé la page d’une organisation de médecins généralistes, ou la vidéo d’un discours sur l’éducation à des enseignants.

    Massive aux Etats-Unis, cette publicité politique est également généralisée en France, mais interdite dans les six mois qui précèdent une élection – en l’occurrence depuis le 1er octobre pour ce qui concerne la présidentielle de 2017 (dont le premier tour aura lieu le 23 avril). « En période de campagne, Facebook permet surtout d’augmenter la mobilisation au sein d’une bulle, pas forcément de propager ses idées à des poches très variées », estime Elliot Lepers, spécialiste des campagnes en ligne, notamment contre la loi El Khomri ou pour la candidate écologiste Eva Joly. « Avec le jeu des partages, les communautés qu’on peut toucher sont malgré tout plus larges qu’avant l’arrivée des réseaux sociaux », nuance Gautier Guignard, responsable numérique de la campagne de François Fillon, qui comme Alain Juppé a 150 000 fans sur sa page Facebook officielle, Nicolas Sarkozy culminant, lui, à près d’un million.

    L’algorithme n’a pas de « conscience politique »

    En matière politique, la quête d’audience se fait avec les mêmes règles que dans d’autres domaines, et la plate-forme a la réputation de favoriser les contenus les plus simplistes ou les plus tranchés. Un travers lié à la mécanique du share : les contenus déclenchant une émotion chez l’utilisateur sont plus partagés que les autres, et donc mieux traités par l’algorithme. Cette « règle du jeu » a un impact sur la production des médias, mais aussi l’expression des politiques. Jusqu’à l’Elysée, où François Hollande s’est mis depuis l’été à publier, sur Facebook, des messages personnels, rompant avec son registre de communication précédent, plus institutionnel.

    Certains acteurs sont des spécialistes de ces logiques de buzz : les milliers de pages militantes non officielles qui, aux Etats-Unis ou en France, se sont taillé une place centrale sur certains créneaux, par exemple la Manif pour tous ou l’antihollandisme – une page comme « Hollande dégage » rassemblant plus de 800 000 fans. « Sur Facebook, la prime au partage et aux commentaires s’applique aux contenus qui génèrent une joie hors-norme ou une rage profonde, ou qui deviennent viraux, qu’il s’agisse de canulars, de théories du complot, de photos de bébés ou d’informations importantes », a décrit Zeynep Tufekci dans une chronique parue, en mai, dans le New York Times. La professeure assistante à l’université de Caroline du Nord souligne, comme une conséquence, que sur le réseau créé par Mark Zuckerberg, « Donald Trump s’en sort mieux que les autres candidats ».

    « Actuellement, on a l’impression que ceux qui profitent le plus de la situation, c’est Trump et Daech [acronyme arabe de l’organisation Etat islamique] », résume abruptement Benoît Thieulin. En France, a été mise en évidence de longue date l’importance de la « fachosphère », cette nébuleuse d’extrême droite très active en ligne, à laquelle les journalistes Dominique Albertini et David Doucet viennent de consacrer un livre (La Fachosphère, Flammarion, 336 pages, 20,90 euros). Or ceux qui se vivent comme les soldats de ce qu’ils appellent la « réinformation » ont intégré le fait que les algorithmes « n’ont pas de conscience politique » et traitent toutes les opinions sur un pied d’égalité. Avant l’extrême droite, d’autres groupes minoritaires dans les médias, comme les altermondialistes, le camp du « non » au référendum européen de 2005 ou les défenseurs des libertés sur Internet, ont aussi profité des réseaux pour bénéficier de relais qu’ils trouvaient difficilement ailleurs, rappelle Benoît Thieulin, qui, comme les responsables numériques des candidats à la primaire de droite, pointe le « progrès démocratique » d’abord apporté par Facebook.

    Sensible aux pressions

    La radicalité constatée sur les réseaux sociaux est le fruit d’un travail d’occupation mené par des militants s’estimant lésés par les médias traditionnels. Dans cette bataille souterraine, Facebook pose peu de limites et la popularité des contenus prime sur leur véracité – c’est là un autre travers du réseau. Au point qu’est évoquée l’émergence d’une société de la « post-vérité », selon le titre d’une tribune remarquée de Katherine Viner, rédactrice en chef du Guardian. Certes, les fausses informations ne datent pas d’hier, reconnaît-elle dans ce texte écrit après le traumatisme d’une campagne du Brexit pleine de faux-semblants : « Ce qui est nouveau, c’est qu’aujourd’hui, les rumeurs et les mensonges sont autant lus que les faits gravés dans le marbre – et parfois même plus. » La conclusion fait écho à la vérification menée par le site Buzzfeed sur 1 000 publications de six grandes pages Facebook ultra-partisanes américaines : 38 % des contenus étaient « partiellement faux ou trompeurs » sur les pages de droite, 19 % sur celles de gauche.

    En France, un candidat à la primaire de la droite et du centre s’est ouvertement plaint d’être la cible de « fadaises » sur Facebook, notamment : « Les réseaux sociaux sont, en quelque sorte, la poubelle de l’univers, a osé Alain Juppé, dans le Journal du dimanche. A les lire, je serais “Ali Juppé”, je serais “marié avec une musulmane”, je serais “le grand mufti de Bordeaux”, j’aurais construit “la plus grande mosquée d’Europe”… » L’équipe du candidat songe d’ailleurs à lancer une « cellule » de démontage de rumeurs inspirée des rubriques de « fact-checking » de la presse, comme Les Décodeurs du Monde ou Desintox de Libération, explique Eve Zuckerman, la responsable de sa campagne numérique.

    Face aux critiques, Mark Zuckerberg campe jusqu’ici sur ses positions : « Nous sommes une entreprise de technologie, pas un média », a répété le tutélaire fondateur de Facebook, fin août, alors qu’en Allemagne, certains l’accusaient de ne pas combattre assez activement les propos haineux. Mais la question des responsabilités que doit assumer l’entreprise, en contrepartie de son rôle croissant dans l’information et le débat public, est désormais clairement posée. Et malgré son discours invariant, Facebook n’est pas insensible aux pressions : il a fini par assouplir sa ligne en autorisant la circulation de « La petite fille au napalm », célèbre photographie de Nick Ut, symbole de la guerre du Vietnam, après une censure initiale pour cause de nudité. Il s’est aussi lancé avec Google et une large coalition de médias – dont Le Monde – dans le projet Firstdraft, qui vise à combattre les informations manipulées.

    Une « maladie infantile » des réseaux sociaux

    Au-delà, certains réclament une forme de régulation ou de « pondération », des logiciels des plates-formes. « Vos algorithmes doivent donner une place aux opinions opposées et aux informations importantes, pas seulement à ce qui est le plus populaire ou le plus auto-convaincant », avait lancé Eli Pariser aux patrons de Facebook ou Google, lors de sa conférence de 2011. Mais les utilisateurs le veulent-ils ?

    La connaissance du fonctionnement des algorithmes, et donc de Facebook, est pour beaucoup devenu un enjeu démocratique. « Je suis d’avis que les algorithmes doivent être plus transparents afin que les citoyens soient conscients des effets qu’ils peuvent avoir sur leur utilisation des médias », a ainsi tenu à déclarer la chancelière allemande Angela Merkel lors de l’ouverture des journées des médias à Munich, le 25 octobre. « Il faut connaître leur préconception du monde », argumente Bruno Patino, directeur éditorial d’Arte. MM. Thieulin et Cardon, comme d’autres, insistent sur le besoin de développer en France une « culture critique » et une « éducation » aux algorithmes.

    « Après une période où les technologies ont amené un grand progrès dans le débat public, on vit une période de ressac, pense Benoît Thieulin. On a l’impression d’être face à une maladie infantile des réseaux sociaux, avec des débats en temps réel superficiels, du complotisme… On n’a pas encore trouvé comment la soigner. Mais ça ne veut pas dire que les réseaux sont en soi mauvais pour le débat démocratique. »

  • Un tissu péruvien vieux de 6 000 ans teint à l’indigo

    http://www.lemonde.fr/sciences/article/2016/09/16/un-tissu-peruvien-vieux-de-6-000-ans-teint-a-l-indigo_4999114_1650684.html

    L’étoffe déchirée ne paie pas de mine. Ce chiffon, retrouvé sous une colline artificielle de la côte nord du Pérou, porte pourtant témoignage de l’utilisation la plus ancienne connue de l’indigo, une teinture qui, aujourd’hui encore, est la plus utilisée au monde – elle colore les blue-jeans. La couche du site de Huaca Prieta où les pièces de tissu teintées ont été découvertes est datée de 6 000 ans. L’indigo était donc utilisé par les Péruviens environ 1 500 ans avant les Egyptiens de la Ve dynastie, dont on pensait jusqu’alors qu’ils avaient été les premiers à l’adopter.

    La découverte de Huaca Prieta rappelle en tout cas que l’invention de l’agriculture et de technologies associées n’a pas été l’apanage du croissant fertile proche-oriental : l’Amérique du Sud a elle aussi vu naître des domestications végétales anciennes, comme celle du coton. De plus, la mise en œuvre des teintures d’indigo n’est pas triviale, explique Dominique Cardon : « Il s’agit d’un pigment insoluble, qu’il faut faire revenir à l’état soluble par un traitement avec de la chaux ou de la cendre. » Une technique qui nécessite une température et un pH contrôlés. « C’est d’une complexité comparable à la maîtrise des plantes médicinales, dit-elle. Cela peut représenter des milliers d’années d’exploration. » Chacune des quinze à vingt espèces de plantes qui dans le monde contiennent des précurseurs de l’indigo suppose un traitement particulier – même si aujourd’hui, 90 % des jeans sont teintés avec de l’indigo synthétique.

    Quant à la technique textile observée à Huaca Prieta, dite « en trames cordées », elle consistait à tendre des fils de chaîne parallèles qu’on entrelaçait avec des fils de trame, explique Dominique Cardon. Elle a précédé l’invention du tissage proprement dit et était répandue dans bien des régions du monde jusqu’à une période récente.

  • De la contre-culture à la cyberculture
    http://media.radiofrance-podcast.net/podcast09/10465-15.12.2012-ITEMA_20429952-0.mp3

    PLACE DE LA TOILE http://rf.proxycast.org/m/media/296096201420.mp3?c=vie+pratique&p=PLACE+DE+LA+TOILE_10465&l3=20121215&

    durée : 00:45:38 - PLACE DE LA TOILE - par : Xavier Delaporte - Quand « Place de la toile » m’est échue il y a cinq ans maintenant, je suis allé voir Dominique Cardon pour qu’il me conseille quelques lectures de base sur les questions numérique. Et il m’a dit tout de suite : « il faut absolument lire (...)

    http://rf.proxycast.org/m/media/296096201420.mp3?c=vie+pratique&p=PLACE+DE+LA+TOILE_10465&l3=20121215&

  • livre : "A quoi rêvent les algorithmes" - Dominique Cardon (oct 2015)

    http://www.seuil.com/livre-9782021279962.htm

    Google, Facebook, Amazon, mais aussi les banques et les assureurs : la constitution d’énormes bases de données (les « big data ») confère une place de plus en plus centrale aux algorithmes. L’ambition de ce livre est de montrer comment ces nouvelles techniques de calcul bouleversent notre société. À travers le classement de l’information, la personnalisation publicitaire, la recommandation de produits, le ciblage des comportements ou l’orientation des déplacements, les méga-calculateurs sont en train de s’immiscer, de plus en plus intimement, dans la vie des individus. Or, loin d’être de simples outils techniques, les algorithmes véhiculent un projet politique. Comprendre leur logique, les valeurs et le type de société qu’ils promeuvent, c’est donner aux internautes les moyens de reprendre du pouvoir dans la société des calculs.

    Dominique Cardon est sociologue au Laboratoire des usages d’Orange Labs et professeur associé à l’université de Marne-la-Vallée (LATTS). Avec La Démocratie Internet (Seuil, 2010) et de nombreux articles, il s’est imposé comme l’un des meilleurs spécialistes du numérique et d’Internet.

    http://www.seuil.com/extraits/9782021279962.pdf

    #book #livre
    #big_data
    #algorithm #algorithme

  • affordance.info : Assistance cognitive en temps réel : La mémoire du probable et la parole du possible.
    http://affordance.typepad.com/mon_weblog/2016/02/la-memoire-du-probable-et-la-parole-du-possible.html

    Dans la lignée de Dominique Cardon et de quelques autres, il est grand temps de s’attacher à produire un discours critique qui permette de penser l’impact des algorithmes à l’échelle des 3 modalités qui caractérisent - me semble-t-il - aujourd’hui leur empreinte sur le monde : l’externalisation (mémorielle), la saturation (cognitive) et l’épuisement (du champ des « possibles » pour son remplacement par un « probable » commodément instrumentalisable, instrumentalement « lisible »).

  • Wikipédia, la connaissance en mutation

    http://www.lemonde.fr/sciences/article/2016/01/11/wikipedia-la-connaissance-en-mutation_4845347_1650684.html

    Quel succès  ! Quin­ze ans après son lancement, le 15 janvier 2001, par les Américains Jimmy Wales et Larry Sanger, l’encyclopédie en ligne Wikipédia reste le premier site non commercial du Web mondial, toujours dans le top 10 des sites les plus fréquentés avec près de 500 millions de visiteurs uniques par mois pour plus de 250 éditions linguistiques. 36,9 millions d’articles sont rédigés, corrigés, améliorés par quelque 2 millions de contributeurs. 800 nouvelles entrées en anglais sont ajoutées chaque jour, 300 en français. La version française tenant la troisième position, avec plus de 1,7 million d’articles, derrière l’anglophone (plus de 5 millions) et la germanique (1,8 million).

    Mais Wikipédia, c’est moins connu, est bien plus qu’une encyclopédie qu’on consulte pour se documenter ou faire ses devoirs scolaires. Elle est devenue aussi un objet de recherche en tant que tel, à l’instar d’une tribu d’Amazonie, d’un programme informatique ou d’un patient. La base de données Scopus, l’une des trois plus importantes du monde, recense ainsi plus de 5 400 articles ayant pour sujet ou pour objet Wikipédia publiés dans des revues, des actes de colloques ou des livres. Quatorze brevets mentionnent même le célèbre site, selon la même Scopus.

    Autre preuve de l’intérêt académique pour le sujet, en juin 2013, à Paris, se tenait un colloque, coorganisé par le CNRS et le CNAM et intitulé «  Wikipédia, objet scientifique non identifié  », avec sociologues, spécialistes de sciences de la communication, informaticiens…(...)

    Mais que font tous les autres chercheurs en tripatouillant Wikipédia ? De récentes publications témoignent du large spectre couvert. Depuis novembre, une équipe japonaise s’est servie des articles de l’encyclopédie pour analyser les suicides de personnalités dans son pays. Des Britanniques ont construit automatiquement un glossaire technique. Des Turcs ont utilisé le site pour repérer à grande échelle des entités dans des corpus de leur langue. Des Français ont proposé un classement des universités reposant sur les citations des établissements au sein de plusieurs versions linguistiques de Wikipédia. Citons encore un article paru en mai, qui prévoit les pics d’apparition de la grippe grâce aux statistiques de visites des pages de l’encyclopédie.

    Les raisons d’un tel engouement sont simples à comprendre. L’objet est vaste, une quinzaine de gigaoctets de textes (pour la version anglaise). D’utilisation gratuite, contrairement aux données de Facebook, Google ou Twitter, pourtant gigantesques et fournies gracieusement par leurs utilisateurs. Même les données de fréquentation sont disponibles pour chaque article ! Les archives sur quinze ans permettent d’avoir du recul historique, tout en ayant un objet toujours rafraîchi. Des versions en plus de 200 langues ouvrent des perspectives pour des comparaisons ou des analyses culturelles. L’ouverture et la transparence offrent aussi ce que les chercheurs adorent : la vérifiabilité et la reproductibilité. Pour parfaire leur bonheur, l’encyclopédie, tel un iceberg, recèle plus de trésors que sa seule vitrine d’articles. Si la version française contient 1,7 million de pages d’articles, elle contient 4,5 fois plus de pages pour les historiques, les discussions et autres coulisses qui font le dynamisme et la réputation du site. Du coup, presque tous les domaines sont couverts. La sociologie, bien sûr, fascinée par cette démocratie d’un nouveau genre, car auto-organisée et reposant sur quelques règles et le consensus. Les chercheurs, profitant de la transparence du site, y ont également étudié le rôle des « vandales » et autres « trolls » qui mettent leurs pattes malveillantes dans les articles. Les inégalités hommes-femmes particulièrement criantes, avec moins de 10 % de contributrices à l’encyclopédie, ont également donné lieu à beaucoup de littérature et de controverses.

    Wikipédia est devenu une sorte de bac à sable dans lequel s’ébrouent les spécialistes du traitement automatique du langage qui disposent là d’un corpus immense pour tester leurs logiciels de reconnaissance de texte, de traduction, d’extraction de sens... C’est aussi le jouet de physiciens, statisticiens, informaticiens... prompts à dégainer leurs outils d’analyse pour en extraire de nouvelles informations ou aider à les visualiser.

    « Après quinze ans, l’intérêt des chercheurs est toujours là. La première phase était très active car l’objet était nouveau. Cela a contribué à l’émergence de nouveaux domaines comme la sociologie quantitative ou l’informatique sociale, rappelle Dario Taraborelli. Puis, à partir de 2007, l’apparition de nouveaux médias sociaux a détourné un peu les recherches, avant un renouveau depuis 2010. Notamment parce que nous sommes le seul site important à publier nos données quotidiennes de trafic. »

    Ce renouveau est aussi tiré par une révolution à venir. Wikipédia est devenu l’un des maillons indispensables à un projet particulièrement ambitieux : rassembler toute la connaissance mondiale et la rendre intelligible par des machines. « Notre ambition est de rendre encore plus intelligents les ordinateurs afin qu’ils soient toujours plus utiles à l’humanité », s’enthousiasme Fabian Suchanek, enseignant-chercheur à Télécom ParisTech et artisan de cette évolution qui vise à transformer Wikipédia et d’autres riches corpus en une source accessible aux ordinateurs.

    De tels changements sont en fait déjà à l’œuvre, discrètement. Dans les moteurs de recherche par exemple, lorsque l’utilisateur tape un nom de célébrité, apparaissent toujours une liste de liens mais aussi un encadré résumant la biographie de la personne cherchée. Et cela automatiquement : le programme a compris où, dans la page Wikipédia, se trouve l’information souhaitée. Mieux. On peut désormais poser des questions explicites, en langage naturel, à ces moteurs : quand Elvis Presley est-il mort ? Où ? Quel est l’âge de François Hollande ?... et recevoir des réponses directes, sans avoir à lire la page contenant l’information.

    Derrière ces prouesses qui n’ont l’air de rien se cachent de nouveaux
    objets : les bases de connaissance. Les plus célèbres sont Yago, DBpedia, Freebase ou Wikidata. Toutes se sont construites en triturant Wikipédia. Et, preuve des enjeux économiques, les plus grands du Web actuel investissent dans ces constructions. En 2010, Google a ainsi racheté Freebase, qui lui sert pour son Knowledge Graph, l’encadré qui fournit des réponses directes aux requêtes. L’entreprise soutient également financièrement Wikidata, une initiative de la fondation Wikimédia. Amazon a racheté EVI en 2012, anciennement connue sous le nom de True Knowledge, une base de connaissances.

    En outre, derrière les assistants personnels vocaux des mobiles, Siri, Cortana ou Google Now, se cachent aussi ces fameuses bases de connaissances. Pour gagner au jeu Jeopardy en 2011, l’ordinateur Watson d’IBM a bien sûr assimilé bon nombre de données, en particulier de Wikipédia, mais dans une forme prédigérée fournie par la base de connaissances Yago.

    Le sujet de ces bases ou graphes de connaissances est très actif. Le chercheur le plus prolixe sur Wikipédia, toutes activités confondues selon Scopus, est par exemple l’Allemand Gerhard Weikum de l’Institut Max-Planck de Sarrebruck, à l’origine de la première base de connaissances, Yago, en 2007. Le second est un Hollandais, Maarten de Rijke, professeur d’informatique à l’université d’Amsterdam, dont les récents travaux utilisent ces graphes. Il est capable de savoir de quoi parle un tweet en repérant les noms et les faits à l’intérieur et en les confrontant à Yago ou DBpedia. Il enrichit aussi les émissions de télévision automatiquement en fournissant des liens sur les tablettes ou téléphones, choisis en fonction du thème de l’émission, déterminé grâce aux bases de connaissances. « Avec ces bases de connaissances, on peut faire des choses qui étaient impossibles auparavant », estime Fabian Suchanek, cofondateur de Yago. Par exemple ? « Extraire de l’information du quotidien Le Monde : combien de femmes en politique au cours du temps ? Quel est l’âge moyen des politiciens ou des chanteurs cités ? Quelles compagnies étrangères sont mentionnées ? », énumère ce chercheur en citant un travail publié en 2013 avec la collaboration du journal. Le New York Times construit sa propre base de connaissances tirées des informations de ses articles. Autre exemple, il devient possible de poser des questions aussi complexes que :

    qui sont les politiciens également scientifiques nés près de Paris depuis 1900 ? Ou, plus simplement, quelle est la part des femmes scientifiques dans Wikipédia ?

    Mais quelle différence entre ces objets et une base de données ou même une page Wikipédia ? Si un humain comprend que dans la phrase « Elvis Presley est un chanteur né le 8 janvier 1935 à Tupelo, Mississippi », il y a plusieurs informations sur son métier, sa date et son lieu de naissance, une machine ne le comprend pas, et ne peut donc répondre à la question simple, pour un humain, « Quand Elvis est-il né ? ». « C’est un peu paradoxal, mais pour un informaticien, notre langage n’est pas structuré et donc un ordinateur ne peut le comprendre ! », souligne ironiquement Fabian Suchanek. Il faut donc transformer les pages en les structurant différemment, en commençant par repérer les entités, les faits et les relations entre eux. Presley est une entité. Sa date de naissance ou son métier sont des faits. « Né le » et « a pour métier » sont les relations. Tout cela peut être codifié en langage informatique.

    Une autre particularité de ces objets est qu’ils ne répertorient pas ces faits et entités dans des tableaux, comme la plupart des bases de données, mais en les organisant en arborescences ou en graphes. Les branches correspondent aux liens entre les entités et les faits. Les informaticiens et mathématiciens ont bien sûr développé les techniques pour interroger ces graphes et y faire des calculs comme dans un vulgaire tableur. Aujourd’hui, Yago « sait » plus de 120 millions de choses sur 10 millions d’entités (personnalités, organisations, villes...). L’avantage-clé est que le rapprochement devient plus simple entre plusieurs bases de connaissances, celles construites sur Wikipédia mais aussi d’autres concernant les musiciens, les coordonnées GPS, les gènes, les auteurs... Le site Linkeddata.org recense ces nouvelles bases et leurs liens entre elles. Petit à petit se tisse un réseau reliant des faits et des entités, alors que, jusqu’à présent, la Toile connecte des pages ou des documents entre eux. Cela contribue au rêve de ce que Tim Berners-Lee, le physicien à l’origine du Web, a baptisé « Web sémantique » en 2001. « Les défis ne manquent pas. La troisième version de Yago est sortie en
    mars 2015. Nous avons déjà traité la question du temps. Nous traitons aussi plusieurs langues. Il faut maintenant s’attaquer aux “faits mous”, c’est-à-dire moins évidents que les dates et lieux de naissance, les métiers, le genre..., estime Fabian Suchanek. En outre, tout ne peut pas se mettre dans un graphe ! »

    Bien entendu, faire reposer la connaissance future de l’humanité sur Wikipédia n’a de sens que si ce premier maillon est solide. La crédibilité de l’encyclopédie a donc été parmi les premiers sujets d’études. Dès 2005, Nature publiait un comparatif entre l’encyclopédie en ligne et sa « concurrente » Britannica, qui ne montrait pas d’énormes défauts pour la première. D’autres études ont été conduites depuis pour estimer l’exactitude, en médecine par exemple, Wikipédia étant l’un des premiers sites consultés sur ces questions. Les résultats sont bien souvent satisfaisants.

    « C’est finalement un peu une question vaine scientifiquement, car les comparaisons sont souvent impossibles. On confronte les articles tantôt à des encyclopédies, tantôt à des articles de revues scientifiques... », estime Gilles Sahut, professeur à l’Ecole supérieure du professorat et de l’éducation, de l’université Toulouse - Jean-Jaurès. « La question a un peu changé de nature. Il faut passer d’une appréciation globale à une appréciation au cas par cas, et donc éduquer afin d’être capable de dire si un article semble biaisé ou complet », précise ce chercheur, qui a soutenu une thèse en novembre 2015 sur la crédibilité de Wikipédia. Il adosse ce constat à une étude menée sur plus de 800 jeunes entre 11 et 25 ans, pour tester la confiance accordée à l’encyclopédie. Celle-ci s’érode avec l’âge et le niveau de scolarité, mais elle remonte dès lors que les élèves participent. « Ils découvrent d’ail leurs, comme leur enseignant, qu’il n’est pas si facile d’écrire dans Wikipédia ! », sourit le chercheur en faisant allusion aux difficultés à entrer dans la communauté. « Certes les wikipédiens sont des maîtres ignorants sur les savoirs, comme le dit le sociologue Dominique Cardon, mais ils sont très savants sur les règles et les procédures ! »

  • Comprendre les algorithmes pour en tirer parti
    http://www.davduf.net/comprendre-les-algorithmes-pour-en-tirer-parti

    Dans cette interview pour Veille Digitale, Dominique Cardon aborde d’une manière pédagogique : les algorithmes et la réputation les algorithmes et le « Quantified Self » les algorithmes et la hiérarchisation de l’information les algorithmes et le rejet de la publicité des internautes

    #Veille_techno

    / #Bulles_de_filtre, #Actu_techno

  • Amour, culture, information, santé, travail… Sommes nous gouvernés par les machines ?
    http://www.france2.fr/emissions/ce-soir-ou-jamais/diffusions/23-10-2015_427779

    Au programme de Ce soir (ou jamais) ! : « Amour, culture, information, santé, travail… Sommes nous gouvernés par les machines ? »

    Pour en débattre, Frédéric Taddéï a invité notamment :
    – Gilles Babinet, ambassadeur numérique auprès de la Commission européenne
    – Daniela Cerqui, anthropologue
    – Isabelle Sorente, écrivain, auteur de « La faille » et de « Addiction générale »
    – Dominique Cardon, sociologue, auteur de « A quoi rêvent les algorithmes »
    – Eric Sadin, philosophe, auteur de « La vie algorithmique »
    – Anne Marie Kermarrec, chercheuse en informatique
    – Laurent Alexandre, chef d’entreprise, auteur de « La mort de la mort »
    – Laurent Chemla, informaticien, auteur de « Confession d’un voleur - Internet, la liberté confisquée »

    #Algorithme #Automatisation #Ce_soir_(ou_jamais !) #Dominique_Cardon #Gilles_Babinet #Laurent_Alexandre #Laurent_Chemla #Numérique #Robotisation _

  • Qui nous protégera de la généralisation des logiciels tricheurs ? | InternetActu
    http://internetactu.blog.lemonde.fr/2015/10/02/qui-nous-protegera-de-la-generalisation-des-logiciels-tric

    Le volkswagengate a bien sûr reposé la double question de l’indépendance des contrôles et de la transparence du code. Si la question de l’indépendance des contrôles est en passe d’être résolue par des mesures d’homologation aléatoires en conditions de conduites réelles, la question de la transparence, pour des questions de propriété intellectuelle, elle, demeure complète. Pour Eben Moglen, avocat de la Free Software Foundation et président du Software Freedom Law Center, grand chantre de la défense du logiciel libre, cet exemple illustre toute la limite des logiciels propriétaires que nul ne peut inspecter, rappelait-il au New York Times. A l’heure où le logiciel est partout, dans les avions, les appareils médicaux, les voitures... nous devons exiger que les logiciels puissent être inspectés, estime Moglen. « Si Volkswagen savait que chaque client qui achète un véhicule avait le droit d’en lire le code source, ils n’auraient jamais envisagé de tricher ».
    […]
    En attendant de parvenir à ouvrir les modèles, suggère Daniela Hernandez, la meilleure solution pour les citoyens et les militants consiste à construire « des machines pour surveiller les machines », à construire une rétroingénierie des systèmes techniques. Plus facile à dire qu’à faire quand on ne peut accéder ni aux données ni aux logiciels, qu’on ne connait, comme l’explique très bien le sociologue Dominique Cardon dans son dernier livre, remarquablement pédagogique, ni les critères qui entrent dans la composition des calculs, ni les objectifs que leurs concepteurs leur donne.

    Et pourtant, c’est bien ce qu’a accompli, là encore, l’ONG à l’origine de la révélation de la fraude de Volkswagen, l’International Council for Clean Transportation, qui a testé les émissions de voitures dans d’autres conditions que celles des tests standardisés avant d’en avertir l’agence de l’environnement américaine. En attendant que le régulateur comprenne la nécessité de favoriser les contrôles, de renforcer les contre-pouvoirs, indépendance et rétroingénierie, sont les deux leviers qui demeurent à notre disposition.

    Pour ce dernier point, il me semblerait plutôt que ce soit l’EPA qui ait mené elle-même et avec ses moyens la rétro-ingéniérie du logiciel.

  • Approche quali/quanti des données numériques - Réseaux
    http://alireailleurs.tumblr.com/post/113241876776

    Le dernier numéro de la revue Réseaux s’intéresse aux méthodes digitales et aux approches qualitatives et quantitatives des données numériques. L’édito, signé Tommaso Venturini, Dominique Cardong, Jean-Philippe Cointet accessible en ligne, revient sur 4 malentendus relatif à l’usage des traces numériques par les sciences le sociales : leur représentativité, le fait qu’elles ne soient pas construites par et pour les sciences sociales, le fait qu’elles créent de nouvelles méthodes plus simples, et enfin le fait que si elles permettent d’accéder à davantage de données, elles produisent également plus de bruit. Un édito qui revient sur la nécessaire adaptation des outils aux enjeux et inversement. 

    #science #recherche #traitement

  • Lutter contre la haine sur Internet, par Olivier Ertzscheid
    http://rue89.nouvelobs.com/2015/02/22/lutter-contre-haine-internet-257848
    http://fr.slideshare.net/olivier/lutte-contre-la-haine-sur-internet

    D’abord, il n’y a pas de « discours type de la #haine ».

    Il faut ensuite acter l’état actuel des législations (américaines, françaises, etc.) qui disposent en l’état d’un arsenal de textes déjà largement suffisant pour encadrer, pour « surveiller et punir » dirait Foucault, l’expression des discours de haine.

    Il faut, enfin, accepter, reconnaître et comprendre un certain nombre de principes simples qui caractérisent les modes d’expression sur le réseau : le premier d’entre eux est la « tyrannie des agissants » décrite par Dominique Cardon (« #Internet donne une prime incroyable à ceux qui font »).

    La loi. Les règlements (CGU). Et le code. Nouvelle version de la trilogie « Le Bon, la brute et le truand ». Dans l’ordre. Une trilogie dans laquelle le « nul n’est censé ignorer la loi », devient, à partir du moment où le code est la loi, « nulle loi ne peut plus se permettre d’ignorer le code », permettant du même coup que Mark Zuckerberg écrive « nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde » sans que personne d’autre que le type en train de rédiger ce billet ne semble s’en émouvoir outre mesure.

    Donc on oblige, on contraint, par voie législative et à une échelle transnationale (comme par exemple la Convention de Berne permet de la faire pour la protection des œuvres littéraires et artistiques), on contraint les plateformes à rendre publique la partie du code qui détermine ces choix d’éditorialisation classique [à rendre public leurs algorithmes]. Et ce faisant, à mettre en délibéré cette partie du #code. Parce que, comme le disait Bernard Stiegler, « la #démocratie est d’abord un exercice de rendu public. »

    #médias_sociaux #algorithmie #droit #commentaires #trolls cc @quetzal

  • Acceptation sociale massive de la #surveillance : quelles sont les alternatives possibles à la passivité des usagers ? - Chaire Valeurs et Politiques des Informations Personnelles
    http://cvpip.wp.mines-telecom.fr/2013/12/12/28012014-acceptation-sociale-massive-de-la-surveillance

    Intéressante présentation de Dominique Cardon et Jean-Gabreil Ganascia en vidéo sur l’acceptation sociale massive de la surveillance... Tags : internetactu2net internetactu fing surveillance

  • Apprendre/désapprendre : sur la ligne de crête des apprentissages numériques « InternetActu.net
    http://www.internetactu.net/2014/01/10/apprendredesapprendre-sur-la-ligne-de-crete-des-apprentissages-numeriq

    Par Dominique Cardon

    Beaucoup des pratiques numériques des digital natives entrent en contradiction avec les exigeants apprentissages scolaires. Il ne suffit pas que le savoir soit à disposition pour qu’il soit vraiment intériorisé. Banalisée, simplifiée, empaquetée, l’information disponible peut aussi apparaître comme un bien de consommation dont on use sans jamais vouloir ou pouvoir se l’approprier réellement. La “société de la connaissance” promeut des compétences comportementales, la navigation dans les flux informationnels, la course à l’innovation, le renouvellement incessant de la consommation et la flexibilité des salariés. Mais encouragerait-elle vraiment le développement de capacités critiques sans que, dans les institutions dédiées à cet effet, de patients pédagogues veillent à ce que tous et chacun puissent également bénéficier des opportunités d’émancipation de l’accès aux savoirs.

  • Apprendre/désapprendre : sur la ligne de crête des apprentissages numériques
    http://www.internetactu.net/2014/01/10/apprendredesapprendre-sur-la-ligne-de-crete-des-apprentissages-numeriq

    A l’occasion de la parution de la 3e édition du #Digital_Society_Forum consacrée aux nouvelles formes d’apprentissages (la première édition était consacrée aux nouvelles relations, la seconde à la famille connectée), en partenariat entre la Fing (et notamment son média, InternetActu.net), Psychologies Magazine et Orange, nous republions le texte introductif du sociologue d’Orange Labs, Dominique Cardon, qui revient sur…

    #ecole2.0 #neurosciences #science