Sciences - Le Monde.fr

/sciences

  • La traduction dopée par l’intelligence artificielle

    http://www.lemonde.fr/sciences/article/2017/11/27/la-traduction-dopee-par-l-intelligence-artificielle_5221041_1650684.html

    Graal de l’informatique depuis sa création, la traduction automatique a fait des progrès impressionnants. Les algorithmes vont-ils supplanter les traducteurs humains ?

    « En à peine six mois, nous avons dû réinventer notre technologie. C’était une question de survie pour l’entreprise », explique Jean Senellart, le directeur technique de Systran, un des leaders de la traduction par ordinateur depuis sa création, en 1968. « Début 2016, une compétition interne, très stimulante, a été organisée pour battre notre meilleur système grâce à une nouvelle technique en vogue », précise le spécialiste, qui a lui-même participé à l’épreuve.

    Et ils ont battu leur « vieux » champion. Au printemps 2016, près de cinquante ans de savoir-faire étaient ainsi jetés aux oubliettes. En novembre, le nouveau produit, qui traduit 30 langues, était prêt, en même temps que Google lançait son nouveau site de traduction reposant sur la même technique, suivi par Microsoft, Baidu, Facebook…

    « Tout le monde s’est rué sur ces technologies. C’était complètement fou ! », raconte Philipp Koehn, de l’université Johns-Hopkins (Maryland), pionnier d’une technique précédente, balayée par la nouvelle venue. « Avant ces inventions, on estimait qu’il fallait un an pour progresser d’un point sur une certaine échelle de qualité. Après, en un an, les bonds, pour certaines paires de langues, ont été de près de huit points », constate François Yvon, ­directeur du Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi-CNRS) à Orsay (Essonne). Et en août, un nouveau venu, DeepL, aussi à l’origine du dictionnaire Linguee, se targuait d’un gain de trois points supplémentaires sur la même échelle de qualité par rapport à ses concurrents.

    L’une des premières applications de l’informatique

    Que s’est-il passé ? L’histoire remonte aux années 1950. Traduire est l’une des premières applications de l’informatique, après le chiffrement des communications et les calculs balistiques. En 1954, IBM et l’université de Georgetown, à Washington, font la « une » des journaux en traduisant des phrases du russe vers l’anglais. La méthode utilisée est ­« naturelle ». On fournit à la machine un dictionnaire et les règles grammaticales et syntaxiques de la langue visée (ordre des mots, accords, genres…). Par exemple, si the, en anglais, précède un mot ­féminin, traduire par « la », sinon par « le », etc.

    Les linguistes sont évidemment requis pour élaborer ce modèle de langue, limité par la puissance des machines d’alors et par le nombre quasi infini de règles à transformer en lignes ­informatiques. La technique fera néanmoins les beaux jours d’IBM ou de Systran. Un système ­canadien de prévision météo, Taum-Météo, fonctionnera de 1977 jusqu’au début des années 2000 sur ce principe de règles.

    En 1966, la publication d’un rapport, dit « Alpac », jette cependant un froid. Le problème est plus ­difficile que prévu et loin d’être résolu, contrairement à ce que clamaient ses pionniers. Les financements, qui abondaient, fondent… Le domaine de l’intelligence artificielle connaît là l’un de ses ­premiers « hivers ».

    Ce refroidissement ne signifie cependant pas un arrêt complet. Chez IBM, dans les années 1980, des ingénieurs et chercheurs ressuscitent des idées plus anciennes, qui constitueront une ­seconde révolution dans le domaine. Au lieu de travailler comme un linguiste ou un traducteur, la machine fonctionnera désormais de façon probabiliste, en fournissant une traduction correspondant à la plus grande chance de voir cette proposition apparaître dans un corpus dit bilingue, contenant des paires de phrases traduites en deux langues. Si nice, en anglais, apparaît plus souvent comme « joli » que comme « beau », alors la machine choisira « joli » comme proposition. Idem pour des bouts de phrase.

    Vastes corpus bilingues

    Simple, à condition d’avoir de tels corpus. Les premiers utilisés proviennent des archives bilingues du gouvernement canadien ou de la Commission et du Parlement européens, pour plusieurs langues. Puis le Web se transforme en source abondante, plusieurs robots moissonnant ses pages en quête de traductions. Google devient alors un acteur majeur et abandonne, en 2007, le moteur de traduction à base de règles fourni par Systran, pour proposer sa « machine statistique de traduction », nourrie par près de cent millions de séquences de mots.

    Le monde académique réagit en amassant aussi son propre corpus. Les bases de données Gigaword ou ParaCrawl de Philipp Koehn en sont des exemples. Ce dernier, soutenu par l’Union européenne, est également l’auteur du programme Moses, dont la dernière version, qui date du mois d’octobre, est toujours utilisée par la Commission européenne.

    Puis nouvel hiver dans le domaine, avec des évolutions assez lentes. Jusqu’aux secousses de l’année 2014. Trois articles, quasi simultanés, l’un de chercheurs de Google, les deux autres de l’équipe de l’université de Montréal menée par Yoshua Bengio, expliquent comment de nouveaux algorithmes promettent de tout changer. Les mots-clés ne sont plus « linguistique » ou « statistique » mais « apprentissage » et « réseaux de neurones ». Ces derniers ont été inventés dans les années 1950 et remis au goût du jour, notamment par Yoshua Bengio, pour la reconnaissance de caractères manuscrits ou l’identification ­d’objets ou d’animaux dans les images.

    Ce sont des fonctions mathématiques simples (addition, multiplication) contenant des millions de paramètres ajustables, permettant de trouver la meilleure combinaison possible pour réponse à une question. Comme un peintre ­mélangeant plusieurs couleurs jusqu’à trouver la bonne. Pour la traduction, il s’agit d’ajuster les paramètres afin d’exhiber la fonction permettant de passer d’une phrase d’une langue à sa traduction, piochée toujours dans les vastes corpus bilingues. « Le petit chat tigré est mort » est présenté au système, et s’il répond « the big cat striped is dead », on le corrige, jusqu’à ce qu’il trouve la bonne version : « the little tabby cat is dead ». Et cela sur des millions de paires de phrases. « Formellement, apprendre, pour ces réseaux, c’est évaluer les paramètres de cette fonction qui associe une phrase source à une phrase cible », ­résume François Yvon.

    Bête et astucieux

    L’appellation réseau de neurones vient du fait que, dans le cerveau, les connexions entre neurones se renforcent ou disparaissent sans cesse. Une de leurs caractéristiques est qu’il leur faut ingurgiter beaucoup de données avant de pouvoir s’appliquer à des problèmes inconnus d’identification, de labellisation, de jeu…

    Les succès sont tels depuis 2012, année de la première victoire de tels systèmes en reconnaissance d’images, qu’ils se confondent désormais avec l’expression « intelligence artificielle ». Pourtant, en traduction, ils semblent plus ­« bêtes » que leurs prédécesseurs, puisqu’ils ne savent rien des langues et de leurs règles, et qu’ils cherchent juste la meilleure manière d’apparier des phrases (traduites par des humains).

    Mais on peut être bête et astucieux. L’idée-clé est qu’on peut abandonner le monde des mots pour celui des chiffres, évidemment plus familier pour les machines. L’astuce consiste à représenter la totalité des mots (d’un texte, de Wikipédia ou encore de directives européennes) dans un vaste espace, dans lequel deux mots de sens proche seraient géographiquement voisins. « Roi » serait proche de « reine », « chat » de « chien », « chats » de « chat »… Cette transformation assez abstraite, voire absconse, est possible… par apprentissage neuronal, comme l’a montré Yoshua Bengio en 2003.

    Puis, en 2007, Holger Schwenk – alors au Limsi et, depuis 2015, chez Facebook – l’applique pour la première fois à la traduction, avant qu’en 2012 le Limsi l’utilise à grande échelle dans un cadre de traduction statistique et que d’autres la perfectionnent. Le système est conçu pour apprendre à bien parler une langue, mot à mot, c’est-à-dire qu’il prédit le meilleur terme pour compléter le début d’une phrase. C’est en quelque sorte le ­fameux modèle de langue des linguistes des ­années 1950, mais qui se dispense de règles grammaticales écrites par des experts. Puis ce modèle est couplé aux statistiques pour faire le bon choix de traduction dans les énormes corpus.

    Plongements lexicaux

    Ces hybrides n’ont eu qu’un temps car, en 2014, les trois articles déjà cités arrivent à passer d’une langue à l’autre sans les statistiques à l’ancienne, grâce à ces représentations numériques appelées « plongement lexical », « sac de mots », ­« représentations continues » (word embedding en anglais)…. Les mots d’une phrase source dans une langue sont d’abord « encodés » dans un plongement lexical qui tient compte des mots l’entourant dans la séquence, avant d’être « décodés » dans la langue cible, selon un processus ­inverse. L’apprentissage des deux réseaux se fait en même temps, de manière que la sortie soit ajustée à l’entrée.

    Et ça fonctionne, comme l’ont successivement démontré l’université de Montréal, Google, Systran, Facebook, DeepL… en quelques semaines d’apprentissage. « C’est fascinant de voir que cette technique, qui reste encore opaque et mal comprise, fonctionne aussi bien », constate François Yvon. Il est vrai que les linguistes y perdent un peu leur latin ; l’énorme réseau de neurones à plusieurs dizaines de millions de paramètres reste assez mystérieux quant aux transformations qu’il fait subir aux mots…

    C’est même si fort que d’aucuns pensent qu’il y a peut-être du sens à chercher dans ces plongements lexicaux. En octobre, une équipe de Facebook a ainsi construit un dictionnaire de mots dans deux langues… sans avoir aucune information bilingue ! Les chercheurs ont « simplement » rapproché les deux représentations géométriques et numériques de chaque langue, grâce à des réseaux de neurones.

    Puis ils ont regardé quels mots étaient proches, et considéré qu’il s’agissait de leur traduction. « C’est bluffant car n’oublions pas qu’il n’y a aucune donnée bilingue dans le système. Certes il y a des erreurs, mais cela reste un exploit », estime Jean Senellart, qui a vérifié la validité de la ­méthode de ces collègues en cent lignes de code et un week-end. Car, ce qui est bluffant aussi avec ces réseaux de neurones, c’est que bien des algorithmes des Google, Facebook et autres sont ­libres et partagés, accélérant la diffusion des ­connaissances. Systran a lui aussi « ouvert » ses entrailles pour espérer attirer une communauté autour de ses systèmes.

    Idiomatismes

    Magiques ou pas, les résultats sont désormais là. « Il y a plus de fluidité dans les traductions depuis 2016 », constate Pierre Isabelle, tout juste retraité du Centre national de recherches du Canada. Son équipe a également testé le meilleur système ­actuel, DeepL, sur des phrases pièges. « 50 % ­d’erreurs en moins que les autres », écrivent les chercheurs dans un résumé de leur étude paru sur le site Medium. La plus grande faille concerne les idiomatismes. « Pédaler dans la choucroute » est littéralement traduit par « pedaling in sauerkraut ». « To be out to lunch » aurait été mieux.

    Mais ce ne sont pas les seuls problèmes. « Parfois le système dérape complètement ! », constate Pierre Isabelle. La qualité des données compte. Si un réseau n’apprend qu’à partir de la législation européenne, il ne saura pas ce que signifie le ­tutoiement, totalement absent du corpus… Idem pour un réseau spécialisé en finance, qui prendra un bank pour une banque, alors qu’il pourrait s’agir d’un banc de poissons.

    La qualité grimpe, certes, mais des sommets restent inaccessibles aujourd’hui. « Traduire non plus phrase à phrase, mais prendre en compte la totalité d’un document afin de préserver la cohérence stylistique ou lexicale est un défi. Les systèmes actuels y arrivent sur quelques dizaines de mots ; c’est déjà remarquable », note François Yvon. Mais pas toujours. Ainsi, DeepL a une ­mémoire de poisson rouge car il traduit « The car is red. It has four wheels » par « La voiture est rouge. Il a quatre roues. »

    Autre point faible, selon Yoshua Bengio, « malgré les quantités délirantes de données utilisées pour les entraîner, plus que ce qu’un humain pourrait voir en plusieurs vies, les erreurs faites par ces systèmes montrent qu’ils ne captent pas vraiment le sens commun, c’est-à-dire la compréhension générale du monde qui nous entoure. Pour cela il faudra aller au-delà des corpus de textes et de traductions, et s’attacher à associer les mots et les phrases à des réalités auxquelles ils font référence, et que l’ordinateur comprenne la nature de cette réalité, les relations de cause à ­effet… » L’absence de bon sens se pose d’ailleurs pour d’autres tâches cognitives « attaquées » par l’intelligence artificielle.

    La traduction orale en ligne de mire

    Les ingénieurs ont aussi leurs problèmes très terre à terre. Google reconnaît : « Les réseaux de neurones sont plus lents que les modèles ­statistiques et même si des progrès ont été faits, nous cherchons des améliorations. » En outre, « un modèle est long à entraîner [plusieurs ­semaines] et comme Google traduit plus de 100 langues, nous cherchons à mettre au point des modèles multilingues », indique un de ses porte-parole.

    Ce dernier point est relié à une autre question, à la fois technique et conceptuelle : que faire avec les langues peu courantes ou n’étant même pas écrites ? Le côté « bluffant » de l’encapsulation numérique pourrait être utile. « Une partie de ma recherche vise à trouver une représentation universellequi serait donc commune à toutes ces langues et qui serait en quelque sorte une représentation du sens », indique Holger Schwenk. Accessoirement, cela rendrait peut-être plus explicable le comportement de ces bêtes à traduire.

    Et la traduction orale ? Elle est aussi en ligne de mire, bien sûr, mais cumule deux difficultés. La première, la traduction, dont on vient d’exposer les limites. La seconde, la reconnaissance de la parole et sa transcription en texte, qui n’a rien d’évident non plus. « Les systèmes ont du mal avec les intonations, les ponctuations, les hésitations dans un dialogue… Bref, tout ce qui est spontané dans le langage », rappelle Laurent Besacier, professeur de l’université Grenoble-Alpes, qui vient de proposer une méthode évitant l’étape de transcription.

    Malgré les difficultés, des prototypes existent, comme dans Skype pour les systèmes d’exploitation Windows, ou chez la start-up Waverly Labs, dont on peut tester l’application sur smartphone, Pilot, en attendant que des oreillettes fassent aussi le travail, ou bien ­encore dans les cours d’Alex Waibel, de l’Institut technologique de Karlsruhe, en Allemagne, qui traduit ses conférences à la volée. Mais ils sont loin de la perfection.

  • Tarentelle / Tarentule / Tarente

    Athanasius Kircher, Magnes sive De Arte Magnetica. Opus tripartitum, Rome 1641
    Exhibition up to November 29, 2017 « The dance »
    National Library of Naples

    par Carlo Raso sur flickr
    https://www.flickr.com/photos/70125105@N06

    Flickr


    Tarentelle

    Tarentelle — Wikipédia
    https://fr.wikipedia.org/wiki/Tarentelle

    La tarentelle, selon les croyances, était une danse permettant de guérir un malade souffrant d’une morsure de tarentule. Les connaissances actuelles sur la tarentule (Lycosa tarantula) nous permettent de dire qu’il n’était pas question de cette araignée dans la tarentelle. Si la tarentule est impressionnante, le venin injecté lors de la morsure inflige à peine plus de souffrances qu’une piqure de frelon. En revanche, une autre araignée peuple cette même région de Tarente, Latrodectus tredecimguttatus. Bien plus petite et plus dangereuse, sa morsure peut provoquer des lésions et perturbations psychologiques et physiques assez importantes. La thérapie par tarentelle pourrait donc venir de la morsure de cette araignée.

    Athanasius Kircher (1601-1680), qui a étudié la tarentelle, rapporte plusieurs types de tarentelles. Ces différents types étaient liés au « caractère de l’araignée ». Il fallait que la danse plaise à l’araignée qui avait mordu le malade pour que la thérapie soit efficace.

  • Paléo-inspiration : quand le passé invente le futur

    http://www.lemonde.fr/sciences/article/2017/11/20/paleo-inspiration-quand-le-passe-invente-le-futur_5217667_1650684.html

    Des bétons antiques, des pigments ou des alliages qui ont traversé les âges sont des sources de savoirs pour concevoir des objets et matériaux innovants.

    Une teinture naturelle, aussi résistante qu’une couleur chimique mais non polluante. Un béton ­indestructible, capable d’isoler durablement les déchets nucléaires. Des aimants de nouvelle génération, d’une puissance extrême et produits sans terres rares. Des capteurs photoélectriques ultrasensibles, susceptibles de détecter dans un avion les premières traces d’un gaz… Ces produits de rêve ne semblent, à première vue, pas avoir grand-chose en commun, sauf peut-être le rêve, justement. Tous demeurent, en effet, à l’état de prototype, voire de projet de recherche. En vérité, ils partagent une autre caractéristique bien plus fondamentale, une origine commune, une marque de fabrique : ils sont nés de découvertes archéologiques ou de l’étude de matériaux ancestraux.

    Faire du neuf avec du vieux. L’idée peut sembler basique. Elle figure pourtant au cœur d’un pari particulièrement ambitieux que viennent de lancer quatre scientifiques – physiciens, chimiste, ingénieur. Dans un article que publie la revue Angewandte Chemie, la plus prestigieuse dans la discipline de la chimie, ils ne proposent rien moins que de créer une nouvelle méthode de conception des matériaux modernes, « en imitant les propriétés particulièrement intéressantes (mécaniques, optiques, structurales…) des systèmes anciens ». Un processus qu’ils ont baptisé du doux nom de « paléo-inspiration ». Pour les amateurs de sciences, la référence est transparente. Depuis une dizaine d’années, en effet, des chercheurs venus de tous horizons se sont rassemblés sous la bannière de « bio-inspiration » ou « bio-mimétisme ».

    Leur principe est simple : trouver dans la ­nature les outils de conception des systèmes ­innovants. Une méthode déjà ancienne, en ­vérité : du papier de bois inspiré des réalisations des guêpes (1719), au Velcro imitant les petits crochets présents sur les fleurs de bardane (1941), sans compter une myriade de médicaments puisés dans la biosphère, animaux et végétaux ont beaucoup inspiré les scientifiques.

    L’apposition officielle d’une étiquette a pourtant dopé ce qui est pratiquement devenu une discipline à part entière. Désormais, on conçoit des surfaces adhésives d’après les pattes des geckos, des torpilles mimant les petits marteaux des crevettes-mantes, des combinaisons hydrophobes pour les astronautes inspirées des feuilles de lotus ou des logiciels informatiques reproduisant les ­réseaux de neurones.

    « Les découvertes archéologiques ou paléontologiques identifient des matériaux particulièrement résistants à l’altération. Mieux encore, beaucoup de ces matériaux ont été produits par une chimie douce, sobre en énergie et utilisant souvent des équipements rudimentaires. »
    Le chemin est donc tracé. Et les auteurs en sont convaincus : ce que la nature a pu apporter aux chercheurs « bio-inspirés », l’ingéniosité des hommes d’autrefois et surtout le temps, cet intraitable juge de paix, doivent pouvoir l’offrir aux scientifiques « paléo-inspirés ». Ils s’expliquent dès l’exposé introductif de leur article : « Les découvertes archéologiques ou paléontologiques identifient des matériaux particulièrement résistants à l’altération. Mieux encore, beaucoup de ces matériaux ont été produits par une chimie douce, sobre en énergie et utilisant souvent des équipements rudimentaires. » Deux qualités particulièrement précieuses à l’heure de l’anthropocène, soulignent-ils.

    Ce « ils », quatuor de choc aux accents pionniers, s’est construit l’été dernier, lors d’un colloque aux Etats-Unis. Des spécialistes de matériaux anciens y sont invités à présenter leurs recherches en cours et à proposer un « développement méthodologique ». Trois des quatre mousquetaires sont là : Loïc Bertrand, directeur d’Ipanema, la plate-forme européenne de recherche sur les matériaux anciens, sur le plateau de Saclay ; Claire Gervais, professeure assistante de chimie à l’école des arts de Berne ; et Admir Masic, professeur de sciences des matériaux au département d’ingénierie civile du Massachusetts Institute of Technology (MIT). Luc Robbiola, ingénieur de recherche en métallurgie au CNRS (Toulouse) et restaurateur d’œuvres d’art, les rejoindra pour former l’équipe définitive.

    Le principe de la paléo-inspiration

    « C’est lors des discussions après nos présentations respectives que l’idée de poser un concept est apparue, raconte Loïc Bertrand. On a listé ce qui pouvait entrer dedans. Il y avait les matériaux artistiques, comme les peintures, que Claire analyse et dont elle simule la dégradation. Les matériaux de construction anciens, qu’Admir étudie pour tenter d’améliorer les systèmes modernes. De nombreux échantillons passés chez nous, au synchrotron ­Soleil, des vernis traditionnels aux produits de corrosion inconnus, qui nous avaient posé des questions fondamentales originales. Et la liste s’agrandissait… En fait, beaucoup de chercheurs avaient fait de la paléo-inspiration sans le savoir. On s’est dit : essayons d’écrire un article concept et soumettons-le à une grande revue, sans résultats nouveaux mais posant un principe, en s’appuyant sur de nombreux exemples. »

    Le béton romain constitue indiscutablement un des plus beaux d’entre eux. Voilà un produit qui, depuis maintenant 2000 ans, résiste aux ravages du temps. Le Colisée, les marchés de Trajan, ou ­encore le Panthéon, le plus grand monument ­antique romain demeuré intact, apportent un ­témoignage éclatant de la qualité du savoir-faire des Romains. « Les bétons modernes sont garantis au mieux cent ans et ils se détériorent souvent bien plus tôt, souligne Admir Masic. Quel était donc le secret des Romains ? » Le hasard d’un congé sabbatique en Italie a conduit l’archéologue américaine Marie Jackson à consacrer sa vie professionnelle à lever les mystères d’un miracle déjà décrit par Pline l’Ancien mais resté longtemps incompris.

    Immortel béton romain

    « Les Romains étaient d’incroyables observateurs de la nature et de grands expérimentateurs, insiste la scientifique de l’université de l’Utah. Ils ont pris ce qu’ils avaient autour d’eux et sans doute testé ce qui marchait le mieux. » Pour construire le mortier, ils n’ont ainsi pas eu recours à n’importe quelle argile, mais à de la cendre volcanique – dont la région ne manque pas – qu’ils ont ­mélangée à de la chaux. A ce liant, ils n’ont pas ­adjoint un vulgaire sable ou de quelconques graviers, comme nous le faisons aujourd’hui pour former le béton, mais de la roche volcanique. En étudiant des échantillons anciens avec des techniques d’imagerie de pointe, elle y a trouvé un minerai, la stratlingite, produit par cristallisation, dont les minuscules lamelles viennent combler les failles apparues dans le mortier mais aussi aux zones de contact du matériau. Plus élastique, le ciment a ainsi pu résister aux tremblements de terre, fréquents dans cette région.


    A Portus Cosanus, en Toscane, les scientifiques tentent de percer le secret de la résistance de cette structure marine en béton, datant du Ier siècle avant J.-C.

    L’archéologue a poursuivi sa quête, étudié les bétons marins utilisés par les Romains dans leurs différents ports de la Méditerranée. Pline, toujours lui, avait décrit l’impressionnant durcissement du matériau au contact de l’eau de mer. Pourtant, nos propres bétons, soumis au même régime, se désagrègent rapidement. Marie Jackson a là encore ­retrouvé des matières volcaniques, mais issues cette fois des champs Phlégréens, près de Naples, ou du Vésuve. Et ses analyses ont fait apparaître un minéral d’une dureté extrême mais aussi particulièrement difficile à fabriquer : la tobermorite ­alumineuse. « Les Romains l’ont fait, et à basse température », souligne la chercheuse. Cet été, elle a même montré qu’au contact de l’eau de mer, la production de tobermorite pouvait se poursuivre… pendant des siècles. Comme n’a cessé de s’épaissir la fine couche de misawite – un composé rare de fer, d’oxygène et d’hydrogène – qui protège de la rouille le mystérieux pilier de fer de Delhi, érigé au Ve siècle, sous la dynastie des Gupta.


    L’analyse du ciment formé par les cendres volcaniques, la chaux et l’eau de mer a mis en évidence des cristaux de tobermorite alumineuse.

    Les découvertes de Marie Jackson intéressent évidemment les industriels. Protection nucléaire, construction marine, bâtiments durables : plusieurs pistes sont aujourd’hui explorées. « Quand on sait que la production de ciment, avec sa cuisson à 1 450 °C, est responsable, à elle seule, de 7 % à 8 % des émissions totales de CO2 et que les Romains se contentaient d’une température bien moindre, on mesure l’enjeu », ajoute Admir Masic. Encore faut-il s’adapter aux contraintes modernes, de ­robustesse mais aussi de temps de fabrication. Son équipe du MIT tente ainsi de faire « la synthèse des deux mondes ». Il ne donnera pas de détails, preuve du potentiel.

    Percer les secrets de fabrication

    Reproduire les anciennes recettes pour proposer de nouveaux plats : c’est aussi l’objectif de Roberto Giustetto. Son ingrédient à lui se nomme le bleu maya. Encore un mystère : comment cet indigo organique, obtenu à partir des fleurs d’indigofera et apposé sur des fresques murales ou des sculptures, a-t-il pu résister pendant des siècles ? Les couleurs végétales ne sont-elles pas réputées fragiles ? « Normalement oui, répond le chercheur de l’université de Turin. Sauf que les Mayas ont eu l’idée géniale de mélanger ce pigment à la palygorskite, un minéral présent dans certaines argiles mexicaines, et ont fabriqué ainsi un des premiers nanomatériaux. »


    Grâce aux liaisons chimiques entre l’argile et l’indigo, le bleu maya de cette statue représentant Tlaloc, dieu aztèque de la pluie, datée entre le XIIe et le XIVe siècle, a traversé les années.

    Depuis les années 1930 et la redécouverte du bleu maya, plusieurs générations de chercheurs s’étaient approchées du secret, avaient mis en évidence la palygorskite et prouvé que, chauffé à 100 °C, un tel mélange résistait ensuite à l’alcool et aux acides. Roberto Giustetto a achevé de lever le mystère. « Nous avons montré que la palygorskite était composée de petits tunnels de 0,7 nanomètre, que le chauffage évacuait l’eau qui s’y trouvait et permettait au pigment de pénétrer. Mais ce n’est pas qu’un abri. Des liaisons chimiques s’établissent entre les deux éléments et rendent la structure presque indestructible. »

    Le chercheur italien s’est fixé un nouveau défi : « reproduire ce que les Mayas avaient fait mais avec d’autres couleurs ». Il a jeté son dévolu sur le rouge de méthyle. Un choix paradoxal : le rouge de méthyle – souvenez-vous des premières expériences de chimie – sert d’indicateur coloré, passant du jaune à l’orange, puis au rouge violacé à mesure que l’acidité augmente. Peu stable, donc. Sauf qu’encapsulé dans la palygorskite, le violet ­demeure inaltéré. La recette du « rouge maya » a été publiée. Celle de l’orange est prête et un vert maya est en voie d’achèvement. « L’idée d’avoir transposé le savoir maya dans notre culture, d’avoir nourri le présent avec le passé pour construire le futur m’enthousiasme », insiste-t-il.

    Explorer la couleur

    L’art des couleurs paraît particulièrement adapté à la paléo-inspiration. Au cours de sa thèse, entre la Cité de la céramique (Sèvres et Limoges) et l’Institut de minéralogie, de physique des matériaux et de cosmochimie (Paris), Louisiane Verger s’est ainsi penchée sur les 136 pigments synthétisés depuis deux siècles à la Manufacture nationale, et plus particulièrement aux 76 pigments contenant du chrome – rose, vert ou encore jaune oranger, suivant le minéral d’origine. Elle a ­ensuite jeté son dévolu sur les spinelles, une ­famille de minéraux aux teintes variables. En analysant, avec toutes les techniques de pointe, les ­décors de porcelainiers du XIXe siècle, les nuanciers de travail des artisans mais aussi ses propres échantillons (destructibles, donc), elle est parvenue à expliquer chimiquement mais aussi physiquement les dégradés observés : une migration de l’aluminium dans le silicate fondu, laissant la part belle au chrome et modifiant son environnement dans la maille cristalline. Elle a également proposé une méthode capable à la fois de contrôler le dégradé des couleurs et leur intensité. « Il semble que ça n’intéresse pas seulement les céramistes, mais aussi des spécialistes d’autres domaines comme la géologie et la minéralogie », explique-t-elle, modestement.

    La couleur, voilà trente ans que Dominique ­Cardon, directrice de recherche émérite au CNRS, trempe dedans. Que la chercheuse reconnue, ­médaille d’argent du CNRS, assure, à qui veut l’entendre, que les méthodes de teintures ancestrales ont beaucoup à nous apprendre. Cela a commencé avec un morceau de laine rouge, datant du Moyen Age, retrouvé sur un cadavre au fond d’un puits. Cela s’est poursuivi à travers le monde où, du Japon au Pérou, du Vanuatu au Vietnam, elle a étudié les méthodes traditionnelles encore en ­vigueur. Désormais, elle rêve d’adapter au monde contemporain les techniques de teinturiers du XVIIIe siècle, dont elle a retrouvé les carnets. ­Utopie ? « La planète est dans un tel état, et les rejets de dérivés soufrés de la teinture des jeans si terribles, que ça me semble au contraire tout à fait réaliste. Levi’s a fait une collection à partir de colorants naturels. Chevignon aussi. Et des Coréens s’inspirent des techniques que nous avons retrouvées. Je suis convaincue que les procédés anciens peuvent inspirer les innovations futures. »


    Les reflets colorésdans le noir des poteries de la dynastie Song(Xe-XIIIe siècle) proviennent d’une forme rarissime d’oxyde de fer, susceptible de produire des aimants surpuissants.

    Un avenir parfois tout à fait imprévu. Ainsi ­Philippe Sciau, physicien et directeur de recherche au CNRS, ne s’attendait-il pas à trouver, dans des ­céramiques chinoises de ladynastie Song (Xe -XIIIe siècle) une forme d’oxyde de fer particulièrement instable. « On voulait comprendre l’origine de l’irisation colorée dans le noir. Ça ressemblait un peu aux couleurs que vous voyez sur un CD, quand vous le tournez. On a vite vu que c’était de l’oxyde de fer mais aucune phase classique ne fonctionnait. Et on a découvert la bonne. » Un des « polymorphes » d’oxyde de fer, comme disent les chimistes, organisation particulière des atomes, qu’aucun laboratoire n’avait pu jusqu’ici produire au-delà de l’échelle de la dizaine de nanomètres, et encore avec 20 % d’impuretés. Cette fois, les cristaux semblent parfaitement purs et mesurent plusieurs centaines de nanomètres. Pas gigantesques, certes. Mais suffisants pour donner de l’appétit aux fabricants d’aimants ou aux développeurs de systèmes de communication sans fil, tant les propriétés magnétiques du matériau paraissent exceptionnelles. Reste désormais à comprendre les raisons de cette stabilisation. « Est-ce la glaçure sur les pots ? La fabrication à très haute température ? Un refroidissement particulièrement lent ? s’interroge Philippe Sciau. On sait qu’ils avaient des grands fours mais on n’a pas leurs recettes. On va chercher. »

    Systèmes complexes

    Se laisser surprendre. Prendre les matériaux ­anciens pour ce qu’ils sont : des systèmes complexes, produits par le temps et les hommes. Comme ses trois cosignataires, Luc Robbiola, ingénieur de recherche au CNRS, métallurgiste immergé dans un laboratoire d’archéologie, est convaincu que le temps est venu d’un autre regard sur les objets ­patrimoniaux. Est-ce sa deuxième casquette de restaurateur d’œuvre d’art ? Le fait d’avoir connu la période maigre, quand ce pionnier des « sciences au service de l’art » dut trouver refuge dans une école de chimie, faute d’intérêt au CNRS ? Ou simplement les résultats obtenus ? Récemment, il a ainsi mis en évidence des nanostructures inconnues, très denses et très protectrices, sur les patines des bronzes. « Un programme européen a été lancé pour mettre au point des revêtements non toxiques, des industriels sont associés. Au départ, c’était juste de l’archéologie. »

    L’aventure de l’amulette de Mehrgarh, conduite par Loïc Bertrand et Luc Robbiola offre les mêmes perspectives. Il y a tout juste un an, l’annonce que ce petit objet de cuivre, retrouvé sur un site au ­Pakistan et analysé au synchrotron Soleil, probablement le plus ancien spécimen de fonte à la cire perdue, avait passionné les archéologues. Au passage, les scientifiques avaient reconstitué tout le processus de fabrication utilisé il y a 6 000 ans, mais aussi les six millénaires de vieillissement. Ils avaient mis en évidence une forme particulière d’oxyde de cuivre, dont l’équilibre de phase ne pouvait avoir lieu qu’à 1 066 °C. « Comme l’eau, qui, sous pression normale, bout toujours à 100 °C, ­explique Luc Robbiola. Ça paraît anodin mais ça ouvre plein de perspectives. Ça intéresse les métallurgistes, les physiciens théoriciens mais aussi les fabricants de semi-conducteurs, de témoins de température en cas d’incendie, ou de détecteurs de gaz dans les avions. »

    Un avenir radieux ? Ou juste le signe que du passé, il n’est plus question de faire table rase ? « Les temps changent », jure en tout cas Admir Masic. Pour preuve, le module d’un semestre de sciences des matériaux qu’il organise commence par un voyage de trois semaines en Italie, suivi de travaux pratiques. Les mains dans ­l’argile, à la romaine.

  • Des chercheurs se déguisent en siège pour étudier les interactions entre humains et voitures autonomes
    http://www.lemonde.fr/sciences/video/2017/11/17/des-chercheurs-se-deguisent-en-siege-pour-etudier-les-interactions-entre-hum

    https://www.youtube.com/watch?v=GMIWbwRasmU

    Les véhicules sans chauffeur souffrent d’un problème de communication. Les piétons ou les autres conducteurs ont du mal à savoir ce qu’elles vont faire.
    Des chercheurs de l’université de Virginia Tech, aux Etats-Unis, développent une méthode qui utilise des panneaux lumineux. Pour les tester, ils ont créé un costume de siège de voiture dans lequel se dissimule un scientifique, ce qui permet à celui-ci de se rendre invisible et d’actionner le dispositif.
    Les véhicules sans chauffeur doivent aussi communiquer par leurs mouvements, explique Barry Brown. Ce professeur à l’université de Stockholm, spécialiste des relations homme-machine, souligne que si les voitures-robots sont sûres, leurs attitudes peuvent parfois apparaître étranges aux humains. Et c’est donc pour cela qu’il est indispensable de leur apprendre à mieux interagir avec les autres usagers de la chaussée.

  • Tiny human brain organoids implanted in rodents, raising ethical concerns
    https://www.statnews.com/2017/11/06/human-brain-organoids-ethics

    Des #organoïdes humains dans des #cerveaux de #rats : le débat sur les #chimères de retour | Gènéthique
    http://www.genethique.org/fr/des-organoides-humains-dans-des-cerveaux-de-rats-le-debat-sur-les-chimer

    Plusieurs laboratoires américains auraient inséré des organoïdes de cerveaux humains dans des cerveaux de rats et de souris, reliant les deux structures par des vaisseaux sanguins. Certains de ces organoïdes se seraient développés et les chercheurs estiment que le tissu cérébral serait devenu fonctionnellement intégré à celui du rat. Ces annonces faites par la revue Stat ravivent le débat sur les chimères et particulièrement sur la possibilité que des cellules humaines se développent dans des cerveaux d’animaux, « leur donnant une forme de conscience humaine ». Le but affiché de ces recherches est de « déterminer comment des faisceaux de cellules cérébrales cultivés en laboratoire pourraient être utilisées pour comprendre ou traiter des maladies cérébrales ». Si les perspectives effrayantes de ces travaux - doter les animaux de caractéristiques humaines - semblent lointaines et du domaine de la science-fiction, les éthiciens s’inquiètent. Jusqu’à présent, les expériences concernaient des fractions de neurones humains si petites qu’elles n’avaient aucune chance de donner à la souris une conscience humaine ou une intelligence améliorée. En outre, aucune vascularisation de tels implants n’avait réussi.

    Qu’est-ce qu’un « organoïde » ?

    Une sorte de « mini-cerveau » créé à partir de cellules souches
    http://www.lemonde.fr/sciences/article/2013/08/28/une-sorte-de-mini-cerveau-cree-a-partir-de-cellules-souches_3467840_1650684.

  • Variole, une résurrection inquiétante
    http://www.lemonde.fr/sciences/article/2017/10/30/variole-une-resurrection-inquietante_5207923_1650684.html

    Un excellent papier par Yves Sciama

    C’est un important tournant pour la biologie synthétique et la sûreté biologique. » Pour le professeur Gregory Koblentz, spécialiste de biosécurité à l’université George-Mason, en Virginie, il n’y a aucun doute : la synthèse du virus éteint de la variole équine, à partir de segments d’ADN issus du commerce sur Internet et livrés par voie postale, doit valoir signal d’alarme. Quand bien même cette synthèse avait seulement pour objectif « d’améliorer l’actuel vaccin contre la variole humaine », selon le professeur David Evans, de l’université canadienne d’Edmonton, qui l’a coordonnée.
    La « recette » de la variole humaine

    Si cette expérience, révélée durant l’été et financée par le laboratoire Tonix Pharmaceuticals, a franchi une ligne jaune, selon de nombreux spécialistes, c’est qu’elle fournit, clés en main, rien moins que la « recette » de la synthèse de la variole humaine.

    Pourtant, la synthèse de la variole ressuscite brusquement un scénario de cauchemar : celui de son retour, par un accident de laboratoire ou l’acte malveillant d’un déséquilibré, de terroristes ou d’un Etat voyou.
    Contagieuse par voie respiratoire, la maladie fit au XXe siècle 300 millions de morts.

    Une épidémie de variole sèmerait un chaos et une panique inimaginables : contagieuse par voie respiratoire, la maladie (qui tue un malade sur trois) fit au XXe siècle 300 millions de morts – plus que toutes les guerres cumulées. Ses survivants sont de plus généralement défigurés par les centaines de vésicules dont la maladie recouvre le corps et les muqueuses.

    L’atmosphère de panique qui avait entouré la poignée de cas d’Ebola sortis d’Afrique – maladie a priori moins contagieuse que la variole – laisse imaginer le chaos que causerait une flambée de variole : les replis, les perturbations du système de transport, notamment aérien, les chocs économiques qui s’ensuivraient, etc. Des dizaines de rapports d’analystes documentent combien l’extrême interconnexion de notre monde fait d’une épidémie l’un des principaux risques globaux.

    J’avais défendu un moratoire sur la biologie de synthèse en 2009, dans le silence le plus assourdissant

    Mais la question de la variole n’est que la partie émergée du gigantesque iceberg qu’est devenue la biologie de synthèse, dont les fulgurants progrès commencent à révéler l’énorme potentiel d’usages malveillants. David Evans a indiqué qu’il n’avait fallu que six mois et 100 000 dollars à son thésard et à lui-même pour ressusciter la variole équine. Il n’en faudrait donc sans doute pas plus pour son homologue humaine. Or la ­variole appartient à la partie complexe du spectre des virus dangereux – la plupart sont bien plus simples à fabriquer (celui de la poliomyélite, par exemple, a été synthétisé dans les années 2000). Même la construction de génomes bactériens, porteurs de centaines de gènes, est maîtrisée depuis une décennie.

    Bien évidemment le marché de l’ADN est forcément éthique... selon la logique des Conférences d’Azilomar : ce sont ceux qui font qui décident des limites (on voit par exemple l’effet dans la crise actuelle des opiodes de cette « auto-régulation » des industries...)

    Cette industrie de la synthèse d’ADN se trouve être l’un des importants leviers d’action disponibles pour réguler, et reprendre un tant soit peu le contrôle des risques engendrés par les sciences du vivant. En particulier parce que c’est une industrie qui s’est dès ses débuts, spontanément, posé la question de la sûreté biologique. Et qui a mis en place des mesures de sécurité dès 2009.

    Des mesures, baptisées « Protocole Standard », dont il faut souligner qu’elles sont entièrement volontaires. Elles ne sont appliquées que par les entreprises du secteur adhérentes au Consortium international de synthèse génétique (IGSC), une association dont la fonction est « d’élever le ­niveau de sûreté biologique, pour garder cette ­industrie propre », résume Marcus Graf, res­pon­sable de l’activité biologie synthétique au sein de la société allemande Thermo Fisher Scientific. L’IGSC compte aujourd’hui onze membres, ­contre cinq en 2009, et représente environ 80 % du marché mondial de la synthèse d’ADN.

    Mais rien n’est simple : on peut être partisan de l’auto-régulaiton, mais vouloir que les règles sur les choses dangereuses soient fixées par d’autres (sans qu’on se demande comment seront financés les experts « indépendants », si ce n’est pas des contrats recherche/entreprise...).

    Secundo, la fameuse base de données des ­séquences suspectes, que l’industrie réactualise chaque année, devrait en fait être constamment tenue à jour, afin de suivre les progrès rapides de la biologie. Il faudrait affecter à ce travail des équipes entières de biologistes chevronnés, au fait des derniers développements de la littérature, capables d’anticiper sur les usages malveillants – et non pas laisser le soin de le faire à une industrie hyper-concurrentielle, obsédée par la nécessité de réduire ses coûts et ses délais de livraisons. « Cette base de données devrait être établie et tenue à jour par les Etats, et ce serait aussi leur rôle de consacrer une importante ­recherche publique à cette tâche », souligne ­Gregory Koblentz.

    Une intervention de l’Etat que, une fois n’est pas coutume, les industriels appellent de leurs vœux. « Nous serions très contents qu’une agence nous dise au niveau national ou au niveau international ce qui doit aller ou non dans notre base de données », confirme Todd Peterson. La chose n’a en effet rien de trivial – elle suppose d’identifier dans le génome d’un pathogène quelles sont les parties vraiment dangereuses, liées à la virulence, la contagiosité ou la résistance aux traitements, et quels sont les gènes bénins, partagés avec d’innombrables autres organismes, qui servent uniquement au fonctionnement de base de l’organisme – respirer, se diviser, percevoir, etc.

    Ce dont les industriels ne veulent pas, il est vrai, c’est d’un contrôle des commandes qui serait ­effectué directement par les agences étatiques (telles que l’ANSM en France). Ils estiment que dans ce cas, ceux d’entre eux qui auraient l’agence la moins diligente perdraient leurs marchés. « Nos clients veulent être livrés en 3 à 5 jours, deux semaines maximum – le screening ne doit pas prendre plus de quelques minutes », avertit Marcus Graf.

    Ce que cet excellent article dit un peu plus loin :

    Il n’en reste pas moins que, partout dans le monde, la plupart des obligations liées à la ­sûreté biologique reposent sur des listes d’organismes suspects… dont la variole équine ne fait nulle part partie – c’est d’ailleurs ce qui a permis à David Evans de commander sur Internet ses séquences. « Actuellement prédomine une concep­tion très étroite de la sûreté biologique, analyse Gregory Koblentz. Elle revient à dire que tout biologiste qui ne travaille pas sur la quinzaine d’organismes de la liste peut dormir tranquille et se dispenser de réfléchir à ces problèmes – la sûreté biologique est manifestement perçue avant tout comme un fardeau dont il faut affranchir le plus grand nombre. » Or, pour ce chercheur, il faut que l’ensemble de la communauté scientifique soit mobilisée par cette question, qu’elle soit supervisée par des comités de ­contrôle multiples, enseignée à l’université, etc.

    Mais l’hubris des démiurges de la biologie de synthèse est si fort. Ce sont des prédicateurs (titre d’un article sur le sujet que j’ai commis il y a quelques années... et qui ne doit pas être encore en ligne)

    En réalité, il est frappant de constater à quel point la situation préoccupe peu la majorité des biologistes, partagés entre inquiétude que des profanes se mêlent de leur imposer des règles, et fatalisme technologique. Pour David Evans, par exemple, « dire qu’il est possible de mettre arbitrairement des limites à ce que la science peut ou ne peut pas faire, c’est tout simplement naïf. Le génie est sorti de la bouteille ». Et d’ajouter, un brin provoquant : « La biologie synthétique a même dépassé de beaucoup ce dont la plupart de ses critiques ont conscience… »

    Bon, j’aurais envie de citer tout le papier... il est très bon. Voici la conclusion, que je partage totalement :

    Il serait pourtant bon de faire mentir la règle, bien connue des spécialistes du risque industriel, selon laquelle on ne régule sérieusement les activités dangereuses qu’après qu’elles aient causé un accident emblématique. Car on frémit à l’idée de ce que pourrait être un « Titanic » de la biologie synthétique.

    –---------------
    Une affaire dans l’affaire : que faire des souches de variole existantes

    Doit-on détruire les échantillons de variole ? : le débat se poursuit

    Après l’éradication de la variole en 1980, il ne reste aujourd’hui que deux séries d’échantillons du virus sur la planète, l’une au Center for Disease Control (CDC) américain, à Atlanta, et l’autre au centre VECTOR russe à Novossibirsk – du moins en principe, car l’existence d’échantillons clandestins ne peut être exclue. Un débat enfiévré fait rage depuis les années 1990 entre partisans et adversaires de la destruction de ces deux échantillons, les premiers plaidant que l’éradication de la maladie justifie – et même impose – d’effacer le virus de la surface de la Terre, les seconds invoquant la nécessité de nouvelles recherches sur les vaccins et traitements. Bien qu’elle en ait beaucoup diminué l’enjeu, la possibilité d’une synthèse artificielle de la variole n’a pas éteint ce débat. Les « destructeurs » argumentent que, puisqu’il y a possibilité de reconstruire le virus en cas de besoin urgent, autant le détruire ; tandis que les « conservateurs » estiment qu’il n’y a plus de raison de se débarrasser du virus, car il peut plus que jamais se retrouver dans des mains malveillantes. Verdict à l’Assemblée mondiale de la santé, dans deux ans.

  • Variole, une résurrection inquiétante

    http://www.lemonde.fr/sciences/article/2017/10/30/variole-une-resurrection-inquietante_5207923_1650684.html

    La synthèse de la variole équine par des chercheurs canadiens a été un électrochoc   : les industriels de la génétique s’alarment eux-mêmes de détournements à des fins terroristes.

    C’est un important tournant pour la biologie synthétique et la sûreté biologique. » Pour le professeur Gregory Koblentz, spécialiste de biosécurité à l’université George-Mason, en Virginie, il n’y a aucun doute : la synthèse du virus éteint de la variole équine, à partir de segments d’ADN issus du commerce sur Internet et livrés par voie postale, doit valoir signal d’alarme. Quand bien même cette synthèse avait seulement pour objectif « d’améliorer l’actuel vaccin contre la variole humaine », selon le professeur David Evans, de l’université canadienne d’Edmonton, qui l’a coordonnée.

    La « recette » de la variole humaine

    Si cette expérience, révélée durant l’été et financée par le laboratoire Tonix Pharmaceuticals, a franchi une ligne jaune, selon de nombreux spécialistes, c’est qu’elle fournit, clés en main, rien moins que la « recette » de la synthèse de la variole humaine.

    Les différents virus de la variole, qui infectent divers mammifères et oiseaux, sont en effet très étroitement apparentés ; ce qui fonctionne avec l’un fonctionne en général avec l’autre. Or, leur complexité et leur grande taille (250 gènes contre 11 pour la grippe, par exemple) les rendaient jusqu’à présent difficiles à fabriquer artificiellement. Une difficulté que David Evans a réussi à contourner, ­notamment par la mise en œuvre astucieuse d’un « virus auxiliaire », le SFV, qui fournit à celui de la ­variole des protéines lui permettant de se multiplier. David Evans espérait que ce travail lui vaudrait une place dans Science ou Nature, les deux principales revues scientifiques. Mais elles ont décliné ; des pourparlers sont en cours pour le publier ailleurs.

    Scénario de cauchemar

    Pourtant, la synthèse de la variole ressuscite brusquement un scénario de cauchemar : celui de son retour, par un accident de laboratoire ou l’acte malveillant d’un déséquilibré, de terroristes ou d’un Etat voyou.

    Une épidémie de variole sèmerait un chaos et une panique inimaginables : contagieuse par voie respiratoire, la maladie (qui tue un malade sur trois) fit au XXe siècle 300 millions de morts – plus que toutes les guerres cumulées. Ses survivants sont de plus généralement défigurés par les centaines de vésicules dont la maladie recouvre le corps et les muqueuses.

    Ce scénario noir est, il est vrai, nimbé d’incerti­tudes. Nombre de spécialistes, comme Geoffrey Smith, qui préside le comité de l’Organisation mondiale de la santé (OMS) chargé de réguler la ­recherche sur la variole, soulignent les « bons progrès » accomplis en termes de vaccin, de traitement, de kits de détection. Et expriment des doutes sur la possibilité qu’une épidémie d’une grande ampleur survienne. Mais d’autres avertissent qu’on ne peut se rassurer à bon compte. La maladie ayant disparu depuis quarante ans, il est difficile de savoir exactement ce que valent nos vaccins et traitements.

    De plus, la population mondiale est redevenue « naïve » envers le virus, donc plus vulnérable. Enfin, les vaccins et les traitements sont en quantité limitée et concentrés dans les pays riches, particulièrement aux Etats-Unis. S’en dessaisiraient-ils pour éteindre un foyer épidémique qui démarrerait ailleurs ?

    Doit-on détruire les échantillons de variole ? : le débat se poursuit

    Après l’éradication de la variole en 1980, il ne reste aujourd’hui que deux séries d’échantillons du virus sur la planète, l’une au Center for Disease Control (CDC) américain, à Atlanta, et l’autre au centre VECTOR russe à Novossibirsk – du moins en principe, car l’existence d’échantillons clandestins ne peut être exclue. Un débat enfiévré fait rage depuis les années 1990 entre partisans et adversaires de la destruction de ces deux échantillons, les premiers plaidant que l’éradication de la maladie justifie – et même impose – d’effacer le virus de la surface de la Terre, les seconds invoquant la nécessité de nouvelles recherches sur les vaccins et traitements. Bien qu’elle en ait beaucoup diminué l’enjeu, la possibilité d’une synthèse artificielle de la variole n’a pas éteint ce débat. Les « destructeurs » argumentent que, puisqu’il y a possibilité de reconstruire le virus en cas de besoin urgent, autant le détruire ; tandis que les « conservateurs » estiment qu’il n’y a plus de raison de se débarrasser du virus, car il peut plus que jamais se retrouver dans des mains malveillantes. Verdict à l’Assemblée mondiale de la santé, dans deux ans.

    L’atmosphère de panique qui avait entouré la poignée de cas d’Ebola sortis d’Afrique – maladie a priori moins contagieuse que la variole – laisse imaginer le chaos que causerait une flambée de variole : les replis, les perturbations du système de transport, notamment aérien, les chocs économiques qui s’ensuivraient, etc. Des dizaines de rapports d’analystes documentent combien l’extrême interconnexion de notre monde fait d’une épidémie l’un des principaux risques globaux.

    Mais la question de la variole n’est que la partie émergée du gigantesque iceberg qu’est devenue la biologie de synthèse, dont les fulgurants progrès commencent à révéler l’énorme potentiel d’usages malveillants. David Evans a indiqué qu’il n’avait fallu que six mois et 100 000 dollars à son thésard et à lui-même pour ressusciter la variole équine. Il n’en faudrait donc sans doute pas plus pour son homologue humaine. Or la ­variole appartient à la partie complexe du spectre des virus dangereux – la plupart sont bien plus simples à fabriquer (celui de la poliomyélite, par exemple, a été synthétisé dans les années 2000). Même la construction de génomes bactériens, porteurs de centaines de gènes, est maîtrisée depuis une décennie.

    Ce qui signifie que, par-delà la variole, la plupart des pathogènes les plus meurtriers, d’Ebola à la tuberculose multirésistante, pourraient être synthétisés ou manipulés pour accroître leur ­virulence. D’ailleurs, de multiples expériences ces dernières années ont relevé de cette recherche dangereuse, pudiquement désignée par l’expression « à double usage », car elle peut être à la fois utile ou nocive. C’est cependant la première fois qu’une entreprise privée conduit une telle expérience et non une équipe de recherche fondamentale – signe sans doute de la banalisation du « double usage ».

    Une industrie dont le chiffre d’affaires explose

    Cette synthèse de la variole équine a au moins permis de mettre en lumière un acteur méconnu, au cœur de cette affaire : l’industrie de la synthèse d’ADN. C’est désormais la norme, en biologie moléculaire, pour les laboratoires publics aussi bien que pour les multinationales pharmaceutiques, d’aller sur Internet, de commander une séquence génétique ou une liste de gènes. Et de recevoir par la poste, en quelques jours, son ADN conditionné dans le matériel biologique choisi, assemblés à partir de produits chimiques inertes.

    L’explosion en effectif et en chiffre d’affaires de l’industrie des sciences du ­vivant a dopé ce marché de la synthèse d’ADN, qui est sorti de terre en une décennie. Désormais, il pèse 1,3 milliard de dollars ; mais avec des taux de croissance de 10,5 %, il devrait atteindre 2,75 milliards en 2023.

    Cette industrie de la synthèse d’ADN se trouve être l’un des importants leviers d’action disponibles pour réguler, et reprendre un tant soit peu le contrôle des risques engendrés par les sciences du vivant. En particulier parce que c’est une industrie qui s’est dès ses débuts, spontanément, posé la question de la sûreté biologique. Et qui a mis en place des mesures de sécurité dès 2009.

    Des mesures, baptisées « Protocole Standard », dont il faut souligner qu’elles sont entièrement volontaires. Elles ne sont appliquées que par les entreprises du secteur adhérentes au Consortium international de synthèse génétique (IGSC), une association dont la fonction est « d’élever le ­niveau de sûreté biologique, pour garder cette ­industrie propre », résume Marcus Graf, res­pon­sable de l’activité biologie synthétique au sein de la société allemande Thermo Fisher Scientific. L’IGSC compte aujourd’hui onze membres, ­contre cinq en 2009, et représente environ 80 % du marché mondial de la synthèse d’ADN.

    Le « Protocole Standard » interdit de vendre de l’ADN à des particuliers, et impose de ne fournir que des institutions à la réalité et au sérieux ­vérifiés. Surtout, il met en œuvre une base de données de séquences génétiques « problématiques », conçue par l’IGSC, où l’on trouve les gènes de la plupart des microbes dangereux figurant sur les listes rouges édictées par les autorités de différents pays – par exemple celle des select agents aux Etats-Unis, ou des micro-organismes et toxines (MOT) en France. « Lorsqu’un de nos membres reçoit une commande, explique Todd Peterson, directeur pour la technologie de la ­société californienne Synthetic Genomics, et ­secrétaire actuel de l’IGSC, il doit d’abord vérifier les séquences demandées pour vérifier qu’aucune ne figure sur notre base de données. Si une ­séquence est suspecte, il prend contact avec le client et discute du problème. »

    Ces cas suspects, qui représentent à peine 0,67 % des commandes, proviennent en outre le plus souvent d’institutions ayant pignon sur rue, telles que l’Institut Pasteur ou l’Institut ­Robert Koch outre-Rhin. Celles-ci travaillent sur des agents pathogènes dangereux pour des ­raisons légitimes (vaccins, traitements, etc.) et dans des conditions de sécurité satisfaisantes, et un coup de fil suffit alors pour s’assurer que tout va bien. « Si nous décelons un problème, ­cependant, nous pouvons refuser la commande, et dans ce cas nous en avertissons les autres membres du consortium, voire les autorités », précise Todd Peterson, qui indique que ces incidents sont rarissimes.

    Ce « Standard Protocol » est cependant loin de tout résoudre. Primo, 20 % du marché de l’ADN échappe tout de même au consortium. « Dans la situation actuelle, les sociétés qui font l’effort d’inspecter les séquences et d’appliquer nos règles de sécurité s’imposent un handicap concurrentiel, car cela coûte du temps et de l’argent », observe Marcus Graf. Or, avec la baisse rapide du prix de la synthèse génomique, « la concurrence s’est exacerbée et le secteur est devenu une industrie coupe-gorge, aux marges faibles », indique Gregory Koblenz. Le chercheur propose de rendre obligatoire, au moins pour toutes les institutions de recherche publiques, de se fournir auprès de membres du consortium, afin de compenser ce handicap. Une mesure que l’IGSC verrait d’un bon œil, « mais pour laquelle nous ne voulons pas faire de lobbying, explique Todd Peterson, pour ne pas être accusés de collusion. » La loi pourrait même rendre l’adhésion à l’IGSC obligatoire, ce qui reviendrait à imposer ses règles à tout nouvel entrant – mais la mesure supposerait une certaine concertation internationale, pour éviter la formation de « paradis réglementaires »…

    Intervention de l’Etat

    Secundo, la fameuse base de données des ­séquences suspectes, que l’industrie réactualise chaque année, devrait en fait être constamment tenue à jour, afin de suivre les progrès rapides de la biologie. Il faudrait affecter à ce travail des équipes entières de biologistes chevronnés, au fait des derniers développements de la littérature, capables d’anticiper sur les usages malveillants – et non pas laisser le soin de le faire à une industrie hyper-concurrentielle, obsédée par la nécessité de réduire ses coûts et ses délais de livraisons. « Cette base de données devrait être établie et tenue à jour par les Etats, et ce serait aussi leur rôle de consacrer une importante recherche publique à cette tâche », souligne ­Gregory Koblentz.

    Une intervention de l’Etat que, une fois n’est pas coutume, les industriels appellent de leurs vœux. « Nous serions très contents qu’une agence nous dise au niveau national ou au niveau international ce qui doit aller ou non dans notre base de données », confirme Todd Peterson. La chose n’a en effet rien de trivial – elle suppose d’identifier dans le génome d’un pathogène quelles sont les parties vraiment dangereuses, liées à la virulence, la contagiosité ou la résistance aux traitements, et quels sont les gènes bénins, partagés avec d’innombrables autres organismes, qui servent uniquement au fonctionnement de base de l’organisme – respirer, se diviser, percevoir, etc.

    Ce dont les industriels ne veulent pas, il est vrai, c’est d’un contrôle des commandes qui serait ­effectué directement par les agences étatiques (telles que l’ANSM en France). Ils estiment que dans ce cas, ceux d’entre eux qui auraient l’agence la moins diligente perdraient leurs marchés. « Nos clients veulent être livrés en 3 à 5 jours, deux semaines maximum – le screening ne doit pas prendre plus de quelques minutes », avertit Marcus Graf.

    Au fond, ce qu’il faudrait ici, c’est que les Etats cessent de considérer l’industrie de l’ADN comme un secteur anodin que l’on laisse entièrement s’autoréguler, mais qu’ils acceptent enfin de considérer qu‘il s’agit d’une industrie certes indispensable, mais porteuse de réels dangers. Et donc nécessitant une attention et un encadrement strict – ce dont les industriels eux-mêmes conviennent et qu’ils tentent de gérer, sans soutien public, depuis dix ans. « Il faudrait aller, ­résume Gregory Koblentz, vers un modèle semblable à l’industrie du transport aérien, où l’existence d’une concurrence acharnée n’empêche pas une réglementation sévère et des systèmes d’inspection rigoureux, visant à rendre l’accident quasiment impossible. »

    Failles du cadre réglementaire actuel

    Il existe un troisième problème, sans doute le plus difficile à résoudre, qui est illustré par la synthèse de la variole équine. Formellement, dans le cadre réglementaire actuel, le travail de David Evans n’a transgressé aucune règle. Certes, c’est en partie parce que la législation nord-américaine ne régule pas les modifications génétiques, contrairement à la situation européenne – en France, par exemple, il aurait fallu demander l’autorisation de faire l’expérience au Haut Conseil des biotechnologies.

    Il n’en reste pas moins que, partout dans le monde, la plupart des obligations liées à la ­sûreté biologique reposent sur des listes d’organismes suspects… dont la variole équine ne fait nulle part partie – c’est d’ailleurs ce qui a permis à David Evans de commander sur Internet ses séquences. « Actuellement prédomine une concep­tion très étroite de la sûreté biologique, analyse Gregory Koblentz. Elle revient à dire que tout biologiste qui ne travaille pas sur la quinzaine d’organismes de la liste peut dormir tranquille et se dispenser de réfléchir à ces problèmes – la sûreté biologique est manifestement perçue avant tout comme un fardeau dont il faut affranchir le plus grand nombre. » Or, pour ce chercheur, il faut que l’ensemble de la communauté scientifique soit mobilisée par cette question, qu’elle soit supervisée par des comités de ­contrôle multiples, enseignée à l’université, etc.

    Car le risque dépasse clairement les listes. D’abord parce que des organismes anodins – donc qui n’y figurent pas – peuvent être modifiés d’une manière qui les rend dangereux. Une grippe saisonnière ou une varicelle « augmentées », par exemple, créeraient une menace ­épidémique grave. Mais de plus, souligne Koblentz, « il n’y a pas que des organismes, il y a des savoir-faire qui peuvent être considérés comme à double usage ».

    Ainsi la manipulation des virus de la famille des poxviridae, celle des différentes varioles, confère comme on l’a vu des compétences ­poten­tiel­lement dangereuses. Or cette famille est de plus en plus utilisée. Ces virus de grande taille se révèlent en effet être de très bons « véhicules » pour transporter des molécules thé­rapeutiques à l’intérieur des cellules du corps, notamment pour soigner les cancers ou combattre le VIH. Il suffit pour cela d’intégrer la molécule désirée dans le virus, dont l’habileté à déjouer le système immunitaire est ainsi mise à profit pour emmener le médicament jusqu’à sa cible.

    « Le génie est sorti de la bouteille »

    Des dizaines d’essais cliniques reposant sur ces techniques sont actuellement en cours. « Or à mesure que la communauté des chercheurs possédant cette expertise grandit, note Koblentz, la probabilité d’un mésusage augmente. Ce n’est pas un problème que l’on peut ignorer, et il faut rediscuter des bénéfices et des risques. » Ici, la tension avec l’injonction à innover régnant dans toutes les institutions scientifiques saute aux yeux. « Ecoutez, combien de cas de variole avons-nous eu depuis trois ans, et combien de cas de cancer ? On ne parle pas assez des bénéfices potentiels de ces recherches », s’agace David Evans.

    En réalité, il est frappant de constater à quel point la situation préoccupe peu la majorité des biologistes, partagés entre inquiétude que des profanes se mêlent de leur imposer des règles, et fatalisme technologique. Pour David Evans, par exemple, « dire qu’il est possible de mettre arbitrairement des limites à ce que la science peut ou ne peut pas faire, c’est tout simplement naïf. Le génie est sorti de la bouteille ». Et d’ajouter, un brin provoquant : « La biologie synthétique a même dépassé de beaucoup ce dont la plupart de ses critiques ont conscience… »

    Côté politique, entre sentiment d’incompétence face aux questions scientifiques et peur de brider l’innovation, personne n’a envie de se saisir d’un problème aussi épineux. Lorsque Todd Peterson suggère aux agences de son pays qu’elles devraient s’impliquer davantage dans le « Protocole Standard », « tout le monde me dit que c’est une excellente idée, mais personne n’a envie de se mettre en avant, de définir un budget et de se battre pour l’obtenir. En tout cas, c’est mon impression personnelle ».

    Il serait pourtant bon de faire mentir la règle, bien connue des spécialistes du risque industriel, selon laquelle on ne régule sérieusement les activités dangereuses qu’après qu’elles aient causé un accident emblématique. Car on frémit à l’idée de ce que pourrait être un « Titanic » de la biologie synthétique.

  • Le dégel du permafrost, l’autre menace climatique qui inquiète les chercheurs

    http://www.lemonde.fr/sciences/article/2017/10/09/le-permafrost-l-autre-menace-climatique_5198486_1650684.html

    Le réchauffement climatique entraîne le dégel de ce permafrost, libérant des gaz à effet de serre qui accélèrent le phénomène.

    Naviguer entre les 1 500 îles disséminées dans le delta de la Léna requiert une concentration sans faille, un œil fixé sur le radar du bateau pour éviter les bancs de sable, un autre à l’affût des amers côtiers qui ponctuent cette immensité de terre et d’eau. Avant de se jeter dans la mer de Laptev, au nord de la Sibérie, le fleuve est si large que ses rives dessinent un trait flou sur la ligne d’horizon.

    L’île de Samoïlov est reconnaissable à la cabane en bois, construite près du rivage, où cohabitent quelques scientifiques et les gardes de la réserve naturelle qui couvre l’embouchure du fleuve et les contreforts des monts Karaoulakh. Or une lente et irréversible érosion menace de livrer le petit édifice aux flots de la Léna. A terme, c’est l’île elle-même qui pourrait disparaître. Les fortes crues qui suivent la fonte des glaces, au printemps, fragilisent les côtes de Samoïlov.

    Mais l’îlot de 5 km2 pâtit surtout de la dégradation du permafrost sous l’effet du réchauffement climatique. Appelés aussi pergélisol, ces sols dont la couche supérieure dégèle en saison chaude conservent en profondeur une température en dessous de zéro degré pendant au moins deux ans consécutifs.

    « L’écosystème de Samoïlov fait face à une potentielle extinction », conclut prudemment un article de la revue Biogeosciences consacré à l’étude du site. Pour l’Allemande Julia Boike, qui a coordonné l’étude, et ses collègues de l’Institut Alfred Wegener pour la recherche polaire et marine (AWI), pas question de se résoudre à cette perspective.

    Chaque année, d’avril à septembre, les chercheurs de l’AWI et leurs partenaires russes de l’Institut de recherche sur l’Arctique et l’Antarctique de Saint-Pétersbourg et de l’Institut Melnikov du permafrost de Iakoutsk se relaient sur Samoïlov afin d’y étudier l’altération des sols sédimentaires, les transformations du paysage et les interactions entre réchauffement du climat et dégel du permafrost.


    En mission en septembre sur Kouroungnakh, l’île voisine de Samoïlov, un groupe de scientifiques allemands examinent la dégradation d’un type de permafrost très riche en glace.

    Deux tiers de la superficie russe

    L’île, équipée d’une station de recherche moderne financée par l’Institut Trofimouk du pétrole, de géologie et de géophysique de Novossibirsk, est un poste d’observation privilégié : le pergélisol occupe 95 % du territoire sibérien et les deux tiers de la superficie russe. A plus large échelle, les sols gelés couvrent le quart de l’hémisphère Nord, principalement en Alaska, au Canada, au Groenland, en Russie et en Chine.

    L’Europe occidentale se distingue par un permafrost de type alpin, présent dans plusieurs massifs montagneux. D’une composition et d’une géodynamique différentes de celles de son cousin des hautes latitudes, il est sensible, comme lui, aux variations climatiques. Le 23 août, un glissement de terrain provoqué par le dégel du pergélisol a emporté huit randonneurs près du village suisse de Bondo.

    « Le permafrost sibérien est à certains endroits très ancien, pouvant remonter au pléistocène [– 2,6 millions d’années à – 11 000 ans], avance Julia Boike. Il est très froid, à une température de – 9 °C environ, et il est très profond. On en a trouvé à près de 1 500 mètres de profondeur dans le nord de la Iakoutie. »


    Depuis 1998, des chercheurs allemands se relaient chaque année dans le delta de la Léna pour étudier les sols gelés.

    « A Samoïlov, il a pour autre caractéristique d’être relativement stable et très riche en matières organiques avec la présence de tourbières », ajoute l’enseignante-chercheuse avant d’enfiler d’épaisses bottes en plastique, indispensables pour progresser dans la toundra spongieuse qui domine à la surface de Samoïlov. Les jeunes doctorants qui l’accompagnent, ce matin de septembre, embarquent avec elle pour Kouroungnakh. L’île voisine présente d’imposants complexes de glace et un relief modelé par les thermokarsts, ces affaissements de terrains anciennement gelés.

    Les vallées arpentées six heures durant par les chercheurs de l’AWI ruissellent d’eau. « Nous voulons comprendre si l’eau qui irrigue le terrain provient des précipitations saisonnières ou si elle résulte des blocs de glace qui fondent avec la dégradation des sols », explique la géomorphologue Anne Morgenstern, sac à dos rempli d’échantillons d’eau prélevés tout au long du trajet et carnet de notes à portée de main.

    Une sorte d’immense congélateur

    Le réchauffement du permafrost, en Sibérie comme dans les autres régions où les scientifiques ont déployé leurs instruments de mesures, est avéré. Grâce aux capteurs disposés dans plusieurs puits, forés parfois jusqu’à 100 mètres de profondeur, l’équipe germano-russe de l’expédition Léna a enregistré une augmentation de température de 1,5 à 2 °C depuis 2006.

    « On assiste à une réelle tendance au réchauffement dans le sol et à une hausse des températures atmosphériques hivernales, confirme Julia Boike. Si le gradient thermique change, c’est toute la balance des flux d’énergie, d’eau, de gaz à effet de serre qui s’en trouve modifiée. » Un constat préoccupant alors que l’Arctique contribue à la régulation de toute la machine climatique terrestre.

    « Le permafrost est un immense congélateur, schématise Torsten Sachs, du Centre de recherche allemand pour les géosciences (GFZ), qui entame sa huitième mission sur l’île. Si vous laissez la porte du congélateur ouverte, votre pizza dégèle, votre crème glacée fond et les microbes se nourrissent de ces éléments organiques ! » A défaut de denrées consommables, le pergélisol libère des matières organiques qui, soumises à l’activité microbienne, produisent du CO2 en présence d’oxygène ou du méthane en milieu anaérobique, à l’instar des tourbières de Samoïloov.

    Ces deux gaz à effet de serre (GES) participent à l’élévation de la température qui entretient la destruction du permafrost et le largage de GES. La communauté de la recherche périglaciaire, qui nomme le phénomène « rétroaction liée au carbone du pergélisol », estime que les sols gelés stockeraient 1 500 gigatonnes de carbone, le double de la quantité de carbone dans l’atmosphère.


    Sur une des îles du delta de la Léna, ce forage, qui descend à 100 mètres de profondeur, permet d’étudier l’évolution des températures des sols gelés.

    Réchauffement supplémentaire

    Dans quelle proportion de dioxyde de carbone et de méthane le carbone relâché par les sols en dégel se fait-il ? Sachant que le méthane crée 25 fois plus d’effet de serre sur un siècle que le CO2. « C’est l’un des grands débats à venir », confesse Gerhard Krinner, chercheur CNRS à l’Institut des géosciences de l’environnement de Grenoble.

    L’inquiétude est d’autant plus forte que les modèles pris en compte dans les scénarios de réchauffement du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) n’intégraient pas, jusqu’à présent, ce mécanisme de rétroaction du pergélisol. « Le réchauffement supplémentaire attribuable au dégel du permafrost est de l’ordre de 10 % », avance Gerhard Krinner. Les émissions du permafrost pourraient ainsi faire grimper le thermomètre de 0,3 °C d’ici 2100.

    Dans le laboratoire de la station de recherche, maintenue à une température constante grâce à la centrale thermique alimentée par trois gros générateurs au bruit assourdissant, les chercheurs scrutent les courbes de ces gaz à effet de serre rejetés dans l’atmosphère. Les pics de méthane se répètent en été, mais l’analyse des données reste un exercice délicat dans ces hautes latitudes. La première période de mesure (2002-2012) s’est faite sans les équipements automatisés dont dispose la base moderne, opérationnelle depuis 2013.

    Trois ans plus tôt, lors d’une visite à Samoïlov, le président russe Vladimir Poutine avait estimé que la coopération germano-russe sur le permafrost méritait des infrastructures plus performantes. Jusque-là, les chercheurs de l’AWI – dont la première mission sur l’île remonte à 1998 – devaient se contenter du strict minimum et se trouvaient contraints de dormir sous des tentes de toile, de se chauffer à partir du bois flotté charrié par la Léna et d’utiliser la cabane des gardes de la réserve comme quartier général.


    Le bâtiment principal de la base de recherche russe, sur l’île de Samoïlov, en septembre.

    A quel rythme ?

    L’hivernage était alors inenvisageable. « On ne pouvait tout simplement pas enregistrer de données en hiver, témoigne Torsten Sachs. Il aurait fallu alimenter le générateur extérieur de l’époque tous les trois jours, parfois par – 40 °C, en pleine nuit polaire. » Les autres limites à l’interprétation des données collectées sont plus classiques. Dix ans constitue une période d’étude trop courte pour dégager une tendance de l’évolution des flux gazeux sur le long terme. Il faudrait aussi multiplier les points d’observation, une gageure en Sibérie, dont la superficie équivaut à plus de vingt fois la France.

    A bonne distance de la nouvelle station, peinte aux couleurs du drapeau russe, l’équipe de l’AWI achève l’installation d’un « igloo » qui accueillera en 2018 le matériel informatique et électrique de la nouvelle tour météorologique. Le cocon de fibre de verre devrait offrir des conditions d’enregistrement stables, à l’abri des rafales du vent ou des tempêtes de neige qui sévissent pendant l’hiver sibérien. Comme les autres édifices bâtis sur l’île, l’igloo a un socle sur pilotis afin d’absorber les mouvements du terrain. En un an seulement, le terrain s’est affaissé de 10 cm autour des piliers de la première tour météo.


    A distance de la nouvelle station de recherche russe, opérationnelle depuis 2013, un igloo en fibre de verre est installé pour protéger les équipements des conditions extrêmes des hautes latitudes.

    « Qu’il existe une interaction entre réchauffement du climat et dégel du permafrost, cela ne fait plus aucun doute », affirme Peter Schreiber entre deux séances d’assemblage des panneaux de l’igloo. « La question, désormais, est d’évaluer à quel rythme le permafrost va continuer de se désagréger et comment la nature va réagir à ce processus », considère l’ingénieur chargé de la station météo.

    La nature reste la grande ordonnatrice face aux bouleversements que subit la Sibérie arctique, estime Fédor Selvakhov. Le chef de la station de recherche veut bien admettre certains changements dans l’environnement qui l’entoure : « Il y a vingt ans, par exemple, il n’y avait pas un seul arbre dans la région, juste la végétation rase de la toundra. En me déplaçant dans le delta l’année dernière, j’ai vu des arbres de 2 mètres de haut. »

    Mais ce Iakoute né au bord de la Viliouï, un affluent de la Léna, ne croit pas aux causes anthropiques du changement climatique. « C’est le cycle de la nature. Il faisait chaud ici il y a deux cents ans, puis il a fait plus froid, et on assiste aujourd’hui à une nouvelle période chaude », soutient-il, à son bureau décoré de fossiles découverts dans les environs.

    Défenses de mammouth

    Quant au pergélisol, « il se réchauffe peut-être, mais pas vite ». « Lorsque l’on extrait du sol une défense de mammouth, on se rend compte que l’autre extrémité, celle encore prise dans la terre, est toujours gelée. C’est bien le signe que le permafrost demeure très froid », argumente le responsable. Conséquence inattendue du dégel des sols du Grand Nord, la chasse aux ossements fossilisés prospère en Sibérie.

    Günter Stoof, alias « Molo », comprend la mentalité de ses amis russes. « C’est la nature qui décide, pas l’homme », soutient le technicien de l’AWI qui a séjourné le plus de temps sur Samoïlov. A 65 ans, il jure que cette saison sera la dernière d’une carrière riche de 48 expéditions en Arctique et en Antarctique. Originaire d’Allemagne de l’Est, il a été le plus jeune membre de l’expédition soviétique de près de deux ans (1975-1977) chargée de construire une base en Antarctique. Il a ensuite multiplié les séjours, seul ou en équipe, dans les régions polaires.


    Günter Stoof, spécialiste des régions polaires, est celui qui a séjourné le plus longtemps sur la station sibérienne.

    Au gré du parcours de Molo, une autre histoire s’esquisse, celle de la coopération entre la RDA et l’URSS pendant la guerre froide. Après la chute du mur de Berlin, un comité scientifique avait été chargé de réfléchir au fonctionnement de la recherche de l’Allemagne réunifiée.Il avait recommandé de maintenir cette expertise polaire et de la structurer autour de l’unité de recherche de l’AWI basée à Postdam. « On y a retrouvé des spécialistes comme Molo ou Christine Siegert, qui avaient vingt ans d’expérience sur le permafrost par leur travail en commun avec les Russes », retrace Anne Morgenstern.

    L’étude des sols gelés s’est propagée en Russie dès le début du XXe siècle, accompagnant les choix stratégiques de Moscou. La politique d’extension vers les territoires de l’Est et du Nord, riches en hydrocarbures et en ressources minières, ne pouvait se faire sans la construction du Transsibérien. Mais pour mener à bien ce projet titanesque, il fallait d’abord développer une science de l’ingénierie sur le permafrost, omniprésent dans ces régions.

    Un Institut du permafrost est créé à Moscou à la fin des années 1930, il est déplacé à Iakoutsk en 1960. La grande ville de l’Est sibérien repose intégralement sur des sols gelés. Deux galeries souterraines (à 4 et 12 m de profondeur), creusées sous les fondations de l’institut, offrent un accès « direct » au pergélisol. Les strates sableuses des parois témoignent de l’histoire géologique de la ville, construite sur une terrasse alluviale de la Léna.


    A 12 mètres de profondeur, une galerie a été creusée sous l’Institut Melnakov, à Iakoutsk, pour observer in situ le permafrost.
    Anthrax et vastes cratères

    De lourdes portes maintiennent la température des galeries sous zéro degré. « Le dégel du permafrost constitue un danger pour la planète, mais à l’échelle de la Iakoutie, pour le moment, il reste assez stable », relativise Mikhaïl Grigoriev, l’un des deux vice-présidents de l’institut, avant d’ajouter : « Dans d’autres régions, en revanche, les effets du dégel sont plus visibles, notamment à Iamal. »

    Après un été 2016 anormalement chaud, la péninsule de l’ouest de la Sibérie a subi une épidémie d’anthrax – pour la première fois en Russie depuis 1941, selon l’Institut d’épidémiologie de Moscou – provoquée par le dégel du permafrost dans lequel la bactérie était conservée. Le territoire de la Iamalo-Nénétsie a fait également la « une » des médias russes après la découverte de vastes cratères. Ils résulteraient là encore du réchauffement du permafrost. « La région est riche en gaz. En dégelant, les sols libèrent des bulles gazeuses qui expliquent ces explosions », analyse M. Grigoriev.

    Aucun phénomène de ce type n’a été, pour l’instant, observé à Samoïlov, ni même en Alaska ou dans le Nord canadien. Un réseau mondial, le Global Terrestrial Network for Permafrost (GTN-P), agrège aujourd’hui les informations de plus de 250 sites. Il a pour double objectif de « mutualiser les connaissances mais aussi valider les nouveaux modèles climatiques », résume Hugues Lantuit, chercheur à l’AWI, l’institution référente du réseau.

    Un nouveau pan de recherche se développe par ailleurs sur le permafrost alpin. La prochaine Conférence européenne du permafrost, en juin 2018, à Chamonix, devrait permettre un état des lieux de ces travaux, bien avancés en Suisse mais encore embryonnaires en France.

    L’érosion côtière et ses impacts économico-sociaux devient un autre sujet de préoccupation, le tiers des côtes du monde entier étant situé dans des zones de pergélisol. En mer de Laptev ou en mer de Beaufort (en Amérique du Nord), l’érosion du littoral atteint à certains endroits plus de huit mètres par an et conduit des communautés villageoises à planifier leur relocalisation. A Samoïlov, la cabane en bois construite près du rivage tient toujours debout. Mais pour combien de temps ?

  • La rigueur scientifique à l’épreuve de la reproductibilité

    http://www.lemonde.fr/sciences/article/2017/10/02/la-rigueur-scientifique-a-l-epreuve-de-la-reproductibilite_5195088_1650684.h

    Les résultats d’une expérience doivent être reproduits pour être validés scientifiquement. Pourtant, ce n’est pas toujours le cas.

    Il y a péril en la demeure. Le « système immunitaire de la science » connaît des ratés, comme le constate le psychologue Chris Chambers dans son livre, The Seven Deadly Sins of Psychology (« Les sept péchés mortels de la psychologie », Princeton University Press, non traduit). Le nom savant de cette défense est « reproductibilité », c’est-à-dire la possibilité de refaire et confirmer une ­expérience. « La reproductibilité et la réplication sont les pierres angulaires de la science. Sans elles, nous n’avons aucun moyen de savoir quelles découvertes sont vraies et lesquelles sont causées par le jeu du hasard, de l’erreur ou de la fraude, précise Chris Chambers, de l’université de Cardiff. On ne vole pas dans un avion qui n’a pas été rigoureusement testé, encore et encore. Il en va de même pour toutes les branches de la science. »

    En 2014, devant l’impossibilité de plusieurs laboratoires à répéter un protocole prétendant obtenir des cellules souches pluripotentes, l’équipe japonaise qui avait clamé la découverte dans Nature est contrainte d’avouer qu’elle a fraudé. La biologiste fautive, Haruko Obokata, a démissionné, et l’un de ses coauteurs, Yoshiki Sasai, pourtant innocenté, se suicidera.

    Idem pour une technique d’édition du génome, qui promettait de faire mieux que la très en ­vogue technique Crispr-Cas9. L’article, publié par Nature Biotechnology en 2016, a été retiré en août, après l’échec de plusieurs équipes à reproduire le résultat.

    Pourtant, en 2005, John Ioannidis, de l’université Stanford, ébranlait la communauté par un article dans PloS Medicine suggérant que « la plupart des résultats scientifiques sont faux », car impossibles à reproduire. De nombreuses expériences de réplication ont depuis été conduites, montrant l’ampleur de la défaillance du système. En 2012, une équipe de la société de biotechnologie Amgen expliquait n’avoir retrouvé les résultats publiés que dans six cas sur 53 en oncologie.

    En 2015, la première initiative du Centre pour la science ouverte aux Etats-Unis tente de reproduire 100 expériences de psychologie et n’y parvient que dans 39 cas. Deux ans plus tard, un programme identique de réplication en cancérologie publie ses premiers résultats. Sur sept études, quatre ont été reproduites, une autre n’a pu l’être et deux restent impossibles à interpréter. Reste encore 29 études à vérifier dans ce projet. Souvent, c’est la mauvaise interprétation de tests statistiques qui les rend fragiles à répliquer.

    Preuve supplémentaire du ­malaise, en mai 2016, Nature ­publiait un sondage dévastateur : 70 % des 1 576 répondants déclarent avoir échoué à reproduire un résultat et même 50 % à refaire leur propre expérience…

    L’heure est si grave qu’en janvier 2017, dix auteurs signent un « Manifeste pour la science reproductible », dans Nature Human Behaviour, appelant à plus de ­rigueur dans les méthodes, les comptes rendus et l’évaluation de la recherche.

    La « crise », comme elle a été baptisée, ne touche pas seulement la psychologie ou l’oncologie. En imagerie cérébrale par IRM fonctionnelle, plusieurs études ont montré que des activations de pixels jugées significatives sont en réalité des faux positifs. L’une de ces études montre qu’en fonction des méthodes utilisées, les images produites peuvent être fort différentes. « Dans mon équipe, nous testons nos méthodes sur plusieurs jeux de données afin d’éviter ces pièges », explique Bertrand Thirion, de l’Institut ­national de recherche en informatique et en automatique.

    En chimie, Raphaël Lévy de l’université de Liverpool cite, dans la revue Médecine/Sciences du 18 septembre, le cas de trois équipes dont les résultats publiés ne sont toujours pas corrigés malgré ses contestations et celles d’autres chercheurs auprès de la revue. « Le système n’encourage pas à la critique ni à la réplication des résultats. Il faut être un peu fou pour s’engager dans ces processus, même si ça ne nuit pas à ma carrière »,témoigne le chercheur. Les revues scientifiques ne sont en effet pas toujours promptes à corriger les erreurs publiées, qui entament leur réputation.

    « Le public a le droit de fonder sa confiance en la science sur la réalité et non sur la fiction. La science est sans aucun doute le meilleur moyen de découvrir la vérité sur le monde et de prendre des décisions rationnelles. Mais cela ne veut pas dire qu’elle ne peut pas ou ne ­devrait pas être améliorée. Nous devons trouver des solutions pratiques face à ses défauts », estime Chris Chambers.

    La liste qu’il propose dans son ­livre ou qui est reprise par le manifeste qu’il a cosigné fourmille d’idées. Comme relever les exigences en matière de rigueur statistique. Ou favoriser la transparence dans les procédures, en donnant accès aux données brutes, images, chiffres, méthodes utilisées… « Il y a encore des freins face à cette ouverture. Pour certains, les données c’est le pouvoir. Pour d’autres, c’est la peur qu’on trouve des défauts dans leur travail, ­regrette Bertrand Thirion. Mais justement, c’est bien de trouver des erreurs, pour pouvoir les corriger ! » Chris Chambers et d’autres ont d’ailleurs lancé en 2016 une charte pour les relecteurs d’articles qui s’engagent à n’évaluer des manuscrits que si les auteurs transmettent leurs données.

    Une autre solution consiste dans les préenregistrements d’expérience, comme pratiqué depuis plusieurs années pour les essais cliniques. Les chercheurs doivent détailler leur protocole et les ­méthodes qu’ils utiliseront pour leur expérience, afin d’éviter la tentation d’adapter la méthode ou les tests aux observations. Des sites comme l’Open Science Framework, lancé par le Centre pour la science ouverte, permettent ­désormais de remplir facilement ce genre de recommandations. Autre idée, défendue par provocation par John Ioannidis en 2014 : sortir des « incitations » à publier à outrance afin de promouvoir les études de réplication, le partage des données…

    « Nous avons la lourde responsabilité publique de veiller à ce que la prochaine génération de scientifiques ne souffre pas des problèmes de ma génération. Ce n’est que ­lorsque la science est aussi ouverte et solide que possible qu’elle peut apporter le maximum d’avantages à l’humanité », ­conclut Chris Chambers.

    Anticiper les problèmes

    En écologie, ce n’est pas encore la crise de la reproductibilité mais on s’y prépare. Un article, disponible depuis août sur BioRxiv, relate la collaboration de 14 laboratoires en Europe pour tester la robustesse de leur domaine face à cette difficulté à valider certains résultats publiés.

    L’idée était de tester si la même expérience, à savoir l’effet d’une légumineuse sur la croissance d’une graminée plantée conjointement, pouvait être strictement reproduite dans différents laboratoires dans les mêmes conditions. « On avait quelques indices que la reproductibilité est inférieure à celle attendue, explique Alexandru Milcu de l’Ecotron à Montpellier et du Centre d’écologie fonctionnelle et évolutive (CNRS), à l’origine de cette collaboration. Il y a des conditions de laboratoire spécifiques qui nous échappent, comme la nature du micro-environnement, le rôle des expérimentateurs… »

    Finalement, cette variabilité a bien été constatée. Mais l’équipe a aussi trouvé une parade consistant à multiplier les expériences avec des plantes aux génotypes différents. C’est contre-intuitif, mais cette variabilité ajoutée et contrôlée « noie » en quelque sorte les spécificités du lieu et augmente ainsi la reproductibilité des expériences. « Il faudra répéter ce genre d’étude. Ce qui au départ était une question de curiosité est devenu fascinant ! », note le chercheur.

  • «  Les grandes revues distordent la science  »

    http://www.lemonde.fr/sciences/article/2017/10/02/les-grandes-revues-distordent-la-science_5195086_1650684.html

    Les fondateurs du site PubPeer plaident pour une évaluation des articles par la communauté scientifique à travers leur libre diffusion en ligne.

    Brandon Stell et Boris Barbour sont tous deux neuroscientifiques au CNRS, respectivement à l’université Paris-Descartes et à l’Ecole normale supérieure à Paris. Ils sont responsables de PubPeer, lancé en 2012 par Brandon Stell, afin de permettre à la communauté scientifique de commenter anonymement des articles déjà publiés. Le site, vu 300 000 fois par mois, comporte désormais 18 170 articles publiés dans 3 231 journaux, enrichis de plus de 56 000 commentaires.

    Que reprochez-vous au système ­actuel de publication de travaux de recherche ?

    Boris Barbour : Les chercheurs sont obsédés par la publication dans des soi-disant grands journaux, parce que le succès d’une carrière ou de la recherche de fonds dépend de ces publications, quasi indépendamment de leur contenu. En fait, les grands journaux distordent la science, car les critères pour être accepté dans ces journaux favorisent la nouveauté extrême, les aspects révolutionnaires… Mais les révolutions sont rares, donc cela conduit des chercheurs à favoriser des projets irréalistes, à exagérer leurs interprétations, et finalement cela trompe le lecteur.

    Brandon Stell : Dans une très grande école, il y a peu, lors d’une réunion des directeurs de recherche, la direction a clairement indiqué que son objectif était d’augmenter son classement en augmentant le nombre d’articles publiés dans les grands journaux. Pourquoi les éditeurs de ces « grands » journaux devraient décider de l’avenir de la recherche planétaire ?

    Trouvez-vous que les travaux ­publiés sont de mauvaise qualité ?

    B. B. : Tous les chercheurs peuvent ­citer des articles dont ils estiment inadmissible la publication, mais c’est bien sûr une petite minorité. Ensuite, il y a toute une gamme de pratiques courantes qui entament la fiabilité de la recherche publiée. Par exemple, dans certains domaines, les méthodes statistiques utilisées pour comparer des hypothèses sont mal comprises. C’est le cas de l’omniprésent test statistique de significativité avec la valeur seuil « p ».

    Il y a aussi la tentation de multiplier les tests et de croiser les variables ­jusqu’à ce qu’on atteigne un seuil de ­significativité suffisant. Quand il y a beaucoup de variables, on peut aussi formuler des hypothèses a posteriori et montrer qu’elles sont « vraies »… Il y a aussi beaucoup de travaux avec des échantillons trop réduits et qui ne permettent pas d’affirmer avec force qu’il y a ou non un effet.

    Mais la science ne se corrige-t-elle pas d’elle-même en permettant ­le retrait d’articles ou en publiant des rectificatifs ou des correspondances entre auteurs… ?

    B. B. : Les journaux ne sont pas du tout enclins à publier des corrections ou des échanges critiques. Beaucoup n’ont aucun système de correspondance permettant la publication de ces critiques. Tous veulent préserver leur réputation et évitent donc de faire état des problèmes. La pression pour publier dans les journaux à fort ­impact, la compétition entre chercheurs pour les postes ou les fonds et les niveaux multiples de conflits ­d’intérêts créent un environnement extrêmement hostile à toute forme de correction de la science.

    B. S. : C’est la frustration qu’il n’y ait pas un forum public pour discuter des problèmes sur des articles publiés qui m’a donné l’idée de PubPeer. On reçoit souvent des courriers de gens au bout du rouleau après leurs échecs à vouloir corriger la science.

    Selon vous, les journaux scientifiques portent une forte responsabilité dans cette situation. Mais ils sont incontournables, non ?

    B. S. : On devrait se moquer de savoir où un travail est publié. On peut se ­passer d’eux ! Il n’y a plus de raisons économiques pour les justifier, puisque aujourd’hui la diffusion numérique n’est pas chère. On peut aussi se passer d’eux pour les services qu’ils proposent comme la recommandation, car beaucoup de sites en ligne ont montré que des algorithmes « sociaux » peuvent grandement faciliter ces processus. Même la revue par les pairs (peer review, en anglais) est devenue un filtre de qualité peu fiable.

    Comment voulez-vous vous passer du « peer review » ?

    B. S. : Croire qu’en deux semaines on peut juger de la qualité et de l’importance d’un travail est souvent illusoire. En plus, ça fait reposer la décision sur quelques personnes [les referees] seulement. Des referees n’osent pas non plus avouer qu’ils n’ont pas compris l’article. Il existe aussi de nombreux biais, de mauvaises habitudes, comme les analyses statistiques déjà mentionnées…

    Il faut inverser le processus – publier d’abord et discuter après. Et il existe déjà un système où les chercheurs ­déposent leurs articles en ligne dans des « archives », ArXiv en physique, bioRxiv en biologie… Ces preprints [prépublications] peuvent ensuite être commentés sur des sites comme PubPeer. Tous ces commentaires et avis d’experts alimenteraient une base de données permettant de se faire une opinion sur un article et d’en découvrir de ­nouveaux, grâce à des algorithmes de recommandations, des alertes automatiques… La multiplication rapide et interactive des commentaires clarifiera les idées mieux que le système de publication aujourd’hui.

    Les expériences de commentaires d’articles n’ont pas eu beaucoup de succès jusqu’à présent. Comment comptez-vous les développer ?

    B. S. : Il faut inciter les chercheurs à faire des commentaires. Après tout, ils font déjà un travail gratuit pour la revue des articles que les journaux leur ­envoient. Nous devons inventer un tel système d’incitation, ce que nous espérons proposer dans quelques mois.

    Votre modèle « sans journal » est-il populaire dans la communauté ?

    B. B. : Assez naturellement, ceux qui ont profité du système existant ne voient souvent pas pourquoi en changer. Les autres, notamment les jeunes, y sont plus favorables. Les choses bougent. Les biologistes déposent de plus en plus de preprints. Ils se mettent aussi à partager leurs données afin de permettre la réplication de leurs résultats. Sur PubPeer, souvent les commentaires consistaient à montrer que des images avaient été copiées, dupliquées, manipulées… Certes, c’est nécessaire, mais maintenant on voit de plus en plus de discussions sur les méthodes, les interprétations, les protocoles. Cela devient plus riche. Tout cela nous mène vers un système où on se focalise à nouveau sur la substance des travaux, où la publication n’est que le début de l’évaluation, et où les chercheurs reprennent le pouvoir sur leur métier.

  • Dans les labos, des petits arrangements avec la science

    http://www.lemonde.fr/sciences/article/2017/10/02/dans-les-labos-des-petits-arrangements-avec-la-science_5195085_1650684.html

    L’impératif de productivité scientifique augmente le risque de mauvaises pratiques. Ce sont le plus souvent les images et les statistiques qui sont manipulées par les chercheurs.

    Copier-coller d’images, bidouillage statistique, exagération des résultats, méconnaissance des méthodes utilisées, lenteur, voire refus, à corriger des erreurs… les arrière-cours des laboratoires ne sont pas toujours reluisantes.

    En juin 2016, dans le journal mBio, un criblage de plus de 20 000 articles tirés de 40 journaux scientifiques a repéré près de 4 % de problèmes avec des images présentes à l’appui des démonstrations. Le taux dépassant 12 % pour un journal de l’échantillon. Les « erreurs » vont de la simple duplication de parties d’images à la retouche frauduleuse en passant par le repositionnement ou l’inversion de certaines parties. Des pratiques pas forcément pendables mais qui demandent à être justifiées.

    La base de données de Retraction Watch, un site lancé en 2010 pour suivre l’actualité des retraits ou corrections d’articles, recense plus de cas problématiques pour « manipulation » d’images que pour « plagiat de texte » (le plagiat d’images existant également !) : 294 plagiats d’articles pour 422 duplications, 305 manipulations et 134 falsifications d’images. Un autre site, PubPeer, lancé en 2012 pour accueillir des discussions anonymes sur des articles déjà publiés, s’est vite transformé en forum de la traque des images manipulées. Ce qui a conduit à bien des corrections et retraits d’articles.

    L’un des drames est « que les reviewers ne regardent pas les images », constate Elisabeth Bik, microbiologiste de la société de génomique microbienne uBiome en Californie et coauteure de l’étude de mBio. Elle pointe aussi un autre problème : l’absence de réactions des auteurs ou des journaux qui publient les articles litigieux. Elle estime avoir signalé plus de 800 cas qui ont conduit à une trentaine de retraits, « mais, dans la grande majorité des cas, je n’ai pas eu de réponses ».

    La spécialiste, pour expliquer ces pratiques, plus ou moins discutables, évoque « l’erreur, le manque de temps pour faire les expériences de contrôle, la précipitation à publier ou l’envie de cacher des choses ». Elle est aussi tombée sur des récidivistes ayant plus d’une vingtaine d’images retouchées, preuve de dysfonctionnements plus graves. Dans un nouvel article à paraître, elle a mis en avant des corrélations. La pression à publier augmente le risque de mauvaises pratiques, tandis qu’un contrôle « social » plus important, c’est-à-dire l’existence de règles ou de sanctions, le limite. Pour résorber ces problèmes, la chercheuse est engagée dans la mise au point de logiciels de détection automatique de retouche d’images, dont commencent à se doter les éditeurs.

    Les chercheurs savent aussi s’arranger avec les statistiques, l’outil qui leur sert à analyser leurs résultats leur permet surtout de clamer une découverte (l’absence de découverte faisant rarement l’objet de publication). Le 1er septembre, plus de 70 chercheurs ont appelé dans Nature Human Behaviour à « redéfinir la significativité statistique ». Pour eux, « les standards statistiques pour revendiquer une découverte sont tout simplement trop bas dans beaucoup de domaines de la science ». Et ils appellent à relever ces standards. A commencer par le plus connu d’entre eux, la valeur-p. Le « standard » veut qu’un test statistique mesurant la différence entre deux hypothèses et donnant une valeur-p inférieure à 5 %, soit significatif et donc digne d’être publié.

    Premier problème, depuis des années, des chercheurs ont alerté sur le fait que certains ignorent la définition même de cette valeur-p. Beaucoup croient ainsi que ce paramètre désigne la probabilité qu’un résultat expérimental soit un faux positif. Mais ce n’est pas vraiment le cas.

    David Colquhoun de l’University College à Londres l’a expliqué en 2014 dans un article de la Royal Society, avec l’exemple d’un test de détection d’une maladie. Une valeur-p de 5 % signifie que, si quelqu’un n’est pas malade, alors le test trouvera qu’il a 5 % de chance de l’être (faux positif). Mais cela ne dit pas qu’elle est la probabilité d’être malade. En prenant un taux de prévalence de 90 % par exemple pour cette maladie le chercheur calcule que le taux réel de faux positif atteint 36 % ! La valeur-p seule peut donc induire de fausses interprétations. Néanmoins, plus on fixe un seuil bas, plus ce taux de faux positif baissera. Idem si on augmente la taille de l’échantillon.

    Mais alors que la génétique ou la physique ont fixé des seuils autrement plus drastiques pour p (dix à cent millionièmes), des disciplines comme la recherche biomédicale, la psychologie, l’économie… restent accrochées à ce 0,05. En mars 2016, une étude de John Ioannidis dans JAMA notait la présence de valeur-p dans un tiers des résumés d’articles parus en 2014 dans 151 revues médicales les plus importantes et dans près de 40 % des essais cliniques. Petite bizarrerie, déjà constatée par d’autres : les valeurs-p rapportées ont une forte tendance à se concentrer autour de 0,05, le fameux seuil.

    C’est sans doute que les chercheurs sont passés maître dans l’art du « p-hacking », c’est-à-dire l’art de trouver la bonne méthode afin de tomber sous le seuil fatidique. « Certains surexploitent les données et essaient jusqu’à ce que ça marche », explique Bertrand Thirion, spécialiste en neurosciences à l’Inria. « Ce n’est pas de la triche délibérée mais, comme les chercheurs ont fourni beaucoup d’efforts pour faire les expériences, ils veulent trouver quelque chose et font “vibrer” les méthodes. » Chris Chambers, dans son livre The Seven Deadly Sins of Psychology « Les sept péchés mortels de la psychologie » (Princeton University Press, non traduit), détaille avec regret ces mauvaises pratiques. « Les effets du p-hacking sont clairs, remplissant la littérature scientifique avec des hypothèses faites après l’expérience, des fausses découvertes, et des impasses de recherche », écrit-il.

    Pour améliorer la fiabilité, les auteurs de l’appel de Nature Human Behaviour recommandent dans un premier temps de baisser le seuil à 0,005 et évoquent aussi l’existence d’autres critères ou méthodes statistiques. Ce problème de la valeur-p est fortement lié à une plaie de la recherche, « la crise de la reproductibilité ».

    L’art de tordre la réalité

    Le « spin » est le nom donné par les Anglo-Saxons à la pratique qui permet de présenter les conclusions sous un jour plus beau que la réalité. Il peut se faire lors du passage de l’article au communiqué de presse, mais aussi de l’article scientifique à son résumé par les auteurs, comme l’ont mis en évidence de nombreux travaux.

    Ainsi le 11 septembre, dans PLOS Biology, une équipe de l’université de Sydney a analysé 35 études sur le spin et a confirmé que la pratique est répandue. Dans les articles rapportant des essais cliniques, plus de la moitié, 57 %, présente des gauchissements de la réalité. En 2014, une autre étude constatait que 40 % des communiqués de presse contiennent des exagérations et que, dans ces cas-là, 58 % des articles de journaux mentionnant ces travaux exagèrent aussi…

    Les tours de passe-passe consistent à surinterpréter les conclusions, ou à exagérer la portée d’un test statistique. Ou bien à mettre en avant un résultat secondaire pour suggérer un bénéfice d’un traitement. Ou encore à attribuer, sans preuve, une cause à un effet.

  • « Certaines dérives font réfléchir sur l’état de la science dans le monde »

    http://www.lemonde.fr/sciences/article/2017/09/26/certaines-derives-font-reflechir-sur-l-etat-de-la-science-dans-le-monde_5191

    Pour Mario Biagioli, historien des sciences et juriste, la course à la publication, devenue le cœur du système d’évaluation de la recherche, incite les chercheurs à l’inconduite.

    Mario Biagioli est historien des sciences et juriste à l’université de Californie à Davis. Avec Alexandra Lippman, il a organisé un colloque en février 2016, « Jouer avec les métriques : innovation et surveillance dans les inconduites scientifiques ». En 2018, un livre édité par MIT Press réunira diverses contributions de ce colloque.

    Que signifie aujourd’hui publier un article ?

    Longtemps, publier un article était une manière de diffuser un cours ou bien servait à l’archiver en faisant le point d’une connaissance. Il était destiné en priorité à ses pairs.

    Puis après la seconde guerre mondiale, la scientométrie se développe, avec une vision plus quantitative qui s’intéresse notamment aux citations mentionnées à la fin des articles. C’est un outil qui sert à des spécialistes pour étudier l’apparition de paradigmes en science, ou les réseaux sociaux de chercheurs.

    Enfin, depuis quelques dizaines d’années, l’article a changé encore de nature : il est devenu la base de l’évaluation des chercheurs, de leurs institutions ou d’un pays… Les métadonnées comme « qui publie ? », « avec qui ? », « où ? » comptent plus que le contenu de l’article lui-même ! C’est un énorme changement.

    Avec quelles conséquences ?

    Les défauts des métriques reposant sur les métadonnées, comme le facteur d’impact, sont connus. Ce ne sont en général pas de bonnes mesures de la qualité d’une recherche. Malheureusement, comme pour toute évaluation quantitative, les acteurs sont incités à « jouer avec les métriques » afin d’obtenir les meilleurs scores.

    En outre, le colloque que nous avions organisé en février 2016, a montré qu’il y a une connexion entre le développement des métriques et celui des atteintes à l’intégrité scientifique. Les métriques incitent à l’inconduite. Le traditionnel publish or perish (« publier ou périr ») est devenu impact or perish (« avoir de l’impact ou périr »). Ce n’est pas de la fraude au sens classique mais ce n’est pas bon pour la confiance dans les travaux publiés.

    A quelles inconduites pensez-vous ?

    Certains les ont baptisées « inconduites post-production », car elles ne consistent pas à manipuler le contenu de l’article mais le processus de publication. Par exemple, plus de 300 articles ont été retirés pour « fausse revue par les pairs ». Des auteurs soumettent un article à un journal, qui leur demande, comme cela se fait parfois, s’ils ont des noms d’évaluateurs (referee en anglais) à suggérer. L’auteur indique des vrais noms de referees, souvent célèbres, mais donne de faux emails qui feront tomber en réalité les courriers dans sa boîte aux lettres. Ainsi l’auteur réalisera l’évaluation de son propre article.

    Des cartels d’évaluateurs ont aussi été découverts, c’est-à-dire des auteurs qui s’évaluent les uns les autres et, bien sûr, se citent mutuellement afin d’augmenter leur impact. Même des journaux le font entre eux. Ce n’est pas éthique et ne sert qu’à manipuler les métriques afin d’embellir son CV.

    Que pensez-vous de l’apparition des journaux « prédateurs », qui publient sans scrupule des travaux en prélevant des frais aux auteurs ?
    C’est critiquable bien sûr, mais tout le monde voit bien que c’est mal. Une grande productivité est attendue de tous les chercheurs, quel que soit leur pays, qu’ils parlent bien ou mal anglais, que leur laboratoire soit prestigieux ou non, ou quel que soit le budget dont ils disposent. Ces journaux prédateurs sont de très faible qualité, souvent même inacceptables, mais visiblement il y a un marché pour eux. Si des chercheurs y publient, c’est qu’ils y ont un intérêt. C’est le reflet d’une dure réalité économique. Dans l’automobile, certains roulent en Ferrari et d’autres en Fiat et nous observons la même chose en recherche. Ne soyons donc pas moralistes trop vite. Ces dérives font réfléchir sur l’état de la science dans le monde.

    Comment sortir de cette situation ?

    Il sera difficile de stopper ce mouvement car tout le monde joue avec les métriques, qui accompagnent aussi le développement de la globalisation de l’enseignement supérieur et de la recherche. Les universités, certes piégées par ces métriques, auront un rôle à jouer, par exemple en changeant leurs pratiques. La faculté de médecine de l’université de Harvard demande par exemple à ses candidats de fournir leurs articles préférés et d’argumenter sur l’apport qu’ils représentent, plutôt que de donner une liste quantitative de publications dans les grands journaux.

    Nous voyons aussi émerger des initiatives positives comme le développement de journaux en accès libre, le dépôt de certains articles dans des archives, des commentaires ouverts après parution. Peut-être verrons-nous la disparition des journaux tels que nous les connaissons…

    Mais je suis historien et je sais qu’on ne sait pas prédire. Les problèmes risquent d’empirer au point que des changements deviendront obligatoires.

  • Le savoir en voie de confiscation par les éditeurs

    http://www.lemonde.fr/sciences/article/2017/09/26/le-savoir-en-voie-de-confiscation-par-les-editeurs_5191764_1650684.html

    Les revues scientifiques monnaient très cher l’accès à leurs contenus. Ce modèle est très critiqué. Troisième volet de notre dossier « Publier ou périr », en collaboration avec « Le Temps ».

    A qui la connaissance scientifique appartient-elle ? Aux chercheurs qui la produisent ? Au public qui la finance par ses impôts ? Ni à l’un ni à l’autre : elle est avant tout la propriété d’éditeurs, qui publient les résultats issus de la recherche dans des revues spécialisées… et veillent jalousement sur leur diffusion. Malgré les critiques dont ce système fait l’objet, des modèles alternatifs peinent encore à s’imposer.

    Traditionnellement, les revues spécialisées qui publient les études scientifiques financent leur travail d’édition par la vente d’abonnements. Problème : ce modèle restreint beaucoup l’accès aux connaissances. « Il m’arrive de ne pas pouvoir lire un article intéressant, parce qu’il a été publié dans une revue à laquelle mon université n’est pas abonnée. Et la situation est encore bien pire pour les chercheurs des pays moins riches. Sans parler de tous les autres membres de la société que ces résultats pourraient intéresser, mais qui en sont privés : enseignants, créateurs de start-up, membres d’ONG… », s’agace Marc Robinson-Rechavi, chercheur en bio-informatique à l’université de Lausanne.

    Le système actuel est par ailleurs très coûteux. « Les contribuables paient trois fois pour chaque article scientifique. D’abord, en rémunérant le chercheur qui fait les expériences. Ensuite, en s’acquittant des frais d’abonnement aux revues. Et parfois encore une fois, pour offrir un libre accès au ­contenu de l’article », s’insurge le président de l’Ecole polytechnique fédérale de Lausanne (EPFL), Martin Vetterli. Les frais pour les bibliothèques augmentent de 8 % en moyenne par année, d’après la Ligue européenne des bibliothèques de recherche.

    De fait, la publication scientifique est un business extrêmement rentable pour les géants du domaine, Elsevier, Springer Nature et Wiley, dont les marges dépassent souvent les 30 %, dans un marché estimé à près de 30 milliards de dollars (25 milliards d’euros).

    Un modèle d’édition alternatif a émergé voilà une vingtaine d’années : celui de l’accès ouvert (ou « open access »). Le plus souvent, les frais d’édition et de diffusion de chaque article sont payés en une seule fois à l’éditeur, par l’institution scientifique du chercheur. Les articles sont alors accessibles gratuitement.

    Des articles en accès ouvert

    De nombreux journaux en accès ouvert existent désormais. Certains sont largement reconnus pour la qualité de leur travail, à l’image du pionnier américain PLOS (ou Public Library of Science), à but non lucratif. Assez variables, les coûts de publication par article sont compris entre 1 000 et 5 000 euros en moyenne. Ce mode d’édition n’interdit donc pas les ­bénéfices pour l’éditeur. Pourtant, seuls 30 % environ des articles sont actuellement publiés en accès ouvert. Un semi-échec qui s’expliquerait par le conservatisme du milieu, estime Marc Robinson-Rechavi : « Les journaux anciens sont davantage pris en compte dans la promotion des carrières. Il faudrait que les chercheurs soient incités à changer d’état d’esprit. »

    Justement, la Commission européenne a décidé que, d’ici à 2020, toutes les études publiées par des scientifiques qui reçoivent de l’argent européen devront être diffusées en libre accès. « En France, on va aussi vers un renforcement de la publication en accès libre », affirme Marin Dacos, fondateur du portail français de diffusion de sciences humaines et sociales OpenEdition, chargé d’un plan sur la science ouverte auprès du ministère français de l’enseignement supérieur, de la recherche et de l’innovation.

    Certaines institutions scientifiques sont entrées en résistance. En Allemagne, plusieurs dizaines d’universités et bibliothèques sont en plein bras de fer avec le géant néerlandais Elsevier, pour obtenir de meilleures conditions d’accès aux articles publiés par leurs propres chercheurs. Elles menacent de ne pas renouveler leurs abonnements à la fin de l’année. Une telle stratégie avait déjà permis à l’association des universités néerlandaises d’obtenir des concessions de la part d’Elsevier il y a deux ans. Des mouvements analogues se retrouvent aussi en Finlande et à Taïwan, notamment.

    Ce n’est sans doute pas un hasard si ce vent de rébellion souffle aujourd’hui : outre le ras-le-bol lié à une situation qui perdure, l’apparition en 2011 du site pirate Sci-Hub pèse dans la balance. Opérant depuis la Russie, il offre l’accès gratuitement à plusieurs dizaines de millions d’études et de livres scientifiques. Une pratique certes illégale, et déjà condamnée aux Etats-Unis après une plainte d’Elsevier en juin, mais qui garantit que les chercheurs continueront d’avoir accès à une bonne part de la littérature scientifique, quel que soit le résultat des négociations avec les maisons d’édition.

    De petits malins ont également profité du mouvement de l’open access pour s’enrichir en créant des revues présentant toutes les apparences du sérieux. Les honoraires sont raisonnables. Le chercheur se laisse convaincre. Sauf qu’en fait, le journal n’existe pas. Ou alors, il est beaucoup moins coté que ce qu’il prétend. Ou encore, il est de piètre qualité. Ces journaux dits « prédateurs » seraient au nombre de 8 000, publiant environ 400 000 articles chaque année, selon une étude parue en 2015 dans BMC Medicine.

    Est-on arrivé à un point de bascule ? Martin Vetterli veut y croire : « Le monopole des éditeurs traditionnels va finir par tomber, à part peut-être pour certains titres très prestigieux comme Science et ­Nature, qui valent aussi pour leur travail de sélection. » Marin Dacos est également optimiste et explore de nouveaux modèles, dans lesquels les auteurs ou leurs institutions n’auront plus besoin de payer les frais d’édition de leurs articles, pourquoi pas grâce à une forme de financement participatif mobilisant les bibliothèques.

    C’est ce que, depuis 2015, l’Open Library of Humanities propose en publiant de la sorte dix-neuf journaux en sciences humaines et sociales. Et c’est la voie choisie par un groupe de mathématiciens qui viennent de lancer Algebraic combinatorics, en démissionnant avec fracas d’un titre de la galaxie Springer cet été. Le nouveau venu suit les principes de la Fair Open Access Alliance. « Ces principes sont notamment un accès ouvert aux articles, l’absence de frais de publication pour les auteurs, la non-cession des droits d’auteur à l’éditeur… », indique Benoit Kloeckner, professeur de mathématiques à l’université Paris-Est et coauteur de cette charte avec une poignée de collègues. « Pour l’instant, il s’agit du seul journal à les suivre, mais nous allons montrer que cela peut marcher. »

  • L’évaluation par les pairs, un processus défaillant dans la recherche

    http://www.lemonde.fr/sciences/article/2017/09/26/l-evaluation-par-les-pairs-un-processus-defaillant-dans-la-recherche_5191770

    Pour être publié, tout nouveau résultat doit être soumis à des experts du domaine. Une évaluation qui ne dit pas grand-chose sur la qualité des travaux. Premier volet de notre dossier « Publier ou périr », en collaboration avec « Le Temps ».

    C’est une étape incontournable pour tous les chercheurs : afin qu’un nouveau résultat soit accepté dans une revue scientifique, ils doivent le soumettre à des experts dans leur domaine. Ce processus d’évaluation par les pairs (peer review en anglais), effectué bénévolement, est considéré comme la méthode de référence de validation des découvertes scientifiques.

    Brisons tout de suite le mythe : « Le fait qu’une étude ait été évaluée par les pairs ne dit pas grand-chose sur sa qualité », avertit Winship Herr, biologiste, professeur à l’université de Lausanne et ancien éditeur d’une revue scientifique. Le processus agit comme un premier filtre. « Sans évaluation, environ 2 % des articles publiés seraient corrects, reproductibles et intéressants. Grâce à la peer review, on arrive entre 10 % et 50 % », estime David Vaux, professeur au Walter and Eliza Hall Institute de Melbourne, qui contribue au site américain Retraction Watch, spécialisé dans le suivi des articles retirés ou corrigés.

    Si ce pourcentage reste bas, c’est entre autres parce que les relecteurs ne se basent que sur leur lecture de l’article et peuvent difficilement en vérifier les détails pratiques. En sciences expérimentales, un lecteur qui veut être certain qu’un résultat publié est valide n’a pas d’autre choix que d’essayer de le reproduire dans son propre ­laboratoire. Mais impossible à tout un chacun de répéter toutes les expériences qui l’intéressent. « La recherche devenant toujours plus spécialisée, tout le monde est obligé de faire de plus en plus confiance aux revues », explique Christine Clavien, philosophe des sciences à l’université de Genève.

    La plupart des revues qui pratiquent l’évaluation par les pairs ont une caractéristique commune : l’identité des relecteurs reste inconnue des auteurs et lecteurs. Le but est louable : protéger notamment les jeunes chercheurs, qui peuvent alors se permettre de critiquer les articles proposés par de grands pontes sans crainte de ­répercussions. Mais le processus n’est pas infaillible.

    Critique subjective

    « Les jeunes doctorants sont souvent plus critiques que les professeurs plus âgés, qui sont plus réalistes dans leurs demandes », s’amuse Winship Herr. Plus préoccupant : impossible pour un chercheur de savoir si ses relecteurs anonymes ne sont pas des concurrents travaillant sur le même sujet de recherche que lui. Pas sûr dans ce cas que leur critique sera objective !

    Au congrès international sur le peer review et les publications scientifiques qui s’est tenu à Chicago du 10 au 12 septembre, une équipe de l’American College of Physicians (une société savante médicale) a pointé un autre défaut. Les évaluateurs trahissent les secrets qu’on leur a confiés dans la publication à étudier, soit en la donnant à lire à des collègues (11 % des 1 413 spécialistes ayant répondu à l’enquête), soit en s’en inspirant pour leurs propres travaux (2 % des répondants) !

    Certains détournent même le système à leur profit. Le chercheur sud-coréen Hyung-in Moon, spécialisé dans les plantes, a suggéré pour la relecture de ses travaux de faux experts… afin que les adresses e-mail fournies arrivent chez lui, ce qui lui a permis de devenir son propre relecteur. Vingt-huit de ses articles ont dû être retirés de la littérature scientifique à partir de la découverte de son forfait en 2012.

    Ce type de fraude est même parfois institutionnalisé. L’entreprise pharmaceutique allemande Merck s’est ainsi fait prendre la main dans le sac, en 2009, après avoir acquis plusieurs revues scientifiques qui donnaient l’apparence d’être neutres et évaluées par des pairs, mais qui ­publiaient en réalité sans filtre des articles positifs concernant ses propres médicaments. Car l’apparence d’autorité de la revue scientifique compte également au-delà du monde de la recherche : « L’existence d’une publication ­revue par les pairs ­décrivant un médicament est un énorme avantage pour son homologation », ­affirme Christine Clavien.

    Limites du système

    De plus en plus consciente des ­limites du système, la communauté scientifique ne manque pas d’idées pour l’améliorer. Une proposition mise sur plus d’anonymat : s’ils travaillaient en double aveugle, les relecteurs ne connaîtraient pas les auteurs des manuscrits qu’ils critiquent et devraient ainsi être plus objectifs. Elle est défendue par David Vaux : « Les relecteurs sont plus ­influencés par la réputation d’un auteur que par une lecture attentive de son article. »

    Science Matters, une nouvelle revue en ligne, va plus loin : elle applique un triple aveugle, cachant l’identité des auteurs même aux responsables du journal. Avec une limite pratique : entre experts, il reste facile de trouver qui se cache derrière un article anonyme… Si bien que certains envisagent un ajustement diamétralement opposé, dans lequel l’identité des ­relecteurs et leurs commentaires seraient divulgués.

    D’autres chercheurs penchent cependant pour des changements plus profonds. « On se dirige vers une séparation de l’évaluation et de la publication, les ­revues scientifiques n’ayant plus l’exclusivité d’aucune de ces deux activités. Une évolution rendue possible par le développement du Web », estime Jon Tennant, un paléontologue qui collabore avec la plate-forme Web ScienceOpen, laquelle permet notamment les commentaires d’articles et les interactions entre spécialistes. Un grand nombre de chercheurs met déjà à disposition publiquement des preprints, une version préliminaire de leurs articles de recherche qui n’a pas encore été transmise à une revue à comité de lecture, sur des sites tels que arXiv (en physique) et bioRxiv (en biologie). En France, une charte encourageant les biologistes à recourir à ce système, déjà largement adopté par la communauté des mathématiciens et des physiciens, est à l’étude dans les alliances regroupant l’ensemble des acteurs des sciences de la vie, de la santé et de l’environnement. D’autres sites, comme PubPeer, permettent de commenter ces preprints ou des articles déjà publiés.

    Au congrès international sur la peer review, on notait que ces systèmes « ouverts » ont encore de la peine à décoller. Jon Tennant ­explique cela par une inertie très forte. Mais un autre problème subsiste : quel que soit le système, il est difficile de trouver des relecteurs qui ont le temps, les compétences et l’envie de faire ce travail chronophage et peu gratifiant.

    Pour Jon Tennant, « il n’y aura jamais une seule façon de faire de la relecture par les pairs, d’autant plus que le Web permet tellement d’innovations ! Dans tous les cas, le système vers lequel nous nous dirigeons devra reconnaître la valeur de la recherche elle-même, plutôt que le fait qu’elle a été publiée dans un journal réputé. »

  • Les chercheurs obligés de publier toujours plus

    http://www.lemonde.fr/sciences/article/2017/09/26/les-chercheurs-obliges-de-publier-toujours-plus_5191768_1650684.html

    Aujourd’hui, les scientifiques sont davantage incités à produire plutôt qu’à découvrir. Deuxième volet de notre dossier « Publier ou périr », en collaboration avec « Le Temps ».

    Peter Higgs, le physicien père du fameux boson qui porte son nom, ne pourrait plus faire ses recherches aujourd’hui. Car il ne trouvait pas assez vite et ne publiait pas assez, a-t-il lui-même raconté après avoir obtenu son prix Nobel en 2013. L’université d’Edimbourg était à deux doigts de se passer de ses services lorsqu’il a été nominé une première fois en 1980, ce qui lui a finalement assuré d’être toléré jusqu’à son prix…

    Si la science progresse grâce à la recherche, elle dépend depuis le XVIIe siècle des journaux scientifiques pour être diffusée. C’est dans Nature, Science, Cell, The Lancet et autres qu’avancées et découvertes sont annoncées, commentées, reprises… Et c’est donc en publiant qu’un chercheur pourra faire la preuve de ses qualités à sa communauté.

    Mais la machine s’est emballée. Les articles scientifiques sont devenus le critère qui fait que l’on croit en vous et qu’on vous donne des fonds, un poste, une promotion. Une exténuante course à la publication s’est engagée dans le monde entier. Plus de 2,5 millions d’articles sont écrits tous les ans. « Le hamster dans sa roue », souffle une jeune biologiste, qui a souhaité garder l’anonymat. « Depuis quelques dizaines d’années, l’article a changé de nature et est devenu la base de l’évaluation des chercheurs, de leurs institutions ou d’un pays… Les métadonnées – qui publie ? avec qui ? où ? – comptent plus que le contenu de l’article lui-même ! C’est un énorme changement », estime Mario Biagioli, historien des sciences et juriste à l’université Davis de Californie.

    Sans article, pas de doctorat

    Si la pression à la publication apparaît parfois dès le master, c’est durant le doctorat qu’elle s’impose. « Sans article, pas de doctorat. Car plus une université a de publications, plus elle monte dans le classement de Shanghaï [ce classement mondial des universités les plus prestigieuses établi par l’université Jiao Tong de Shanghaï] », explique un autre témoin anonyme. Les thèses sont donc devenues des listes de publications.

    La course continue ensuite. Les postdocs, aux contrats à durée déterminée, sont aussi obsédés par leurs articles à publier pour continuer d’avoir des subventions, trouver un emploi. Même nommés, les universitaires restent soumis à la pression de la publication pour être confirmés, pour montrer à leurs employeurs qu’ils peuvent rapporter de l’argent, ou tout simplement pour mener leurs projets. « On augmente la charge de cours des professeurs qui publient trop peu, ou on leur ajoute des tâches administratives », raconte un mathématicien américain. Tout se passe donc comme si les universités et les bailleurs de fonds avaient délégué aux revues scientifiques le soin de faire le tri entre les projets, les idées et les chercheurs…

    Mais il y a publier et publier. Plus de 25 000 journaux scientifiques existent aujourd’hui, fondés sur la sélection par les pairs (peer review), dont 12 000 sont dotés d’un « facteur d’impact » et hiérarchisés dans le classement de Clarivate Analytics, entreprise ayant racheté Thomson Reuters qui en était à l’origine. Cet impact se fonde sur le nombre moyen de citations d’un article de la revue durant les deux années précédentes. Il est actuellement de 47 pour le Lancet, de 40 pour Nature et de 37 pour Science, et peut être inférieur à 1 pour les petites revues hyperspécialisées. Toute la difficulté pour un chercheur sera de viser le « bon » niveau de revue pour son article.

    Nouvelles métriques

    La bibliométrie a pris le pouvoir, cette habitude confortable d’assimiler les chercheurs à des chiffres, comme l’omniprésent et controversé indice h, qui prend en compte leur nombre d’articles et le nombre de citations de ces articles dans d’autres études. De fait, cet indice désavantage les auteurs de peu d’articles, même s’ils sont importants. Celui de ­Peter Higgs, toujours lui, est ainsi de 11, alors qu’à l’Académie des sciences américaine les scores sont souvent supérieurs à 40.

    De plus, de nouvelles métriques sont apparues depuis 2010, les altmetrics. Elles calculent l’impact d’un article sur le Web, en prenant en compte le nombre de citations sur Twitter, Facebook ou dans la presse, le nombre de visites ou de téléchargements – un indice qui mesure donc le « bruit » généré par un article, qu’il soit positif ou négatif.

    Cette folle course à la publication et à la quantification induit des pratiques douteuses. On saucissonne des résultats pour obtenir trois articles là où un seul aurait suffi. On exagère l’importance d’une étude pour la rendre plus séduisante. On cite des pontes pour s’attirer leur bienveillance. On s’autocite à ou­trance pour « monter » dans les classements. On met en scène des mécanismes d’explication supposés au détriment des observations principales, socle de la science. Sans parler des fraudes pures et simples. « Fleming, le découvreur de la pénicilline, ne pourrait plus publier aujourd’hui », s’indigne Lawrence Rajendran, fondateur de la plate-forme Science Matters, qui milite pour une science moins théâtralisée.

    « Le traditionnel “publish or perish” [“publier ou périr”] est devenu “impact or perish” [“avoir de l’impact ou périr”]. Ce n’est pas de la fraude au sens classique, mais ce n’est pas bon pour la confiance dans les travaux publiés », s’inquiète Mario Biagioli qui, en 2016, avait réuni un colloque sur les liens entre le développement des métriques et les inconduites scientifiques. Le système est-il pousse-au-crime ? « Evidemment », déplore Catherine Jessus, qui dirige les sciences de la vie au CNRS. Même si, précise-t-elle, elle n’a eu à connaître que « quatre cas graves de fraude – c’est-à-dire avec des données fabriquées – depuis 2013, sur 20 000 personnels statutaires et associés. »

    Tous ces excès font réagir la communauté scientifique. En 2013 a été signée à San Francisco la Déclaration sur l’évaluation de la recherche (DORA), qui prône notamment l’abandon des facteurs d’impact pour juger un chercheur. « C’est une méthode très peu scientifique, naïve et inadéquate que de prendre une revue comme mesure », considère Matthias Egger, le président du Fonds national suisse de la recherche scientifique, bien décidé à mettre en place les procédures issues de la DORA. Le changement passe aussi par des innovations numériques pouvant remettre en question le rôle des journaux eux-mêmes dans la diffusion de la connaissance.

  • Publier ou périr, une malédiction pour la recherche

    http://www.lemonde.fr/sciences/article/2017/09/26/publier-ou-perir-une-malediction-pour-la-recherche_5191761_1650684.html

    Les scientifiques ont une obsession  : publier leurs résultats. Cette pression induit des effets pervers qui minent recherche et chercheurs.

    En simplifiant beaucoup, l’activité scientifique peut se voir comme une machine à produire des articles, qui ­seront comme autant de diamants s’accumulant sur la haute pyramide de la connaissance. Ils sont comptés, pesés et leur valeur estimée. Ils sont aussi utilisés pour évaluer l’excellence de tel chercheur ou telle université, et ainsi convertis en moyens financiers qui serviront à fabriquer de nouvelles pierres précieuses…

    Le cercle se veut vertueux mais la machine connaît de sérieux ratés. Parmi les 2,5 millions d’articles écrits tous les ans, il n’est pas rare de trouver des « diamants » défectueux, c’est-à-dire des articles faux, y compris produits par les meilleures équipes et publiés dans l’élite des ­revues scientifiques. Il est aussi fréquent de tomber sur des articles aux conclusions peu fiables, qui mettent en cause la rigueur du contrôle qualité qui consiste à faire évaluer les travaux des chercheurs par d’autres (peer review).

    L’impossibilité de répéter certaines expériences fait aussi douter de la fiabilité du système. En outre, la captation des ressources fournies par le contribuable au profit de quelques éditeurs ou journaux commence à agacer les ouvriers de ces usines à produire des articles.

    Bref, les coulisses du système de production et de diffusion des connaissances ne sont pas aussi reluisantes que l’aura qui entoure généralement la profession de chercheurs pourrait le laisser penser.

    Le Monde et Le Temps ont décidé d’enquêter sur cinq facettes sombres de ce système : la dictature du chiffre (résumée par l’adage « publier ou périr ») ; la confiscation de la connaissance ; les failles du peer reviewing ; l’embellissement des résultats ; la crise de la reproductibilité. Ces plaies ne sont pas les seules à miner la recherche. Le manque de moyens, la précarité, la ­bureaucratie, les conflits d’intérêts… perturbent aussi la vie des chercheurs. Mais elles illustrent à elles seules un profond malaise qui a déjà soulevé quelques vents de révolte.

    Alors, bien sûr, ces problèmes de qualité sont minoritaires. Le taux de malhonnêteté n’est pas plus grand chez les chercheurs que dans les autres professions. Bien sûr, toutes les disciplines ne sont pas logées à la même enseigne. Les mathématiciens publient moins et mieux que les biologistes. Les physiciens sont plus rigoureux que les psychologues… Bien sûr, des pays s’accommodent plus que d’autres de ces défauts de qualité. Bien sûr, décrire l’activité des revues comme une simple confiscation de la connaissance est réducteur.

    Il n’empêche que ces faces sombres révèlent à quel point, ces dernières années, le système de recherche s’est profondément transformé. Par quelque bout qu’on le prenne, toujours revient un de ses maillons essentiels, les publications scientifiques, et surtout leur métamorphose en unité comptable de l’activité scientifique. La ­logique gestionnaire et ses effets pervers diffusent dans toute la chaîne.

    La situation devient si intenable que partout naissent des initiatives pour corriger ces problèmes, les prévenir, voire pour rompre totalement avec cette nouvelle logique. Les mines des diamants de la recherche seraient-elles au bord de la révolte ?

  • Stimulé, un patient dans un « état végétatif » récupère une conscience minimale

    http://www.lemonde.fr/sciences/article/2017/09/25/stimule-un-patient-dans-un-etat-vegetatif-recupere-une-conscience-minimale_5

    Plongé depuis quinze ans dans un état d’« éveil non répondant », un homme de 35 ans a recouvré des signes de conscience grâce à la stimulation électrique du nerf vague.

    Mais pourquoi le nerf vague ? Il innerve un territoire très étendu, qui comprend les poumons, le cœur, l’intestin… Mais, surtout, ses terminaisons pénètrent dans le tronc cérébral, à la base du cerveau, pour y stimuler la « formation réticulée ». Or, cette structure est un élément critique de la conscience : c’est un système d’allumage et d’éveil. « Pour que nous soyons conscients, il faut deux conditions : la première est ce système d’allumage du cortex, précise Lionel Naccache. La seconde est la présence d’un réseau de neurones fonctionnel, qui se caractérise par des communications à longue distance dans le cerveau. »

    Résultat : pas d’effets immédiats. Mais, après un mois de cette stimulation, une double amélioration était observée. Le patient suivait des yeux un objet et il se conformait à des ordres simples, ce qu’il ne faisait pas auparavant. « Par exemple, lorsque nous lui demandions de tourner la tête vers la droite, il le faisait très lentement », témoigne Angela Sirigu. Il réagissait aussi à une forme de « menace » : il écarquillait les yeux quand une personne approchait son visage très près du sien. Sa mère rapportait qu’il restait davantage éveillé quand un thérapeute lui lisait un livre. « Nous avons vu une larme couler sur sa joue quand il écoutait une musique qu’il aimait », ajoute Angela Sirigu, à propos des réactions sur le plan émotionnel.

  • On sait désormais d’où viennent les rayons cosmiques

    http://www.lemonde.fr/sciences/article/2017/09/24/on-sait-desormais-d-ou-viennent-les-rayons-cosmiques_5190466_1650684.html

    En Argentine, les 1 600 piscines de l’Observatoire Pierre-Auger ont capté des pluies de particules de très haute énergie. Leur origine extra-galactique a pu être prouvée.

    Curieuse installation scientifique que ce laboratoire Pierre-Auger : 1 600 piscines installées selon un motif régulier dans l’ouest de l’Argentine. Répartis sur 3 000 km2, ces bassins d’eau pure et les détecteurs qui les équipent attendent des visiteurs célestes, les rayons cosmiques. Et en particulier les plus rares et les plus mystérieux d’entre eux, ceux qui disposent d’une énergie si phénoménale que le plus performant accélérateur de particules créé par l’homme, le LHC, fait figure de générateur de pichenettes à côté de ces puncheurs de l’espace, un million de fois plus puissants. Lorsqu’une de ces particules (protons ou noyaux d’atomes légers), voyageant à une vitesse proche de celle de la lumière, arrive sur Terre, sa collision avec les atomes de l’atmosphère produit une cascade de particules secondaires, un véritable Niagara car des milliards de particules finissent par doucher le sol.


    Dans la Pampa Amarilla argentine, une des 1600 « piscines » de l’observatoire Pierre-Auger, servant de détecteur de rayons cosmiques.

    Ce sont ces témoins indirects du rayonnement cosmique que guette depuis 2004 le laboratoire Pierre-Auger – qui porte le nom du scientifique français qui décrivit le premier ces gerbes en 1939. Dans une étude publiée le 22 septembre par Science, les quelque 400 chercheurs de 18 pays qui collaborent à ce projet livrent le résultat de treize ans d’observations et lèvent le coin du voile sur les mystères des rayons cosmiques à haute énergie dont on ignore tant l’origine – galactique ou extra-galactique – que le mécanisme qui les engendre. Etant électriquement chargées, ces particules sont en effet déviées en traversant le champ magnétique naturel qui baigne la Voie lactée, au point que déterminer d’où elles sont apparues revient un peu à vouloir deviner où est le Soleil quand on tâtonne en plein brouillard.

    Pourtant, en cumulant les données de 30 000 événements, les auteurs de l’étude ont fini par découvrir une sorte de direction préférentielle dans le ciel, une zone où le flux de rayons cosmiques est de 6 % plus élevé que si l’origine de ces particules était complètement uniforme. Surtout, comme l’explique l’un des co-auteurs de l’article, Antoine Letessier-Selvon, directeur de recherches au Laboratoire de physique nucléaire et des hautes énergies (CNRS-universités Paris-VI et Paris-VII), « la direction dans laquelle le flux est le plus intense se trouve quasiment à l’opposé du centre de la Voie lactée. C’est une preuve assez forte que ces rayons cosmiques ne proviennent pas de notre galaxie », ce qui tranche une longue bataille de plusieurs décennies entre astrophysiciens.


    Schéma décrivant la détection d’une pluie de particules engendrée par des rayons cosmiques par quatre « piscines » de l’observatoire Pierre-Auger.

    Reste encore à déterminer de quelle(s) galaxie(s) ces particules proviennent. Pour y parvenir, les bassins du laboratoire Pierre-Auger sont en train d’être équipés de nouveaux détecteurs. Mais cela ne résoudra pas pour autant le cœur de l’énigme : déterminer par quels mécanismes astrophysiques ces particules assez lourdes ont pu être accélérées au point d’approcher la vitesse de la lumière. Antoine Letessier-Selvon énumère les suspects : « fusions d’étoiles, collisions de galaxies, hypernovae... Quelles qu’elles soient, les sources sont des choses extrêmement violentes ».