• Variole, une résurrection inquiétante
    http://www.lemonde.fr/sciences/article/2017/10/30/variole-une-resurrection-inquietante_5207923_1650684.html

    Un excellent papier par Yves Sciama

    C’est un important tournant pour la biologie synthétique et la sûreté biologique. » Pour le professeur Gregory Koblentz, spécialiste de biosécurité à l’université George-Mason, en Virginie, il n’y a aucun doute : la synthèse du virus éteint de la variole équine, à partir de segments d’ADN issus du commerce sur Internet et livrés par voie postale, doit valoir signal d’alarme. Quand bien même cette synthèse avait seulement pour objectif « d’améliorer l’actuel vaccin contre la variole humaine », selon le professeur David Evans, de l’université canadienne d’Edmonton, qui l’a coordonnée.
    La « recette » de la variole humaine

    Si cette expérience, révélée durant l’été et financée par le laboratoire Tonix Pharmaceuticals, a franchi une ligne jaune, selon de nombreux spécialistes, c’est qu’elle fournit, clés en main, rien moins que la « recette » de la synthèse de la variole humaine.

    Pourtant, la synthèse de la variole ressuscite brusquement un scénario de cauchemar : celui de son retour, par un accident de laboratoire ou l’acte malveillant d’un déséquilibré, de terroristes ou d’un Etat voyou.
    Contagieuse par voie respiratoire, la maladie fit au XXe siècle 300 millions de morts.

    Une épidémie de variole sèmerait un chaos et une panique inimaginables : contagieuse par voie respiratoire, la maladie (qui tue un malade sur trois) fit au XXe siècle 300 millions de morts – plus que toutes les guerres cumulées. Ses survivants sont de plus généralement défigurés par les centaines de vésicules dont la maladie recouvre le corps et les muqueuses.

    L’atmosphère de panique qui avait entouré la poignée de cas d’Ebola sortis d’Afrique – maladie a priori moins contagieuse que la variole – laisse imaginer le chaos que causerait une flambée de variole : les replis, les perturbations du système de transport, notamment aérien, les chocs économiques qui s’ensuivraient, etc. Des dizaines de rapports d’analystes documentent combien l’extrême interconnexion de notre monde fait d’une épidémie l’un des principaux risques globaux.

    J’avais défendu un moratoire sur la biologie de synthèse en 2009, dans le silence le plus assourdissant

    Mais la question de la variole n’est que la partie émergée du gigantesque iceberg qu’est devenue la biologie de synthèse, dont les fulgurants progrès commencent à révéler l’énorme potentiel d’usages malveillants. David Evans a indiqué qu’il n’avait fallu que six mois et 100 000 dollars à son thésard et à lui-même pour ressusciter la variole équine. Il n’en faudrait donc sans doute pas plus pour son homologue humaine. Or la ­variole appartient à la partie complexe du spectre des virus dangereux – la plupart sont bien plus simples à fabriquer (celui de la poliomyélite, par exemple, a été synthétisé dans les années 2000). Même la construction de génomes bactériens, porteurs de centaines de gènes, est maîtrisée depuis une décennie.

    Bien évidemment le marché de l’ADN est forcément éthique... selon la logique des Conférences d’Azilomar : ce sont ceux qui font qui décident des limites (on voit par exemple l’effet dans la crise actuelle des opiodes de cette « auto-régulation » des industries...)

    Cette industrie de la synthèse d’ADN se trouve être l’un des importants leviers d’action disponibles pour réguler, et reprendre un tant soit peu le contrôle des risques engendrés par les sciences du vivant. En particulier parce que c’est une industrie qui s’est dès ses débuts, spontanément, posé la question de la sûreté biologique. Et qui a mis en place des mesures de sécurité dès 2009.

    Des mesures, baptisées « Protocole Standard », dont il faut souligner qu’elles sont entièrement volontaires. Elles ne sont appliquées que par les entreprises du secteur adhérentes au Consortium international de synthèse génétique (IGSC), une association dont la fonction est « d’élever le ­niveau de sûreté biologique, pour garder cette ­industrie propre », résume Marcus Graf, res­pon­sable de l’activité biologie synthétique au sein de la société allemande Thermo Fisher Scientific. L’IGSC compte aujourd’hui onze membres, ­contre cinq en 2009, et représente environ 80 % du marché mondial de la synthèse d’ADN.

    Mais rien n’est simple : on peut être partisan de l’auto-régulaiton, mais vouloir que les règles sur les choses dangereuses soient fixées par d’autres (sans qu’on se demande comment seront financés les experts « indépendants », si ce n’est pas des contrats recherche/entreprise...).

    Secundo, la fameuse base de données des ­séquences suspectes, que l’industrie réactualise chaque année, devrait en fait être constamment tenue à jour, afin de suivre les progrès rapides de la biologie. Il faudrait affecter à ce travail des équipes entières de biologistes chevronnés, au fait des derniers développements de la littérature, capables d’anticiper sur les usages malveillants – et non pas laisser le soin de le faire à une industrie hyper-concurrentielle, obsédée par la nécessité de réduire ses coûts et ses délais de livraisons. « Cette base de données devrait être établie et tenue à jour par les Etats, et ce serait aussi leur rôle de consacrer une importante ­recherche publique à cette tâche », souligne ­Gregory Koblentz.

    Une intervention de l’Etat que, une fois n’est pas coutume, les industriels appellent de leurs vœux. « Nous serions très contents qu’une agence nous dise au niveau national ou au niveau international ce qui doit aller ou non dans notre base de données », confirme Todd Peterson. La chose n’a en effet rien de trivial – elle suppose d’identifier dans le génome d’un pathogène quelles sont les parties vraiment dangereuses, liées à la virulence, la contagiosité ou la résistance aux traitements, et quels sont les gènes bénins, partagés avec d’innombrables autres organismes, qui servent uniquement au fonctionnement de base de l’organisme – respirer, se diviser, percevoir, etc.

    Ce dont les industriels ne veulent pas, il est vrai, c’est d’un contrôle des commandes qui serait ­effectué directement par les agences étatiques (telles que l’ANSM en France). Ils estiment que dans ce cas, ceux d’entre eux qui auraient l’agence la moins diligente perdraient leurs marchés. « Nos clients veulent être livrés en 3 à 5 jours, deux semaines maximum – le screening ne doit pas prendre plus de quelques minutes », avertit Marcus Graf.

    Ce que cet excellent article dit un peu plus loin :

    Il n’en reste pas moins que, partout dans le monde, la plupart des obligations liées à la ­sûreté biologique reposent sur des listes d’organismes suspects… dont la variole équine ne fait nulle part partie – c’est d’ailleurs ce qui a permis à David Evans de commander sur Internet ses séquences. « Actuellement prédomine une concep­tion très étroite de la sûreté biologique, analyse Gregory Koblentz. Elle revient à dire que tout biologiste qui ne travaille pas sur la quinzaine d’organismes de la liste peut dormir tranquille et se dispenser de réfléchir à ces problèmes – la sûreté biologique est manifestement perçue avant tout comme un fardeau dont il faut affranchir le plus grand nombre. » Or, pour ce chercheur, il faut que l’ensemble de la communauté scientifique soit mobilisée par cette question, qu’elle soit supervisée par des comités de ­contrôle multiples, enseignée à l’université, etc.

    Mais l’hubris des démiurges de la biologie de synthèse est si fort. Ce sont des prédicateurs (titre d’un article sur le sujet que j’ai commis il y a quelques années... et qui ne doit pas être encore en ligne)

    En réalité, il est frappant de constater à quel point la situation préoccupe peu la majorité des biologistes, partagés entre inquiétude que des profanes se mêlent de leur imposer des règles, et fatalisme technologique. Pour David Evans, par exemple, « dire qu’il est possible de mettre arbitrairement des limites à ce que la science peut ou ne peut pas faire, c’est tout simplement naïf. Le génie est sorti de la bouteille ». Et d’ajouter, un brin provoquant : « La biologie synthétique a même dépassé de beaucoup ce dont la plupart de ses critiques ont conscience… »

    Bon, j’aurais envie de citer tout le papier... il est très bon. Voici la conclusion, que je partage totalement :

    Il serait pourtant bon de faire mentir la règle, bien connue des spécialistes du risque industriel, selon laquelle on ne régule sérieusement les activités dangereuses qu’après qu’elles aient causé un accident emblématique. Car on frémit à l’idée de ce que pourrait être un « Titanic » de la biologie synthétique.

    –---------------
    Une affaire dans l’affaire : que faire des souches de variole existantes

    Doit-on détruire les échantillons de variole ? : le débat se poursuit

    Après l’éradication de la variole en 1980, il ne reste aujourd’hui que deux séries d’échantillons du virus sur la planète, l’une au Center for Disease Control (CDC) américain, à Atlanta, et l’autre au centre VECTOR russe à Novossibirsk – du moins en principe, car l’existence d’échantillons clandestins ne peut être exclue. Un débat enfiévré fait rage depuis les années 1990 entre partisans et adversaires de la destruction de ces deux échantillons, les premiers plaidant que l’éradication de la maladie justifie – et même impose – d’effacer le virus de la surface de la Terre, les seconds invoquant la nécessité de nouvelles recherches sur les vaccins et traitements. Bien qu’elle en ait beaucoup diminué l’enjeu, la possibilité d’une synthèse artificielle de la variole n’a pas éteint ce débat. Les « destructeurs » argumentent que, puisqu’il y a possibilité de reconstruire le virus en cas de besoin urgent, autant le détruire ; tandis que les « conservateurs » estiment qu’il n’y a plus de raison de se débarrasser du virus, car il peut plus que jamais se retrouver dans des mains malveillantes. Verdict à l’Assemblée mondiale de la santé, dans deux ans.

  • Variole, une résurrection inquiétante

    http://www.lemonde.fr/sciences/article/2017/10/30/variole-une-resurrection-inquietante_5207923_1650684.html

    La synthèse de la variole équine par des chercheurs canadiens a été un électrochoc   : les industriels de la génétique s’alarment eux-mêmes de détournements à des fins terroristes.

    C’est un important tournant pour la biologie synthétique et la sûreté biologique. » Pour le professeur Gregory Koblentz, spécialiste de biosécurité à l’université George-Mason, en Virginie, il n’y a aucun doute : la synthèse du virus éteint de la variole équine, à partir de segments d’ADN issus du commerce sur Internet et livrés par voie postale, doit valoir signal d’alarme. Quand bien même cette synthèse avait seulement pour objectif « d’améliorer l’actuel vaccin contre la variole humaine », selon le professeur David Evans, de l’université canadienne d’Edmonton, qui l’a coordonnée.

    La « recette » de la variole humaine

    Si cette expérience, révélée durant l’été et financée par le laboratoire Tonix Pharmaceuticals, a franchi une ligne jaune, selon de nombreux spécialistes, c’est qu’elle fournit, clés en main, rien moins que la « recette » de la synthèse de la variole humaine.

    Les différents virus de la variole, qui infectent divers mammifères et oiseaux, sont en effet très étroitement apparentés ; ce qui fonctionne avec l’un fonctionne en général avec l’autre. Or, leur complexité et leur grande taille (250 gènes contre 11 pour la grippe, par exemple) les rendaient jusqu’à présent difficiles à fabriquer artificiellement. Une difficulté que David Evans a réussi à contourner, ­notamment par la mise en œuvre astucieuse d’un « virus auxiliaire », le SFV, qui fournit à celui de la ­variole des protéines lui permettant de se multiplier. David Evans espérait que ce travail lui vaudrait une place dans Science ou Nature, les deux principales revues scientifiques. Mais elles ont décliné ; des pourparlers sont en cours pour le publier ailleurs.

    Scénario de cauchemar

    Pourtant, la synthèse de la variole ressuscite brusquement un scénario de cauchemar : celui de son retour, par un accident de laboratoire ou l’acte malveillant d’un déséquilibré, de terroristes ou d’un Etat voyou.

    Une épidémie de variole sèmerait un chaos et une panique inimaginables : contagieuse par voie respiratoire, la maladie (qui tue un malade sur trois) fit au XXe siècle 300 millions de morts – plus que toutes les guerres cumulées. Ses survivants sont de plus généralement défigurés par les centaines de vésicules dont la maladie recouvre le corps et les muqueuses.

    Ce scénario noir est, il est vrai, nimbé d’incerti­tudes. Nombre de spécialistes, comme Geoffrey Smith, qui préside le comité de l’Organisation mondiale de la santé (OMS) chargé de réguler la ­recherche sur la variole, soulignent les « bons progrès » accomplis en termes de vaccin, de traitement, de kits de détection. Et expriment des doutes sur la possibilité qu’une épidémie d’une grande ampleur survienne. Mais d’autres avertissent qu’on ne peut se rassurer à bon compte. La maladie ayant disparu depuis quarante ans, il est difficile de savoir exactement ce que valent nos vaccins et traitements.

    De plus, la population mondiale est redevenue « naïve » envers le virus, donc plus vulnérable. Enfin, les vaccins et les traitements sont en quantité limitée et concentrés dans les pays riches, particulièrement aux Etats-Unis. S’en dessaisiraient-ils pour éteindre un foyer épidémique qui démarrerait ailleurs ?

    Doit-on détruire les échantillons de variole ? : le débat se poursuit

    Après l’éradication de la variole en 1980, il ne reste aujourd’hui que deux séries d’échantillons du virus sur la planète, l’une au Center for Disease Control (CDC) américain, à Atlanta, et l’autre au centre VECTOR russe à Novossibirsk – du moins en principe, car l’existence d’échantillons clandestins ne peut être exclue. Un débat enfiévré fait rage depuis les années 1990 entre partisans et adversaires de la destruction de ces deux échantillons, les premiers plaidant que l’éradication de la maladie justifie – et même impose – d’effacer le virus de la surface de la Terre, les seconds invoquant la nécessité de nouvelles recherches sur les vaccins et traitements. Bien qu’elle en ait beaucoup diminué l’enjeu, la possibilité d’une synthèse artificielle de la variole n’a pas éteint ce débat. Les « destructeurs » argumentent que, puisqu’il y a possibilité de reconstruire le virus en cas de besoin urgent, autant le détruire ; tandis que les « conservateurs » estiment qu’il n’y a plus de raison de se débarrasser du virus, car il peut plus que jamais se retrouver dans des mains malveillantes. Verdict à l’Assemblée mondiale de la santé, dans deux ans.

    L’atmosphère de panique qui avait entouré la poignée de cas d’Ebola sortis d’Afrique – maladie a priori moins contagieuse que la variole – laisse imaginer le chaos que causerait une flambée de variole : les replis, les perturbations du système de transport, notamment aérien, les chocs économiques qui s’ensuivraient, etc. Des dizaines de rapports d’analystes documentent combien l’extrême interconnexion de notre monde fait d’une épidémie l’un des principaux risques globaux.

    Mais la question de la variole n’est que la partie émergée du gigantesque iceberg qu’est devenue la biologie de synthèse, dont les fulgurants progrès commencent à révéler l’énorme potentiel d’usages malveillants. David Evans a indiqué qu’il n’avait fallu que six mois et 100 000 dollars à son thésard et à lui-même pour ressusciter la variole équine. Il n’en faudrait donc sans doute pas plus pour son homologue humaine. Or la ­variole appartient à la partie complexe du spectre des virus dangereux – la plupart sont bien plus simples à fabriquer (celui de la poliomyélite, par exemple, a été synthétisé dans les années 2000). Même la construction de génomes bactériens, porteurs de centaines de gènes, est maîtrisée depuis une décennie.

    Ce qui signifie que, par-delà la variole, la plupart des pathogènes les plus meurtriers, d’Ebola à la tuberculose multirésistante, pourraient être synthétisés ou manipulés pour accroître leur ­virulence. D’ailleurs, de multiples expériences ces dernières années ont relevé de cette recherche dangereuse, pudiquement désignée par l’expression « à double usage », car elle peut être à la fois utile ou nocive. C’est cependant la première fois qu’une entreprise privée conduit une telle expérience et non une équipe de recherche fondamentale – signe sans doute de la banalisation du « double usage ».

    Une industrie dont le chiffre d’affaires explose

    Cette synthèse de la variole équine a au moins permis de mettre en lumière un acteur méconnu, au cœur de cette affaire : l’industrie de la synthèse d’ADN. C’est désormais la norme, en biologie moléculaire, pour les laboratoires publics aussi bien que pour les multinationales pharmaceutiques, d’aller sur Internet, de commander une séquence génétique ou une liste de gènes. Et de recevoir par la poste, en quelques jours, son ADN conditionné dans le matériel biologique choisi, assemblés à partir de produits chimiques inertes.

    L’explosion en effectif et en chiffre d’affaires de l’industrie des sciences du ­vivant a dopé ce marché de la synthèse d’ADN, qui est sorti de terre en une décennie. Désormais, il pèse 1,3 milliard de dollars ; mais avec des taux de croissance de 10,5 %, il devrait atteindre 2,75 milliards en 2023.

    Cette industrie de la synthèse d’ADN se trouve être l’un des importants leviers d’action disponibles pour réguler, et reprendre un tant soit peu le contrôle des risques engendrés par les sciences du vivant. En particulier parce que c’est une industrie qui s’est dès ses débuts, spontanément, posé la question de la sûreté biologique. Et qui a mis en place des mesures de sécurité dès 2009.

    Des mesures, baptisées « Protocole Standard », dont il faut souligner qu’elles sont entièrement volontaires. Elles ne sont appliquées que par les entreprises du secteur adhérentes au Consortium international de synthèse génétique (IGSC), une association dont la fonction est « d’élever le ­niveau de sûreté biologique, pour garder cette ­industrie propre », résume Marcus Graf, res­pon­sable de l’activité biologie synthétique au sein de la société allemande Thermo Fisher Scientific. L’IGSC compte aujourd’hui onze membres, ­contre cinq en 2009, et représente environ 80 % du marché mondial de la synthèse d’ADN.

    Le « Protocole Standard » interdit de vendre de l’ADN à des particuliers, et impose de ne fournir que des institutions à la réalité et au sérieux ­vérifiés. Surtout, il met en œuvre une base de données de séquences génétiques « problématiques », conçue par l’IGSC, où l’on trouve les gènes de la plupart des microbes dangereux figurant sur les listes rouges édictées par les autorités de différents pays – par exemple celle des select agents aux Etats-Unis, ou des micro-organismes et toxines (MOT) en France. « Lorsqu’un de nos membres reçoit une commande, explique Todd Peterson, directeur pour la technologie de la ­société californienne Synthetic Genomics, et ­secrétaire actuel de l’IGSC, il doit d’abord vérifier les séquences demandées pour vérifier qu’aucune ne figure sur notre base de données. Si une ­séquence est suspecte, il prend contact avec le client et discute du problème. »

    Ces cas suspects, qui représentent à peine 0,67 % des commandes, proviennent en outre le plus souvent d’institutions ayant pignon sur rue, telles que l’Institut Pasteur ou l’Institut ­Robert Koch outre-Rhin. Celles-ci travaillent sur des agents pathogènes dangereux pour des ­raisons légitimes (vaccins, traitements, etc.) et dans des conditions de sécurité satisfaisantes, et un coup de fil suffit alors pour s’assurer que tout va bien. « Si nous décelons un problème, ­cependant, nous pouvons refuser la commande, et dans ce cas nous en avertissons les autres membres du consortium, voire les autorités », précise Todd Peterson, qui indique que ces incidents sont rarissimes.

    Ce « Standard Protocol » est cependant loin de tout résoudre. Primo, 20 % du marché de l’ADN échappe tout de même au consortium. « Dans la situation actuelle, les sociétés qui font l’effort d’inspecter les séquences et d’appliquer nos règles de sécurité s’imposent un handicap concurrentiel, car cela coûte du temps et de l’argent », observe Marcus Graf. Or, avec la baisse rapide du prix de la synthèse génomique, « la concurrence s’est exacerbée et le secteur est devenu une industrie coupe-gorge, aux marges faibles », indique Gregory Koblenz. Le chercheur propose de rendre obligatoire, au moins pour toutes les institutions de recherche publiques, de se fournir auprès de membres du consortium, afin de compenser ce handicap. Une mesure que l’IGSC verrait d’un bon œil, « mais pour laquelle nous ne voulons pas faire de lobbying, explique Todd Peterson, pour ne pas être accusés de collusion. » La loi pourrait même rendre l’adhésion à l’IGSC obligatoire, ce qui reviendrait à imposer ses règles à tout nouvel entrant – mais la mesure supposerait une certaine concertation internationale, pour éviter la formation de « paradis réglementaires »…

    Intervention de l’Etat

    Secundo, la fameuse base de données des ­séquences suspectes, que l’industrie réactualise chaque année, devrait en fait être constamment tenue à jour, afin de suivre les progrès rapides de la biologie. Il faudrait affecter à ce travail des équipes entières de biologistes chevronnés, au fait des derniers développements de la littérature, capables d’anticiper sur les usages malveillants – et non pas laisser le soin de le faire à une industrie hyper-concurrentielle, obsédée par la nécessité de réduire ses coûts et ses délais de livraisons. « Cette base de données devrait être établie et tenue à jour par les Etats, et ce serait aussi leur rôle de consacrer une importante recherche publique à cette tâche », souligne ­Gregory Koblentz.

    Une intervention de l’Etat que, une fois n’est pas coutume, les industriels appellent de leurs vœux. « Nous serions très contents qu’une agence nous dise au niveau national ou au niveau international ce qui doit aller ou non dans notre base de données », confirme Todd Peterson. La chose n’a en effet rien de trivial – elle suppose d’identifier dans le génome d’un pathogène quelles sont les parties vraiment dangereuses, liées à la virulence, la contagiosité ou la résistance aux traitements, et quels sont les gènes bénins, partagés avec d’innombrables autres organismes, qui servent uniquement au fonctionnement de base de l’organisme – respirer, se diviser, percevoir, etc.

    Ce dont les industriels ne veulent pas, il est vrai, c’est d’un contrôle des commandes qui serait ­effectué directement par les agences étatiques (telles que l’ANSM en France). Ils estiment que dans ce cas, ceux d’entre eux qui auraient l’agence la moins diligente perdraient leurs marchés. « Nos clients veulent être livrés en 3 à 5 jours, deux semaines maximum – le screening ne doit pas prendre plus de quelques minutes », avertit Marcus Graf.

    Au fond, ce qu’il faudrait ici, c’est que les Etats cessent de considérer l’industrie de l’ADN comme un secteur anodin que l’on laisse entièrement s’autoréguler, mais qu’ils acceptent enfin de considérer qu‘il s’agit d’une industrie certes indispensable, mais porteuse de réels dangers. Et donc nécessitant une attention et un encadrement strict – ce dont les industriels eux-mêmes conviennent et qu’ils tentent de gérer, sans soutien public, depuis dix ans. « Il faudrait aller, ­résume Gregory Koblentz, vers un modèle semblable à l’industrie du transport aérien, où l’existence d’une concurrence acharnée n’empêche pas une réglementation sévère et des systèmes d’inspection rigoureux, visant à rendre l’accident quasiment impossible. »

    Failles du cadre réglementaire actuel

    Il existe un troisième problème, sans doute le plus difficile à résoudre, qui est illustré par la synthèse de la variole équine. Formellement, dans le cadre réglementaire actuel, le travail de David Evans n’a transgressé aucune règle. Certes, c’est en partie parce que la législation nord-américaine ne régule pas les modifications génétiques, contrairement à la situation européenne – en France, par exemple, il aurait fallu demander l’autorisation de faire l’expérience au Haut Conseil des biotechnologies.

    Il n’en reste pas moins que, partout dans le monde, la plupart des obligations liées à la ­sûreté biologique reposent sur des listes d’organismes suspects… dont la variole équine ne fait nulle part partie – c’est d’ailleurs ce qui a permis à David Evans de commander sur Internet ses séquences. « Actuellement prédomine une concep­tion très étroite de la sûreté biologique, analyse Gregory Koblentz. Elle revient à dire que tout biologiste qui ne travaille pas sur la quinzaine d’organismes de la liste peut dormir tranquille et se dispenser de réfléchir à ces problèmes – la sûreté biologique est manifestement perçue avant tout comme un fardeau dont il faut affranchir le plus grand nombre. » Or, pour ce chercheur, il faut que l’ensemble de la communauté scientifique soit mobilisée par cette question, qu’elle soit supervisée par des comités de ­contrôle multiples, enseignée à l’université, etc.

    Car le risque dépasse clairement les listes. D’abord parce que des organismes anodins – donc qui n’y figurent pas – peuvent être modifiés d’une manière qui les rend dangereux. Une grippe saisonnière ou une varicelle « augmentées », par exemple, créeraient une menace ­épidémique grave. Mais de plus, souligne Koblentz, « il n’y a pas que des organismes, il y a des savoir-faire qui peuvent être considérés comme à double usage ».

    Ainsi la manipulation des virus de la famille des poxviridae, celle des différentes varioles, confère comme on l’a vu des compétences ­poten­tiel­lement dangereuses. Or cette famille est de plus en plus utilisée. Ces virus de grande taille se révèlent en effet être de très bons « véhicules » pour transporter des molécules thé­rapeutiques à l’intérieur des cellules du corps, notamment pour soigner les cancers ou combattre le VIH. Il suffit pour cela d’intégrer la molécule désirée dans le virus, dont l’habileté à déjouer le système immunitaire est ainsi mise à profit pour emmener le médicament jusqu’à sa cible.

    « Le génie est sorti de la bouteille »

    Des dizaines d’essais cliniques reposant sur ces techniques sont actuellement en cours. « Or à mesure que la communauté des chercheurs possédant cette expertise grandit, note Koblentz, la probabilité d’un mésusage augmente. Ce n’est pas un problème que l’on peut ignorer, et il faut rediscuter des bénéfices et des risques. » Ici, la tension avec l’injonction à innover régnant dans toutes les institutions scientifiques saute aux yeux. « Ecoutez, combien de cas de variole avons-nous eu depuis trois ans, et combien de cas de cancer ? On ne parle pas assez des bénéfices potentiels de ces recherches », s’agace David Evans.

    En réalité, il est frappant de constater à quel point la situation préoccupe peu la majorité des biologistes, partagés entre inquiétude que des profanes se mêlent de leur imposer des règles, et fatalisme technologique. Pour David Evans, par exemple, « dire qu’il est possible de mettre arbitrairement des limites à ce que la science peut ou ne peut pas faire, c’est tout simplement naïf. Le génie est sorti de la bouteille ». Et d’ajouter, un brin provoquant : « La biologie synthétique a même dépassé de beaucoup ce dont la plupart de ses critiques ont conscience… »

    Côté politique, entre sentiment d’incompétence face aux questions scientifiques et peur de brider l’innovation, personne n’a envie de se saisir d’un problème aussi épineux. Lorsque Todd Peterson suggère aux agences de son pays qu’elles devraient s’impliquer davantage dans le « Protocole Standard », « tout le monde me dit que c’est une excellente idée, mais personne n’a envie de se mettre en avant, de définir un budget et de se battre pour l’obtenir. En tout cas, c’est mon impression personnelle ».

    Il serait pourtant bon de faire mentir la règle, bien connue des spécialistes du risque industriel, selon laquelle on ne régule sérieusement les activités dangereuses qu’après qu’elles aient causé un accident emblématique. Car on frémit à l’idée de ce que pourrait être un « Titanic » de la biologie synthétique.

  • Le dégel du permafrost, l’autre menace climatique qui inquiète les chercheurs

    http://www.lemonde.fr/sciences/article/2017/10/09/le-permafrost-l-autre-menace-climatique_5198486_1650684.html

    Le réchauffement climatique entraîne le dégel de ce permafrost, libérant des gaz à effet de serre qui accélèrent le phénomène.

    Naviguer entre les 1 500 îles disséminées dans le delta de la Léna requiert une concentration sans faille, un œil fixé sur le radar du bateau pour éviter les bancs de sable, un autre à l’affût des amers côtiers qui ponctuent cette immensité de terre et d’eau. Avant de se jeter dans la mer de Laptev, au nord de la Sibérie, le fleuve est si large que ses rives dessinent un trait flou sur la ligne d’horizon.

    L’île de Samoïlov est reconnaissable à la cabane en bois, construite près du rivage, où cohabitent quelques scientifiques et les gardes de la réserve naturelle qui couvre l’embouchure du fleuve et les contreforts des monts Karaoulakh. Or une lente et irréversible érosion menace de livrer le petit édifice aux flots de la Léna. A terme, c’est l’île elle-même qui pourrait disparaître. Les fortes crues qui suivent la fonte des glaces, au printemps, fragilisent les côtes de Samoïlov.

    Mais l’îlot de 5 km2 pâtit surtout de la dégradation du permafrost sous l’effet du réchauffement climatique. Appelés aussi pergélisol, ces sols dont la couche supérieure dégèle en saison chaude conservent en profondeur une température en dessous de zéro degré pendant au moins deux ans consécutifs.

    « L’écosystème de Samoïlov fait face à une potentielle extinction », conclut prudemment un article de la revue Biogeosciences consacré à l’étude du site. Pour l’Allemande Julia Boike, qui a coordonné l’étude, et ses collègues de l’Institut Alfred Wegener pour la recherche polaire et marine (AWI), pas question de se résoudre à cette perspective.

    Chaque année, d’avril à septembre, les chercheurs de l’AWI et leurs partenaires russes de l’Institut de recherche sur l’Arctique et l’Antarctique de Saint-Pétersbourg et de l’Institut Melnikov du permafrost de Iakoutsk se relaient sur Samoïlov afin d’y étudier l’altération des sols sédimentaires, les transformations du paysage et les interactions entre réchauffement du climat et dégel du permafrost.


    En mission en septembre sur Kouroungnakh, l’île voisine de Samoïlov, un groupe de scientifiques allemands examinent la dégradation d’un type de permafrost très riche en glace.

    Deux tiers de la superficie russe

    L’île, équipée d’une station de recherche moderne financée par l’Institut Trofimouk du pétrole, de géologie et de géophysique de Novossibirsk, est un poste d’observation privilégié : le pergélisol occupe 95 % du territoire sibérien et les deux tiers de la superficie russe. A plus large échelle, les sols gelés couvrent le quart de l’hémisphère Nord, principalement en Alaska, au Canada, au Groenland, en Russie et en Chine.

    L’Europe occidentale se distingue par un permafrost de type alpin, présent dans plusieurs massifs montagneux. D’une composition et d’une géodynamique différentes de celles de son cousin des hautes latitudes, il est sensible, comme lui, aux variations climatiques. Le 23 août, un glissement de terrain provoqué par le dégel du pergélisol a emporté huit randonneurs près du village suisse de Bondo.

    « Le permafrost sibérien est à certains endroits très ancien, pouvant remonter au pléistocène [– 2,6 millions d’années à – 11 000 ans], avance Julia Boike. Il est très froid, à une température de – 9 °C environ, et il est très profond. On en a trouvé à près de 1 500 mètres de profondeur dans le nord de la Iakoutie. »


    Depuis 1998, des chercheurs allemands se relaient chaque année dans le delta de la Léna pour étudier les sols gelés.

    « A Samoïlov, il a pour autre caractéristique d’être relativement stable et très riche en matières organiques avec la présence de tourbières », ajoute l’enseignante-chercheuse avant d’enfiler d’épaisses bottes en plastique, indispensables pour progresser dans la toundra spongieuse qui domine à la surface de Samoïlov. Les jeunes doctorants qui l’accompagnent, ce matin de septembre, embarquent avec elle pour Kouroungnakh. L’île voisine présente d’imposants complexes de glace et un relief modelé par les thermokarsts, ces affaissements de terrains anciennement gelés.

    Les vallées arpentées six heures durant par les chercheurs de l’AWI ruissellent d’eau. « Nous voulons comprendre si l’eau qui irrigue le terrain provient des précipitations saisonnières ou si elle résulte des blocs de glace qui fondent avec la dégradation des sols », explique la géomorphologue Anne Morgenstern, sac à dos rempli d’échantillons d’eau prélevés tout au long du trajet et carnet de notes à portée de main.

    Une sorte d’immense congélateur

    Le réchauffement du permafrost, en Sibérie comme dans les autres régions où les scientifiques ont déployé leurs instruments de mesures, est avéré. Grâce aux capteurs disposés dans plusieurs puits, forés parfois jusqu’à 100 mètres de profondeur, l’équipe germano-russe de l’expédition Léna a enregistré une augmentation de température de 1,5 à 2 °C depuis 2006.

    « On assiste à une réelle tendance au réchauffement dans le sol et à une hausse des températures atmosphériques hivernales, confirme Julia Boike. Si le gradient thermique change, c’est toute la balance des flux d’énergie, d’eau, de gaz à effet de serre qui s’en trouve modifiée. » Un constat préoccupant alors que l’Arctique contribue à la régulation de toute la machine climatique terrestre.

    « Le permafrost est un immense congélateur, schématise Torsten Sachs, du Centre de recherche allemand pour les géosciences (GFZ), qui entame sa huitième mission sur l’île. Si vous laissez la porte du congélateur ouverte, votre pizza dégèle, votre crème glacée fond et les microbes se nourrissent de ces éléments organiques ! » A défaut de denrées consommables, le pergélisol libère des matières organiques qui, soumises à l’activité microbienne, produisent du CO2 en présence d’oxygène ou du méthane en milieu anaérobique, à l’instar des tourbières de Samoïloov.

    Ces deux gaz à effet de serre (GES) participent à l’élévation de la température qui entretient la destruction du permafrost et le largage de GES. La communauté de la recherche périglaciaire, qui nomme le phénomène « rétroaction liée au carbone du pergélisol », estime que les sols gelés stockeraient 1 500 gigatonnes de carbone, le double de la quantité de carbone dans l’atmosphère.


    Sur une des îles du delta de la Léna, ce forage, qui descend à 100 mètres de profondeur, permet d’étudier l’évolution des températures des sols gelés.

    Réchauffement supplémentaire

    Dans quelle proportion de dioxyde de carbone et de méthane le carbone relâché par les sols en dégel se fait-il ? Sachant que le méthane crée 25 fois plus d’effet de serre sur un siècle que le CO2. « C’est l’un des grands débats à venir », confesse Gerhard Krinner, chercheur CNRS à l’Institut des géosciences de l’environnement de Grenoble.

    L’inquiétude est d’autant plus forte que les modèles pris en compte dans les scénarios de réchauffement du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) n’intégraient pas, jusqu’à présent, ce mécanisme de rétroaction du pergélisol. « Le réchauffement supplémentaire attribuable au dégel du permafrost est de l’ordre de 10 % », avance Gerhard Krinner. Les émissions du permafrost pourraient ainsi faire grimper le thermomètre de 0,3 °C d’ici 2100.

    Dans le laboratoire de la station de recherche, maintenue à une température constante grâce à la centrale thermique alimentée par trois gros générateurs au bruit assourdissant, les chercheurs scrutent les courbes de ces gaz à effet de serre rejetés dans l’atmosphère. Les pics de méthane se répètent en été, mais l’analyse des données reste un exercice délicat dans ces hautes latitudes. La première période de mesure (2002-2012) s’est faite sans les équipements automatisés dont dispose la base moderne, opérationnelle depuis 2013.

    Trois ans plus tôt, lors d’une visite à Samoïlov, le président russe Vladimir Poutine avait estimé que la coopération germano-russe sur le permafrost méritait des infrastructures plus performantes. Jusque-là, les chercheurs de l’AWI – dont la première mission sur l’île remonte à 1998 – devaient se contenter du strict minimum et se trouvaient contraints de dormir sous des tentes de toile, de se chauffer à partir du bois flotté charrié par la Léna et d’utiliser la cabane des gardes de la réserve comme quartier général.


    Le bâtiment principal de la base de recherche russe, sur l’île de Samoïlov, en septembre.

    A quel rythme ?

    L’hivernage était alors inenvisageable. « On ne pouvait tout simplement pas enregistrer de données en hiver, témoigne Torsten Sachs. Il aurait fallu alimenter le générateur extérieur de l’époque tous les trois jours, parfois par – 40 °C, en pleine nuit polaire. » Les autres limites à l’interprétation des données collectées sont plus classiques. Dix ans constitue une période d’étude trop courte pour dégager une tendance de l’évolution des flux gazeux sur le long terme. Il faudrait aussi multiplier les points d’observation, une gageure en Sibérie, dont la superficie équivaut à plus de vingt fois la France.

    A bonne distance de la nouvelle station, peinte aux couleurs du drapeau russe, l’équipe de l’AWI achève l’installation d’un « igloo » qui accueillera en 2018 le matériel informatique et électrique de la nouvelle tour météorologique. Le cocon de fibre de verre devrait offrir des conditions d’enregistrement stables, à l’abri des rafales du vent ou des tempêtes de neige qui sévissent pendant l’hiver sibérien. Comme les autres édifices bâtis sur l’île, l’igloo a un socle sur pilotis afin d’absorber les mouvements du terrain. En un an seulement, le terrain s’est affaissé de 10 cm autour des piliers de la première tour météo.


    A distance de la nouvelle station de recherche russe, opérationnelle depuis 2013, un igloo en fibre de verre est installé pour protéger les équipements des conditions extrêmes des hautes latitudes.

    « Qu’il existe une interaction entre réchauffement du climat et dégel du permafrost, cela ne fait plus aucun doute », affirme Peter Schreiber entre deux séances d’assemblage des panneaux de l’igloo. « La question, désormais, est d’évaluer à quel rythme le permafrost va continuer de se désagréger et comment la nature va réagir à ce processus », considère l’ingénieur chargé de la station météo.

    La nature reste la grande ordonnatrice face aux bouleversements que subit la Sibérie arctique, estime Fédor Selvakhov. Le chef de la station de recherche veut bien admettre certains changements dans l’environnement qui l’entoure : « Il y a vingt ans, par exemple, il n’y avait pas un seul arbre dans la région, juste la végétation rase de la toundra. En me déplaçant dans le delta l’année dernière, j’ai vu des arbres de 2 mètres de haut. »

    Mais ce Iakoute né au bord de la Viliouï, un affluent de la Léna, ne croit pas aux causes anthropiques du changement climatique. « C’est le cycle de la nature. Il faisait chaud ici il y a deux cents ans, puis il a fait plus froid, et on assiste aujourd’hui à une nouvelle période chaude », soutient-il, à son bureau décoré de fossiles découverts dans les environs.

    Défenses de mammouth

    Quant au pergélisol, « il se réchauffe peut-être, mais pas vite ». « Lorsque l’on extrait du sol une défense de mammouth, on se rend compte que l’autre extrémité, celle encore prise dans la terre, est toujours gelée. C’est bien le signe que le permafrost demeure très froid », argumente le responsable. Conséquence inattendue du dégel des sols du Grand Nord, la chasse aux ossements fossilisés prospère en Sibérie.

    Günter Stoof, alias « Molo », comprend la mentalité de ses amis russes. « C’est la nature qui décide, pas l’homme », soutient le technicien de l’AWI qui a séjourné le plus de temps sur Samoïlov. A 65 ans, il jure que cette saison sera la dernière d’une carrière riche de 48 expéditions en Arctique et en Antarctique. Originaire d’Allemagne de l’Est, il a été le plus jeune membre de l’expédition soviétique de près de deux ans (1975-1977) chargée de construire une base en Antarctique. Il a ensuite multiplié les séjours, seul ou en équipe, dans les régions polaires.


    Günter Stoof, spécialiste des régions polaires, est celui qui a séjourné le plus longtemps sur la station sibérienne.

    Au gré du parcours de Molo, une autre histoire s’esquisse, celle de la coopération entre la RDA et l’URSS pendant la guerre froide. Après la chute du mur de Berlin, un comité scientifique avait été chargé de réfléchir au fonctionnement de la recherche de l’Allemagne réunifiée.Il avait recommandé de maintenir cette expertise polaire et de la structurer autour de l’unité de recherche de l’AWI basée à Postdam. « On y a retrouvé des spécialistes comme Molo ou Christine Siegert, qui avaient vingt ans d’expérience sur le permafrost par leur travail en commun avec les Russes », retrace Anne Morgenstern.

    L’étude des sols gelés s’est propagée en Russie dès le début du XXe siècle, accompagnant les choix stratégiques de Moscou. La politique d’extension vers les territoires de l’Est et du Nord, riches en hydrocarbures et en ressources minières, ne pouvait se faire sans la construction du Transsibérien. Mais pour mener à bien ce projet titanesque, il fallait d’abord développer une science de l’ingénierie sur le permafrost, omniprésent dans ces régions.

    Un Institut du permafrost est créé à Moscou à la fin des années 1930, il est déplacé à Iakoutsk en 1960. La grande ville de l’Est sibérien repose intégralement sur des sols gelés. Deux galeries souterraines (à 4 et 12 m de profondeur), creusées sous les fondations de l’institut, offrent un accès « direct » au pergélisol. Les strates sableuses des parois témoignent de l’histoire géologique de la ville, construite sur une terrasse alluviale de la Léna.


    A 12 mètres de profondeur, une galerie a été creusée sous l’Institut Melnakov, à Iakoutsk, pour observer in situ le permafrost.
    Anthrax et vastes cratères

    De lourdes portes maintiennent la température des galeries sous zéro degré. « Le dégel du permafrost constitue un danger pour la planète, mais à l’échelle de la Iakoutie, pour le moment, il reste assez stable », relativise Mikhaïl Grigoriev, l’un des deux vice-présidents de l’institut, avant d’ajouter : « Dans d’autres régions, en revanche, les effets du dégel sont plus visibles, notamment à Iamal. »

    Après un été 2016 anormalement chaud, la péninsule de l’ouest de la Sibérie a subi une épidémie d’anthrax – pour la première fois en Russie depuis 1941, selon l’Institut d’épidémiologie de Moscou – provoquée par le dégel du permafrost dans lequel la bactérie était conservée. Le territoire de la Iamalo-Nénétsie a fait également la « une » des médias russes après la découverte de vastes cratères. Ils résulteraient là encore du réchauffement du permafrost. « La région est riche en gaz. En dégelant, les sols libèrent des bulles gazeuses qui expliquent ces explosions », analyse M. Grigoriev.

    Aucun phénomène de ce type n’a été, pour l’instant, observé à Samoïlov, ni même en Alaska ou dans le Nord canadien. Un réseau mondial, le Global Terrestrial Network for Permafrost (GTN-P), agrège aujourd’hui les informations de plus de 250 sites. Il a pour double objectif de « mutualiser les connaissances mais aussi valider les nouveaux modèles climatiques », résume Hugues Lantuit, chercheur à l’AWI, l’institution référente du réseau.

    Un nouveau pan de recherche se développe par ailleurs sur le permafrost alpin. La prochaine Conférence européenne du permafrost, en juin 2018, à Chamonix, devrait permettre un état des lieux de ces travaux, bien avancés en Suisse mais encore embryonnaires en France.

    L’érosion côtière et ses impacts économico-sociaux devient un autre sujet de préoccupation, le tiers des côtes du monde entier étant situé dans des zones de pergélisol. En mer de Laptev ou en mer de Beaufort (en Amérique du Nord), l’érosion du littoral atteint à certains endroits plus de huit mètres par an et conduit des communautés villageoises à planifier leur relocalisation. A Samoïlov, la cabane en bois construite près du rivage tient toujours debout. Mais pour combien de temps ?

  • La rigueur scientifique à l’épreuve de la reproductibilité

    http://www.lemonde.fr/sciences/article/2017/10/02/la-rigueur-scientifique-a-l-epreuve-de-la-reproductibilite_5195088_1650684.h

    Les résultats d’une expérience doivent être reproduits pour être validés scientifiquement. Pourtant, ce n’est pas toujours le cas.

    Il y a péril en la demeure. Le « système immunitaire de la science » connaît des ratés, comme le constate le psychologue Chris Chambers dans son livre, The Seven Deadly Sins of Psychology (« Les sept péchés mortels de la psychologie », Princeton University Press, non traduit). Le nom savant de cette défense est « reproductibilité », c’est-à-dire la possibilité de refaire et confirmer une ­expérience. « La reproductibilité et la réplication sont les pierres angulaires de la science. Sans elles, nous n’avons aucun moyen de savoir quelles découvertes sont vraies et lesquelles sont causées par le jeu du hasard, de l’erreur ou de la fraude, précise Chris Chambers, de l’université de Cardiff. On ne vole pas dans un avion qui n’a pas été rigoureusement testé, encore et encore. Il en va de même pour toutes les branches de la science. »

    En 2014, devant l’impossibilité de plusieurs laboratoires à répéter un protocole prétendant obtenir des cellules souches pluripotentes, l’équipe japonaise qui avait clamé la découverte dans Nature est contrainte d’avouer qu’elle a fraudé. La biologiste fautive, Haruko Obokata, a démissionné, et l’un de ses coauteurs, Yoshiki Sasai, pourtant innocenté, se suicidera.

    Idem pour une technique d’édition du génome, qui promettait de faire mieux que la très en ­vogue technique Crispr-Cas9. L’article, publié par Nature Biotechnology en 2016, a été retiré en août, après l’échec de plusieurs équipes à reproduire le résultat.

    Pourtant, en 2005, John Ioannidis, de l’université Stanford, ébranlait la communauté par un article dans PloS Medicine suggérant que « la plupart des résultats scientifiques sont faux », car impossibles à reproduire. De nombreuses expériences de réplication ont depuis été conduites, montrant l’ampleur de la défaillance du système. En 2012, une équipe de la société de biotechnologie Amgen expliquait n’avoir retrouvé les résultats publiés que dans six cas sur 53 en oncologie.

    En 2015, la première initiative du Centre pour la science ouverte aux Etats-Unis tente de reproduire 100 expériences de psychologie et n’y parvient que dans 39 cas. Deux ans plus tard, un programme identique de réplication en cancérologie publie ses premiers résultats. Sur sept études, quatre ont été reproduites, une autre n’a pu l’être et deux restent impossibles à interpréter. Reste encore 29 études à vérifier dans ce projet. Souvent, c’est la mauvaise interprétation de tests statistiques qui les rend fragiles à répliquer.

    Preuve supplémentaire du ­malaise, en mai 2016, Nature ­publiait un sondage dévastateur : 70 % des 1 576 répondants déclarent avoir échoué à reproduire un résultat et même 50 % à refaire leur propre expérience…

    L’heure est si grave qu’en janvier 2017, dix auteurs signent un « Manifeste pour la science reproductible », dans Nature Human Behaviour, appelant à plus de ­rigueur dans les méthodes, les comptes rendus et l’évaluation de la recherche.

    La « crise », comme elle a été baptisée, ne touche pas seulement la psychologie ou l’oncologie. En imagerie cérébrale par IRM fonctionnelle, plusieurs études ont montré que des activations de pixels jugées significatives sont en réalité des faux positifs. L’une de ces études montre qu’en fonction des méthodes utilisées, les images produites peuvent être fort différentes. « Dans mon équipe, nous testons nos méthodes sur plusieurs jeux de données afin d’éviter ces pièges », explique Bertrand Thirion, de l’Institut ­national de recherche en informatique et en automatique.

    En chimie, Raphaël Lévy de l’université de Liverpool cite, dans la revue Médecine/Sciences du 18 septembre, le cas de trois équipes dont les résultats publiés ne sont toujours pas corrigés malgré ses contestations et celles d’autres chercheurs auprès de la revue. « Le système n’encourage pas à la critique ni à la réplication des résultats. Il faut être un peu fou pour s’engager dans ces processus, même si ça ne nuit pas à ma carrière »,témoigne le chercheur. Les revues scientifiques ne sont en effet pas toujours promptes à corriger les erreurs publiées, qui entament leur réputation.

    « Le public a le droit de fonder sa confiance en la science sur la réalité et non sur la fiction. La science est sans aucun doute le meilleur moyen de découvrir la vérité sur le monde et de prendre des décisions rationnelles. Mais cela ne veut pas dire qu’elle ne peut pas ou ne ­devrait pas être améliorée. Nous devons trouver des solutions pratiques face à ses défauts », estime Chris Chambers.

    La liste qu’il propose dans son ­livre ou qui est reprise par le manifeste qu’il a cosigné fourmille d’idées. Comme relever les exigences en matière de rigueur statistique. Ou favoriser la transparence dans les procédures, en donnant accès aux données brutes, images, chiffres, méthodes utilisées… « Il y a encore des freins face à cette ouverture. Pour certains, les données c’est le pouvoir. Pour d’autres, c’est la peur qu’on trouve des défauts dans leur travail, ­regrette Bertrand Thirion. Mais justement, c’est bien de trouver des erreurs, pour pouvoir les corriger ! » Chris Chambers et d’autres ont d’ailleurs lancé en 2016 une charte pour les relecteurs d’articles qui s’engagent à n’évaluer des manuscrits que si les auteurs transmettent leurs données.

    Une autre solution consiste dans les préenregistrements d’expérience, comme pratiqué depuis plusieurs années pour les essais cliniques. Les chercheurs doivent détailler leur protocole et les ­méthodes qu’ils utiliseront pour leur expérience, afin d’éviter la tentation d’adapter la méthode ou les tests aux observations. Des sites comme l’Open Science Framework, lancé par le Centre pour la science ouverte, permettent ­désormais de remplir facilement ce genre de recommandations. Autre idée, défendue par provocation par John Ioannidis en 2014 : sortir des « incitations » à publier à outrance afin de promouvoir les études de réplication, le partage des données…

    « Nous avons la lourde responsabilité publique de veiller à ce que la prochaine génération de scientifiques ne souffre pas des problèmes de ma génération. Ce n’est que ­lorsque la science est aussi ouverte et solide que possible qu’elle peut apporter le maximum d’avantages à l’humanité », ­conclut Chris Chambers.

    Anticiper les problèmes

    En écologie, ce n’est pas encore la crise de la reproductibilité mais on s’y prépare. Un article, disponible depuis août sur BioRxiv, relate la collaboration de 14 laboratoires en Europe pour tester la robustesse de leur domaine face à cette difficulté à valider certains résultats publiés.

    L’idée était de tester si la même expérience, à savoir l’effet d’une légumineuse sur la croissance d’une graminée plantée conjointement, pouvait être strictement reproduite dans différents laboratoires dans les mêmes conditions. « On avait quelques indices que la reproductibilité est inférieure à celle attendue, explique Alexandru Milcu de l’Ecotron à Montpellier et du Centre d’écologie fonctionnelle et évolutive (CNRS), à l’origine de cette collaboration. Il y a des conditions de laboratoire spécifiques qui nous échappent, comme la nature du micro-environnement, le rôle des expérimentateurs… »

    Finalement, cette variabilité a bien été constatée. Mais l’équipe a aussi trouvé une parade consistant à multiplier les expériences avec des plantes aux génotypes différents. C’est contre-intuitif, mais cette variabilité ajoutée et contrôlée « noie » en quelque sorte les spécificités du lieu et augmente ainsi la reproductibilité des expériences. « Il faudra répéter ce genre d’étude. Ce qui au départ était une question de curiosité est devenu fascinant ! », note le chercheur.

  • «  Les grandes revues distordent la science  »

    http://www.lemonde.fr/sciences/article/2017/10/02/les-grandes-revues-distordent-la-science_5195086_1650684.html

    Les fondateurs du site PubPeer plaident pour une évaluation des articles par la communauté scientifique à travers leur libre diffusion en ligne.

    Brandon Stell et Boris Barbour sont tous deux neuroscientifiques au CNRS, respectivement à l’université Paris-Descartes et à l’Ecole normale supérieure à Paris. Ils sont responsables de PubPeer, lancé en 2012 par Brandon Stell, afin de permettre à la communauté scientifique de commenter anonymement des articles déjà publiés. Le site, vu 300 000 fois par mois, comporte désormais 18 170 articles publiés dans 3 231 journaux, enrichis de plus de 56 000 commentaires.

    Que reprochez-vous au système ­actuel de publication de travaux de recherche ?

    Boris Barbour : Les chercheurs sont obsédés par la publication dans des soi-disant grands journaux, parce que le succès d’une carrière ou de la recherche de fonds dépend de ces publications, quasi indépendamment de leur contenu. En fait, les grands journaux distordent la science, car les critères pour être accepté dans ces journaux favorisent la nouveauté extrême, les aspects révolutionnaires… Mais les révolutions sont rares, donc cela conduit des chercheurs à favoriser des projets irréalistes, à exagérer leurs interprétations, et finalement cela trompe le lecteur.

    Brandon Stell : Dans une très grande école, il y a peu, lors d’une réunion des directeurs de recherche, la direction a clairement indiqué que son objectif était d’augmenter son classement en augmentant le nombre d’articles publiés dans les grands journaux. Pourquoi les éditeurs de ces « grands » journaux devraient décider de l’avenir de la recherche planétaire ?

    Trouvez-vous que les travaux ­publiés sont de mauvaise qualité ?

    B. B. : Tous les chercheurs peuvent ­citer des articles dont ils estiment inadmissible la publication, mais c’est bien sûr une petite minorité. Ensuite, il y a toute une gamme de pratiques courantes qui entament la fiabilité de la recherche publiée. Par exemple, dans certains domaines, les méthodes statistiques utilisées pour comparer des hypothèses sont mal comprises. C’est le cas de l’omniprésent test statistique de significativité avec la valeur seuil « p ».

    Il y a aussi la tentation de multiplier les tests et de croiser les variables ­jusqu’à ce qu’on atteigne un seuil de ­significativité suffisant. Quand il y a beaucoup de variables, on peut aussi formuler des hypothèses a posteriori et montrer qu’elles sont « vraies »… Il y a aussi beaucoup de travaux avec des échantillons trop réduits et qui ne permettent pas d’affirmer avec force qu’il y a ou non un effet.

    Mais la science ne se corrige-t-elle pas d’elle-même en permettant ­le retrait d’articles ou en publiant des rectificatifs ou des correspondances entre auteurs… ?

    B. B. : Les journaux ne sont pas du tout enclins à publier des corrections ou des échanges critiques. Beaucoup n’ont aucun système de correspondance permettant la publication de ces critiques. Tous veulent préserver leur réputation et évitent donc de faire état des problèmes. La pression pour publier dans les journaux à fort ­impact, la compétition entre chercheurs pour les postes ou les fonds et les niveaux multiples de conflits ­d’intérêts créent un environnement extrêmement hostile à toute forme de correction de la science.

    B. S. : C’est la frustration qu’il n’y ait pas un forum public pour discuter des problèmes sur des articles publiés qui m’a donné l’idée de PubPeer. On reçoit souvent des courriers de gens au bout du rouleau après leurs échecs à vouloir corriger la science.

    Selon vous, les journaux scientifiques portent une forte responsabilité dans cette situation. Mais ils sont incontournables, non ?

    B. S. : On devrait se moquer de savoir où un travail est publié. On peut se ­passer d’eux ! Il n’y a plus de raisons économiques pour les justifier, puisque aujourd’hui la diffusion numérique n’est pas chère. On peut aussi se passer d’eux pour les services qu’ils proposent comme la recommandation, car beaucoup de sites en ligne ont montré que des algorithmes « sociaux » peuvent grandement faciliter ces processus. Même la revue par les pairs (peer review, en anglais) est devenue un filtre de qualité peu fiable.

    Comment voulez-vous vous passer du « peer review » ?

    B. S. : Croire qu’en deux semaines on peut juger de la qualité et de l’importance d’un travail est souvent illusoire. En plus, ça fait reposer la décision sur quelques personnes [les referees] seulement. Des referees n’osent pas non plus avouer qu’ils n’ont pas compris l’article. Il existe aussi de nombreux biais, de mauvaises habitudes, comme les analyses statistiques déjà mentionnées…

    Il faut inverser le processus – publier d’abord et discuter après. Et il existe déjà un système où les chercheurs ­déposent leurs articles en ligne dans des « archives », ArXiv en physique, bioRxiv en biologie… Ces preprints [prépublications] peuvent ensuite être commentés sur des sites comme PubPeer. Tous ces commentaires et avis d’experts alimenteraient une base de données permettant de se faire une opinion sur un article et d’en découvrir de ­nouveaux, grâce à des algorithmes de recommandations, des alertes automatiques… La multiplication rapide et interactive des commentaires clarifiera les idées mieux que le système de publication aujourd’hui.

    Les expériences de commentaires d’articles n’ont pas eu beaucoup de succès jusqu’à présent. Comment comptez-vous les développer ?

    B. S. : Il faut inciter les chercheurs à faire des commentaires. Après tout, ils font déjà un travail gratuit pour la revue des articles que les journaux leur ­envoient. Nous devons inventer un tel système d’incitation, ce que nous espérons proposer dans quelques mois.

    Votre modèle « sans journal » est-il populaire dans la communauté ?

    B. B. : Assez naturellement, ceux qui ont profité du système existant ne voient souvent pas pourquoi en changer. Les autres, notamment les jeunes, y sont plus favorables. Les choses bougent. Les biologistes déposent de plus en plus de preprints. Ils se mettent aussi à partager leurs données afin de permettre la réplication de leurs résultats. Sur PubPeer, souvent les commentaires consistaient à montrer que des images avaient été copiées, dupliquées, manipulées… Certes, c’est nécessaire, mais maintenant on voit de plus en plus de discussions sur les méthodes, les interprétations, les protocoles. Cela devient plus riche. Tout cela nous mène vers un système où on se focalise à nouveau sur la substance des travaux, où la publication n’est que le début de l’évaluation, et où les chercheurs reprennent le pouvoir sur leur métier.

  • Dans les labos, des petits arrangements avec la science

    http://www.lemonde.fr/sciences/article/2017/10/02/dans-les-labos-des-petits-arrangements-avec-la-science_5195085_1650684.html

    L’impératif de productivité scientifique augmente le risque de mauvaises pratiques. Ce sont le plus souvent les images et les statistiques qui sont manipulées par les chercheurs.

    Copier-coller d’images, bidouillage statistique, exagération des résultats, méconnaissance des méthodes utilisées, lenteur, voire refus, à corriger des erreurs… les arrière-cours des laboratoires ne sont pas toujours reluisantes.

    En juin 2016, dans le journal mBio, un criblage de plus de 20 000 articles tirés de 40 journaux scientifiques a repéré près de 4 % de problèmes avec des images présentes à l’appui des démonstrations. Le taux dépassant 12 % pour un journal de l’échantillon. Les « erreurs » vont de la simple duplication de parties d’images à la retouche frauduleuse en passant par le repositionnement ou l’inversion de certaines parties. Des pratiques pas forcément pendables mais qui demandent à être justifiées.

    La base de données de Retraction Watch, un site lancé en 2010 pour suivre l’actualité des retraits ou corrections d’articles, recense plus de cas problématiques pour « manipulation » d’images que pour « plagiat de texte » (le plagiat d’images existant également !) : 294 plagiats d’articles pour 422 duplications, 305 manipulations et 134 falsifications d’images. Un autre site, PubPeer, lancé en 2012 pour accueillir des discussions anonymes sur des articles déjà publiés, s’est vite transformé en forum de la traque des images manipulées. Ce qui a conduit à bien des corrections et retraits d’articles.

    L’un des drames est « que les reviewers ne regardent pas les images », constate Elisabeth Bik, microbiologiste de la société de génomique microbienne uBiome en Californie et coauteure de l’étude de mBio. Elle pointe aussi un autre problème : l’absence de réactions des auteurs ou des journaux qui publient les articles litigieux. Elle estime avoir signalé plus de 800 cas qui ont conduit à une trentaine de retraits, « mais, dans la grande majorité des cas, je n’ai pas eu de réponses ».

    La spécialiste, pour expliquer ces pratiques, plus ou moins discutables, évoque « l’erreur, le manque de temps pour faire les expériences de contrôle, la précipitation à publier ou l’envie de cacher des choses ». Elle est aussi tombée sur des récidivistes ayant plus d’une vingtaine d’images retouchées, preuve de dysfonctionnements plus graves. Dans un nouvel article à paraître, elle a mis en avant des corrélations. La pression à publier augmente le risque de mauvaises pratiques, tandis qu’un contrôle « social » plus important, c’est-à-dire l’existence de règles ou de sanctions, le limite. Pour résorber ces problèmes, la chercheuse est engagée dans la mise au point de logiciels de détection automatique de retouche d’images, dont commencent à se doter les éditeurs.

    Les chercheurs savent aussi s’arranger avec les statistiques, l’outil qui leur sert à analyser leurs résultats leur permet surtout de clamer une découverte (l’absence de découverte faisant rarement l’objet de publication). Le 1er septembre, plus de 70 chercheurs ont appelé dans Nature Human Behaviour à « redéfinir la significativité statistique ». Pour eux, « les standards statistiques pour revendiquer une découverte sont tout simplement trop bas dans beaucoup de domaines de la science ». Et ils appellent à relever ces standards. A commencer par le plus connu d’entre eux, la valeur-p. Le « standard » veut qu’un test statistique mesurant la différence entre deux hypothèses et donnant une valeur-p inférieure à 5 %, soit significatif et donc digne d’être publié.

    Premier problème, depuis des années, des chercheurs ont alerté sur le fait que certains ignorent la définition même de cette valeur-p. Beaucoup croient ainsi que ce paramètre désigne la probabilité qu’un résultat expérimental soit un faux positif. Mais ce n’est pas vraiment le cas.

    David Colquhoun de l’University College à Londres l’a expliqué en 2014 dans un article de la Royal Society, avec l’exemple d’un test de détection d’une maladie. Une valeur-p de 5 % signifie que, si quelqu’un n’est pas malade, alors le test trouvera qu’il a 5 % de chance de l’être (faux positif). Mais cela ne dit pas qu’elle est la probabilité d’être malade. En prenant un taux de prévalence de 90 % par exemple pour cette maladie le chercheur calcule que le taux réel de faux positif atteint 36 % ! La valeur-p seule peut donc induire de fausses interprétations. Néanmoins, plus on fixe un seuil bas, plus ce taux de faux positif baissera. Idem si on augmente la taille de l’échantillon.

    Mais alors que la génétique ou la physique ont fixé des seuils autrement plus drastiques pour p (dix à cent millionièmes), des disciplines comme la recherche biomédicale, la psychologie, l’économie… restent accrochées à ce 0,05. En mars 2016, une étude de John Ioannidis dans JAMA notait la présence de valeur-p dans un tiers des résumés d’articles parus en 2014 dans 151 revues médicales les plus importantes et dans près de 40 % des essais cliniques. Petite bizarrerie, déjà constatée par d’autres : les valeurs-p rapportées ont une forte tendance à se concentrer autour de 0,05, le fameux seuil.

    C’est sans doute que les chercheurs sont passés maître dans l’art du « p-hacking », c’est-à-dire l’art de trouver la bonne méthode afin de tomber sous le seuil fatidique. « Certains surexploitent les données et essaient jusqu’à ce que ça marche », explique Bertrand Thirion, spécialiste en neurosciences à l’Inria. « Ce n’est pas de la triche délibérée mais, comme les chercheurs ont fourni beaucoup d’efforts pour faire les expériences, ils veulent trouver quelque chose et font “vibrer” les méthodes. » Chris Chambers, dans son livre The Seven Deadly Sins of Psychology « Les sept péchés mortels de la psychologie » (Princeton University Press, non traduit), détaille avec regret ces mauvaises pratiques. « Les effets du p-hacking sont clairs, remplissant la littérature scientifique avec des hypothèses faites après l’expérience, des fausses découvertes, et des impasses de recherche », écrit-il.

    Pour améliorer la fiabilité, les auteurs de l’appel de Nature Human Behaviour recommandent dans un premier temps de baisser le seuil à 0,005 et évoquent aussi l’existence d’autres critères ou méthodes statistiques. Ce problème de la valeur-p est fortement lié à une plaie de la recherche, « la crise de la reproductibilité ».

    L’art de tordre la réalité

    Le « spin » est le nom donné par les Anglo-Saxons à la pratique qui permet de présenter les conclusions sous un jour plus beau que la réalité. Il peut se faire lors du passage de l’article au communiqué de presse, mais aussi de l’article scientifique à son résumé par les auteurs, comme l’ont mis en évidence de nombreux travaux.

    Ainsi le 11 septembre, dans PLOS Biology, une équipe de l’université de Sydney a analysé 35 études sur le spin et a confirmé que la pratique est répandue. Dans les articles rapportant des essais cliniques, plus de la moitié, 57 %, présente des gauchissements de la réalité. En 2014, une autre étude constatait que 40 % des communiqués de presse contiennent des exagérations et que, dans ces cas-là, 58 % des articles de journaux mentionnant ces travaux exagèrent aussi…

    Les tours de passe-passe consistent à surinterpréter les conclusions, ou à exagérer la portée d’un test statistique. Ou bien à mettre en avant un résultat secondaire pour suggérer un bénéfice d’un traitement. Ou encore à attribuer, sans preuve, une cause à un effet.