/2015

  • Erwin Chargaff, Amphisbène, 1963

    http://sniadecki.wordpress.com/2015/12/03/chargaff-amphisbene

    Le chapitre 11 est un pot pourri d’une multitude de conversations auxquelles j’ai pris part au cours de ces dernières années ; il s’agit, bien entendu, d’un assemblage de plusieurs de ces conversations, une sorte de collage : personne ne pourrait être individuellement aussi obtus.

    Je ne doute pas qu’il y aura des gens pour penser qu’il est par trop déplacé et frivole de faire usage, à propos de problèmes scientifiques, de l’humour, de la satire et même des jeux de mots, ces hoquets métaphysiques du langage. Mais la critique devrait s’exercer à plusieurs niveaux ; et la critique de certains concepts de la science moderne, et en particulier de ses aberrations, a pratiquement disparu à une époque où elle est plus nécessaire que jamais ; où la polarisation de la science est si avancée que l’on « fait » désormais « campagne » pour des récompenses scientifiques comme pour des élections politiques ; où les conférences scientifiques commencent à ressembler aux discours à thème des congrès politiques ; où le reportage scientifique a remplacé les potins intimes d’Hollywood ; où la force de conviction des applaudissements s’est substituée à celle de la vérité ; à une époque où les cliques s’appuient sur la claque. L’émergence d’un Establishment scientifique, d’une élite de pouvoir, a donné naissance à un phénomène remarquable : l’apparition de ce que l’on peut appeler des dogmes 1 dans la pensée biologique. La raison et le jugement tendent à capituler face à un dogme ; mais c’est une erreur. Tout comme dans la vie politique, une attitude flegmatique cache souvent un point faible. Il est impératif de critiquer, de la manière la plus rigoureuse, les spéculations scientifiques qui se font passer pour des dogmes. Cette critique doit venir de l’intérieur ; mais elle ne peut être que celle d’un dissident.

    #biologie ; #critique_techno ; #technoscience

    Rapport avec l’actualité :
    http://www.lemonde.fr/sciences/article/2015/11/30/le-genie-genetique-face-au-risque-eugeniste_4820662_1650684.html

    les financiers salivent à la perspective de pommes qui ne noircissent pas ou de pesticides rendus inoffensifs pour l’homme,...

    On peut lire à la fin du dialogue écrit par Chargaff :

    V : Et alors vous obtiendrez effectivement la véritable « ingénierie de l’humain ». Une fois que vous saurez altérer à volonté les chromosomes, vous serez en mesure de façonner le Consommateur Moyen, l’utilisateur prévisible de telle ou telle savonnette, celui sur qui l’on peut compter pour inhaler goulûment tel gaz toxique. Vous aurez fait à l’humanité un cadeau à côté duquel la bombe d’Hiroshima n’était qu’un inoffensif œuf de Pâques. Et vous parviendrez enfin à l’écologie de la mort. A l’image de qui cet homme nouveau sera-t-il conçu ? Je n’ose y penser.

    Merci @rastapopoulos et @enuncombatdouteux pour m’avoir signalé l’actu sur #Crispr-CAS9.

  • Climat : une académie sous influence

    http://www.lemonde.fr/sciences/article/2015/11/30/climat-une-academie-sous-influence_4820870_1650684.html

    Cette lettre est sèche comme un coup de ­trique. Elle mesure tout juste six lignes sur un écran d’ordinateur, mais à sa suite s’enquillent six pages de signatures. Le 1er juin dernier, ils sont près de 200 astrophysiciens français à écrire à d’autres astrophysiciens, leurs pairs qui siègent à l’Académie des sciences. Ils sont abasourdis. «  C’est avec stupeur que nous avons appris par voie de presse la teneur de certains débats se tenant à l’Académie au sujet de l’avis qu’elle doit émettre sur le changement climatique (…), écrivent-ils. Astrophysiciens ou planétologues comme vous, nous sommes consternés qu’une position niant la réalité du réchauffement climatique an­thropique puisse encore être soutenue à l’Académie, face à l’accumulation objective des preuves et dans une démarche déontologiquement douteuse.  »

    La missive n’accusait pas ses destinataires  : elle enjoignait plutôt aux astrophysiciens membres de l’Académie de monter au combat. «  Nous mesurons avec effroi les dégâts qu’une telle position pourrait produire, quelques mois avant la COP21, si elle venait à s’exprimer dans l’avis officiel de l’Académie, précisaient les chercheurs. Vous avez tout notre soutien pour que l’Académie émette un avis sans ambiguïté.  »

    Des proches de Claude Allègre

    Aujourd’hui, plus personne ne doute de la réalité et des causes humaines du changement climatique en cours. Plus aucune institution scientifique – ni dans les grands pays producteurs d’hydrocarbures, ni n’importe où d’ailleurs – ne les remet en cause. Plus aucune ? Pas tout à fait. l’Académie des sciences française, un petit groupe d’irréductibles – pour la plupart proches deClaude Allègre – résiste encore et toujours au consensus scientifique. (...)

    Avec l’imminence de la COP21, le psychodrame était inévitable. Il s’est irrémédiablement produit. En 2014, un an avant la conférence de Paris, l’Académie forme un groupe de dix académiciens – dit « groupe COP21 » – avec pour mission de préparer un avis sur le climat, en appui des négociations qui se tiendront l’année suivante. Au sein du groupe, le géophysicien Vincent Courtillot soutient une position climatosceptique. « Les premières ​réunions du groupe se sont très mal passées, le ton est monté, et il a été rapidement clair que le groupe ne parviendrait pas à se mettre d’accord », dit un académicien qui, comme presque tous ceux interrogés par Le Monde, a requis l’anonymat – à l’Institut, semble-t-il, règne un surprenant climat de peur.

    « Problème déontologique »

    Personnage flamboyant, grand orateur, habitué des médias, Vincent Courtillot est l’ancien bras droit de Claude Allègre. Fin 2014, ce spécialiste mondialement reconnu du magnétisme terrestre présente en séance publique de l’Académie des séries de courbes et de données supposées soutenir ses idées sur le climat. Des courriels assassins circulent. Le climatologue Edouard Bard, académicien et membre du groupe COP21, met crûment en cause la déontologie de son collègue. « Tu as remontré cinq planches de tes travaux de 2008, 2009, 2010 qui ont tous été réfutés dans plusieurs articles expertisés par les pairs », écrit-il à Vincent Courtillot, en copie à tant d’académiciens que l’interpellation devient largement publique. La présentation de travaux invalidés pose « un problème déontologique », notifie le professeur du Collège de France, qui ajoute en substance qu’une bonne part de la présentation de son adversaire est soit tirée d’une fausse revue scientifique éditée en Chine, soit inspirée d’un blog climato​sceptique...

    M. Courtillot n’a pas répondu. Lourde ambiance sous la coupole.
    Sans surprise, le groupe COP21 a fini par se désintégrer. Il aura suffi de deux articles de presse racontant le pataquès, l’un dans Le Monde, l’autre dans le mensuel La Recherche, pour que le groupe cesse de se réunir sans avoir accouché du moindre avis. Fin de l’histoire ? Pas tout à fait. « Dans la dernière semaine d’octobre, nous avons été estomaqués de recevoir dans nos boîtes aux lettres électroniques, par la bande, un projet de texte non signé de huit pages dont on ne sait pas qui l’a rédigé », raconte un membre de l’institution. Dans un message adressé au Monde, M. Courtillot suggère que tous les membres « ou presque » du groupe COP21 « ont mis la main à telle ou telle partie de cet avis ». Selon nos informations, plusieurs membres du groupe n’ont pourtant pas été officiellement informés de l’existence du document. « L’avis n’a en aucun cas été rédigé par le groupe COP21 », confirme de son côté le physicien Edouard Brézin, membre du groupe en question et ancien président de l’Académie.

    La version de travail est ensuite ramenée de huit à quatre pages, au terme de « 24 itérations », précise M. Courtillot. Mais plusieurs académiciens interrogés par Le Monde dénoncent l’opacité du processus. Et pour cause : dans cet avis sur le climat, il est au final très peu question de climat. Car une fois le texte ramené de huit à quatre pages, la plupart des considérations exclusivement
    climatiques ont disparu. « La 24e mouture [du texte] a été discutée et débattue devant l’assemblée plénière des membres (environ 100 présents) et diverses modifications ont été apportées en séance, précise M. Courtillot. Il n’y a pas eu unanimité sur la partie climatique, mais en revanche une quasi-unanimité sur les conclusions en matière d’énergie, jugées être la partie la plus importante de l’avis. »

    Un avis passé inaperçu

    « Au départ, on devait avoir un avis sur le climat, ensuite c’est devenu “climat et énergie”, et en réalité on se retrouve avec un avis qui porte essentiellement sur l’énergie, grince de son côté un académicien. Ce qui est complètement ridicule puisque l’Académie a déjà rendu un avis sur la transition énergétique en début d’année... »

    L’avis du 3 novembre transpire à grosses gouttes le compromis âprement négocié : aucune référence explicite à la responsabilité humaine dans le réchauffement en cours, aucune mention des projections climatiques conduites par la communauté scientifique, aucune caractérisation des risques posés le réchauffement... L’avis est discuté en assemblée générale le 3 novembre, mis au vote et adopté par 78 % des membres présents. ​Publié le jour même, il passe remarquablement inaperçu, nul ne l’ayant jugé ​digne d’intérêt... « Le texte n’est tout de même pas honteux, tempère M. Brézin. Au moins, nous avons évité le pire. »

    Ce n’est pas l’avis de tous, certains académiciens n’ayant pas de mots assez durs pour qualifier l’avis pris en définitive. Comment expliquer l’influence des climatosceptiques à l’Académie des sciences ? Pour comprendre, il faut faire un saut de cinq ans dans le passé.
    On s’en souvient : début 2010, Claude ​Allègre publiait L’Imposture climatique (Plon), l’un des best- sellers de l’année, dans lequel il accusait la communauté des climatologues d’être une « mafia » usant de diverses tricheries et de « méthodes totalitaires » pour imposer l’idée du réchauffement anthropique... « C’était une situation incroyable, se souvient le climatologue Eric Guilyardi (CNRS, université de Reading). Toute une communauté scientifique, qui se faisait insulter à longueur d’émissions de télévision, attendait que ses tutelles réagissent... et pendant de longues semaines, il ne s’est rien passé. »

    Crever l’abcès

    Les chercheurs en sciences du climat se sont en définitive défendus eux-mêmes, avec une initiative sans précédent dans l’histoire de la recherche française : plus de 600 scientifiques signant une lettre collective qui dénonçait les « accusations mensongères » de deux de leurs éminents pairs – Claude Allègre et Vincent Courtillot, membres influents de l’Académie... Interrogée, la physicienne Catherine Bréchignac, secrétaire perpétuelle de l’Institut, relativise et rappelle en substance que l’histoire des sciences est émaillée de violents affrontements : la farouche opposition de Marcelin Berthelot (1827-1907) à la théorie atomiste ; ou encore les virulentes passes d’armes sur la théorie de Jacques Benveniste (1935-2004), la célèbre « mémoire de l’eau »...

    « La démarche scientifique est faite de discussions, et maintenir la diversité intellectuelle est important, dit le chimiste Bernard Meunier, président de l’Académie des sciences. Nous ne souhaitons pas le formatage des esprits. Il n’y avait que du temps de l’URSS qu’on ne trouvaitque des avis avec des majorités absolues. »

    Au risque de calomnier ses adversaires ? En 2010, saisie par 600 chercheurs furieux d’être insultés, la ministre de la recherche d’alors, Valérie Pécresse, ordonne à l’Académie d’organiser un débat scientifique contradictoire sur le climat. Il fallait crever cet abcès.
    Sont invités une brochette de chercheurs spécialistes de la question, dont Eric Guilyardi. Peu de choses ont filtré de la réunion, mais dans un livre très récemment publié (Que feriez-vous si vous saviez ? Des climatologues face à la désinformation, Le Pommier, 190 pages, 17 euros), le chercheur raconte les dessous du débat : « aucune transparence dans la préparation des réunions », « processus d’invitation obscur », « contributions, écrites à l’avance, interdites de diffusion », « échanges menés à huis clos, aucun journaliste n’ayant été admis », « prises de parole organisées en fonction des luttes internes »... Quant au débat lui-même, « il n’a pas semblé vouloir dépasser le niveau du Café du commerce », raconte Eric Guilyardi, qui note toutefois que « de nombreux académiciens ont aussi fait barrage » aux climatosceptiques.

    Une Fondation soutenue par EDF, Alstom, Schlumberger et Cristal Union

    « Le sommet est atteint par un académicien qui se lève pour affirmer avec assurance que “les climatologues disent n’importe quoi puisqu’ils avaient prévu une glaciation dans les années 1970, qui n’est pas arrivée !” », écrit Eric Guilyardi. Curieux, des climatologues l’interrogent pour connaître ses sources. « L’académicien, gêné, finit par avouer, à la pause-café, qu’il tire cette information du film catastrophe Le Jour d’après [de Roland Emmerich], qui vient de passer à la télévision... » Le débat accouchera dans la douleur d’une brève déclaration, là encore âprement négociée et dénuée de toute référence scientifique, reconnaissant du bout des lèvres le consensus : oui, le ​climat se réchauffe, et oui, les activités humaines en sont responsables...
    Mais quelques mois plus tard, alors que les braises de la polémique sont encore vives, l’Institut de France accepte, à la demande de Claude Allègre, d’abriter une nouvelle fondation dont il est fondateur, la Fondation Ecologie d’avenir...

    Bronca immédiate. Echaudés par les scandales à répétition autour du climat, une soixantaine d’académiciens, dont l’ancien président, le physicien Edouard Brézin, s’adressent fin octobre 2011 au chancelier de l’Institut, Gabriel de Broglie, pour lui demander de renoncer au projet. « Comme vous le savez, notre confrère Claude Allègre est pour l’opinion française le porteur du climatoscepticisme, écrivent-ils. Alors qu’à l’évidence le changement climatique est sans doute l’une des thématiques majeures nécessitant des actions immédiates pour préserver l’environnement et permettre l’adaptation des sociétés humaines. »

    En vain. La Fondation Ecologie d’avenir, soutenue par EDF, Alstom, Schlumberger et Cristal Union, sera bien abritée par l’Institut. A la condition – surprenante pour une structure destinée à traiter d’environnement – de s’abstenir d’aborder la question climatique. Un engagement qu’elle a jusqu’à présent respecté...
    Mais plusieurs de ses membres appartiennent aussi aux instances exécutives de l’Académie.

    A commencer par Catherine Bréchignac, qui ne fait pas mystère de ses penchants climatosceptiques. Ou encore le président Meunier qui, « n’étant pas spécialiste du climat », ne se prononce ni en faveur ni en défaveur du consensus scientifique. Dans son édition de juin, La Recherche notait ainsi que deux des quatre membres du bureau, le saint des saints de la société ​- savante, appartiennent à la Fondation Ecologie d’avenir. En outre, ajoutait le mensuel scientifique, sur les quatorze académiciens membres de la fondation, plusieurs siègent au comité restreint – deuxième instance dirigeante de l’Académie...
    Comme promis, la fondation ne s’exprime pas sur la question climatique. Ses membres, eux, ne s’en privent pas, bien qu’aucun ne soit spécialiste en la matière.

    Une Fondation épinglée par la Cour des comptes

    La fameuse fondation a toutefois du plomb dans l’aile. La faute en revient à la Cour des comptes. Publié en avril, son rapport sur le fonctionnement de l’Institut de France et des cinq académies notait en effet que le « fonctionnement de [cette] fondation apparaît très particulier ». « Aux termes d’une convention conclue avec une association, dénommée “Association Ecologie d’avenir Claude Allègre”, l’ensemble des dépenses de la fondation, notamment pour l’organisation de colloques, transitent par cette association, créée à cet effet et présidée par un autre membre de l’Académie des sciences », détaillent les magistrats de la Cour, jugeant « injustifié » un tel montage. Avec quelque perfidie, les « sages » de la rue Cambon ajoutent : « L’association, au demeurant, est une structure légère ; elle compte un seul salarié, proche parent du fondateur [M. Allègre]. » Le chancelier de l’Institut de France, Gabriel de Broglie, n’a pas donné suite aux sollicitations du Monde.

    Le chimiste Christian Amatore, académicien, membre de la fondation et président de l’association Ecologie d’avenir de Claude Allègre, est, lui, scandalisé par la mise en cause de la structure créée par Claude Allègre. Il dit avoir démissionné de certains de ses mandats à l’Académie « pour ne pas risquer que des propos tendancieux dont les connotations sont diffamantes rejaillissent sur [ses] actions ». « Le résultat de cette présentation calomnieuse de la fondation et de l’association a été que le chancelier a décidé de supprimer tous les moyens de financer des employés sur les comptes des associations liées aux fondations de l’Institut, ajoute M. Amatore dans un message au Monde. En conséquence, j’ai dû licencier Laurent Allègre [proche parent de Claude Allègre] et n’ai engagé personne à sa place, ce qui de facto a stoppé l’organisation des colloques. » Pour autant, le climatoscepticisme qui règne sous la coupole en sera-t-il stoppé ?

  • Le génie génétique face au risque eugéniste

    http://www.lemonde.fr/sciences/article/2015/11/30/le-genie-genetique-face-au-risque-eugeniste_4820662_1650684.html

    En février 1975, un groupe de 150 scientifiques se réunissait à huis clos au centre de conférences d’Asilomar, près de Monterey (Californie), pour réfléchir aux techniques d’assemblage d’ADN d’espèces différentes qui venaient d’être découvertes aux Etats-Unis. De cette rencontre, il était sorti non pas un moratoire sur le génie génétique, mais un cadre rigoureux pour la sécurité des expériences et l’interdiction d’utiliser des organismes dangereux pour l’espèce humaine. C’était la première tentative d’autorégulation de la communauté scientifique. «  La convention constitutionnelle de la biotechnologie », décrit le New ­Yorker dans son édition du 16 novembre. ­Redoutant que des bactéries génétiquement modifiées ne se dispersent dans l’environnement, les chercheurs s’autocensuraient.

    Perspectives vertigineuses

    Quarante ans plus tard, alors que ces craintes ont fait place au spectre du «  bébé sur mesure  », un sommet international se tient à Washington du 1er au 3 décembre sur la modification du génome humain, à l’initiative des Académies nationales de sciences et de médecine des Etats-Unis. La communauté scientifique prend acte de l’emballement de la technologie sur l’«  édition  » du génome et des perspectives vertigineuses qu’ouvre la diffusion des expériences hors des labos traditionnels. Contrairement au huis clos d’Asilomar, elle entend cette fois associer le public à ses interrogations. Un nombre limité de journalistes seront admis à la conférence, mais les interventions seront retransmises en ligne.

    (...)

    Pour les critiques, c’est la « civilisation » ​elle-même qui est en jeu si rien n’est fait pour interdire à l’échelle de la planète les expériences sur les cellules germinales aboutissant à des modifications transmissibles aux enfants et aux futures générations, c’est-à-dire à la création d’humains génétiquement modifiés. Ceux-là, comme les membres du Center for Genetics and Society, de Berkeley, craignent le glissement de la thérapeutique à l’« augmentation » des capacités humaines dont rêvent les transhumanistes.

    Crispr-CAS9, le nouveau « jouet » de biosynthèse

    « Nous voulons être sûrs que la technologie soit utilisée pour traiter les maladies et non pour créer des surhommes », explique Marcy Darnovsky, la directrice de l’organisation, qui est également l’une des représentantes de la société civile à la conférence de Washington. « L’évolution travaille à optimiser le génome humain depuis quelque 3,85 milliards d’années, met en garde Francis Collins, le directeur du National Institutes of Health, l’institution de référence de la médecine américaine, sur le site d’informations spécialisées Stat. Croyons-nous vraiment qu’un petit groupe de bricoleurs du génome pourrait faire mieux sans entraîner toutes sortes de conséquences imprévisibles ? »

    Le sommet intervient à un moment de grande agitation dans le milieu de la biosynthèse. Excitation devant les promesses offertes depuis 2012 par le nouveau « jouet » : ​Crispr-CAS9, l’outil qui révolutionne l’ingénierie génétique en permettant d’effectuer en quelques jours des modifications qui prenaient une thèse de doctorat entière. Un nom abscons (Clustered Regularly Interspaced Short Palindromic Repeats) pour une technologie qui revient à insérer ou éliminer un gène comme un simple copier-coller. Fébrilité à l’idée de ne pas en être alors que les chercheurs font miroiter la possibilité d’éradiquer le paludisme, d’éliminer la stérilité masculine, de greffer des organes de cochons modifiés sur les humains (un chercheur a aussi agité la possibilité de modifier le génome de l’éléphant pour ressusciter le mammouth). Et vertige devant les possibilités de dérapages.

    « Dans la communauté, il y a une crainte ​de perte de contrôle », explique Eleonore Pauwels, du projet sur la biologie de synthèse du Woodrow Wilson Center, un institut de politiques publiques financé par le gouvernement américain. Les scientifiques occidentaux s’inquiètent des intentions des ​Chinois (craintes renforcées depuis que l’université Sun Yat-sen a annoncé des expériences sur des embryons humains, certes non viables, en avril 2015). « La Chine fait énormément de séquençage de plantes, d’animaux, d’êtres humains. Elle est vue comme un acteur qui pourrait ne pas jouer le jeu », ajoute l’analyste. Selon les débats préparatoires à la conférence, un millier de laboratoires chinois travaillent déjà avec la technique Crispr. Grande différence avec Asilomar, Pékin est d’ailleurs associé à la conférence, par l’intermédiaire de l’Académie chinoise des sciences.

    Kit pour modification génomique

    Autre source d’inquiétude : la dispersion potentielle de la technique. Crispr-CAS9 (CAS9 est la protéine associée) est réputé être accessible à tout étudiant en biologie. « Que le monde soit prêt ou pas, les organismes synthétiques − virus augmentés de la grippe ou embryons génétiquement modifiés − existent déjà. Même s’ils sont détruits, les instructions pour les créer se trouveront inévitablement sur Internet », s’inquiète le magazine Nature. Sur la plateforme de financement participatif Indiegogo, on trouve un projet de kit pour modification génomique. « Et si vous aviez accès à des outils de biologie de synthèse comme Crispr ? », invite le site, une initiative de Josiah Zayner, un docteur en biologie moléculaire qui collabore à la NASA et entend « démocratiser la science pour que tout le monde y ait accès ».

    Ces « laboratoires communautaires » ne sont pas sans susciter l’inquiétude du FBI. L’un de ses agents, Edward You, de l’unité biologie du directorat des armes de destructions massives, est bien connu du milieu. On pouvait le croiser début novembre à la conférence organisée par SynBioBeta, l’organisation financée par l’industrie des biotechnologies, à San Francisco. Il était venu assurer auxchercheurs que « le gouvernement est là pour les aider » à limiter les « risques potentiels » et à opérer « en toute sécurité ».

    A l’inverse, les financiers salivent à la perspective de pommes qui ne noircissent pas ou de pesticides rendus inoffensifs pour l’homme, en attendant de pouvoir le faire plus ouvertement à propos de modifications du génome humain. Ils viennent de remporter une victoire : après dix-neuf ans d’efforts, le saumon génétiquement modifié pour grossir à vitesse accélérée vient d’être approuvé pour la consommation humaine aux Etats-Unis − premier animal dans ce cas. D’après Paul Berg, l’un des instigateurs d’Asilomar, c’est la différence avec les années 1970. A l’époque, relevait-il dans un texte de 2008 publié par Nature, les chercheurs étaient principalement issus d’institutions publiques. Maintenant, beaucoup de scientifiques choisissent le privé, où le principe de précaution n’est pas tout à fait le même. « On n’a pas arrêté le développement de l’électricité parce qu’il y avait un risque d’incendies », insistait le bio-entrepreneur Michael Flanagan. « Notre travail, c’est de préserver le droit à l’innovation », ajoutait Catherine Barton, ingénieure environnementaliste chez DuPont, le géant de l’agrotechnologie.

    Pente glissante

    Au printemps, Jennifer Doudna a plaidé, dans le magazine Science, pour un moratoire temporaire sur les expériences sur le génome de l’embryon, une initiative qui ne fait pas l’unanimité car elle pourrait conduire à limiter les financements. Dans le New Yorker, la biologiste fait part de ses états d’âme. « Quand j’aurai 90 ans, est-ce que je serai satisfaite de ce que nous avons accompli avec cette technologie ? Ou est-ce que je souhaiterai n’avoir jamais découvert comment elle
    fonctionne ? »

    La communauté scientifique est divisée quant à l’évaluation des risques par rapport aux bénéfices. Les uns soulignent qu’aucun des scénarios de cauchemar des années 1980 ne s’est réalisé et que les techniques qui effrayaient l’opinion, comme la fertilisation in vitro, sont aujourd’hui monnaie courante. Marcy Darnovsky réfute cet argument. « La fertilisation in vitro ne modifiait pas l’être humain pour des générations. »

    La bioéthicienne craint « la stratification sociale » qu’entraînerait inévitablement un laisser-faire généralisé sur le génome : seuls les plus fortunés pourraient avoir accès à l’« amélioration » de leur progéniture. Pour le professeur Paul Knoepfler, du département de biochimie de l’université de Californie à Davis, la pente est glissante. « Il y a déjà des exemples de chiens et de cochons aux muscles génétiquement renforcés. Cela pourrait être une tentation irrésistible pour certains parents. Si nous allons sur ce terrain, il sera difficile de conserver la confiance du public. »

    Mais la technologie Crispr est « très séduisante », reconnaissent les chercheurs. Pour Eleonore Pauwels, tel est l’enjeu du sommet de Washington : « Parviendrons-nous à contrôler notre hubris devant la tentation de transformer − et contrôler − une mécanique aussi complexe que le génome humain ? »

  • Matière et antimatière, étrangement similaires

    http://www.lemonde.fr/sciences/article/2015/11/09/matiere-et-antimatiere-etrangement-similaires_4805904_1650684.html

    Au commencement, quelques «  pouièmes  » de seconde après le Big Bang, le monde était double, composé d’autant de particules que d’antiparticules, c’est-à-dire des sœurs quasi identiques, comme peuvent l’être un objet et son image dans un miroir. Le «  miroir  » est cependant particulier, car il inverse notamment la charge électrique des particules sans toucher à leur masse.

    Mais quelques autres pouièmes de seconde plus tard, les antiparticules ont disparu   ; seules les particules sont restées, donnant naissance à la matière que nous connaissons, faite de protons, de neutrons, d’électrons…

    La brisure de ce miroir primordial est l’un des plus grands mystères de l’origine de l’Univers. Sans elle nous ne serions pas là : matière et antimatière, quand ­elles se rencontrent, s’annihilent, laissant seulement du rayonnement derrière elles… L’antimatière, sur Terre, n’existe plus que fabriquée sur commande.
    De nombreuses expériences ont tenté et tentent encore de comprendre la cause de ce basculement. Le miroir magique doit avoir un défaut et autoriser d’infimes différences de comportement entre particules et antiparticules.

    Chou blanc  !

    Une équipe internationale baptisée STAR, travaillant sur l’accélérateur de particules RHIC de Brookhaven aux Etats-Unis, vient de faire une nouvelle tentative, en mesurant pour la première fois l’écart entre la force agissant entre deux protons et celle qui agit entre deux antiprotons. Chou blanc  ! comme elle l’explique dans ​Nature du 5 novembre. Cette force est la même dans les deux cas : les deux types de particules s’attirent pareillement.

    Cela peut surprendre, car le proton porte une charge positive et deux charges électriques de même signe se repoussent. Sauf que, dans l’expérience, les deux particules sont si proches, quelques millionièmes de milliardième de mètre, que l’interaction électromagnétique ne domine pas et est même dix fois plus faible qu’une autre force, l’interaction dite forte. Celle-ci colle entre eux les trois quarks qui composent les protons ou les neutrons, et attire les protons (ou les antiprotons) entre eux.

    « D’autres expériences avaient déjà estimé cette force de manière indirecte en fabriquant des deutérons, composés d’un proton et d’un neutron, et des anti-deutérons, mais là c’est la première mesure directe de cette force. C’est donc un résultat important », indique Michael Doser du CERN, spécialiste des questions d’antimatière.

    Au RHIC, les chercheurs ont créé les antiprotons en percutant à grande vitesse des noyaux d’or. En six mois, 5 milliards d’antiparticules ont été produites en gerbes. Si ces jets s’étaient répartis aléatoirement autour du point de collision, cela aurait signifié que les antiprotons n’interagissent pas entre eux. Mais ils ont observé qu’ils partent préférentiellement par paires, et que donc ils s’attirent. « Nous avons vérifié que l’interaction forte est semblable entre matière et antimatière », souligne Aihong Tang, le porte-parole de l’expérience STAR.

    Auparavant, des comparaisons portant sur la force électromagnétique, la masse ou d’autres propriétés avaient abouti aux mêmes conclusions. « La brisure de cette symétrie reste un mystère. Nous allons maintenant améliorer encore notre précision », indique Aihong Tang, satisfait, car ces mesures servent également à mieux cerner l’interaction forte qui, même sans le problème de l’antimatière, reste mal comprise.

    Au CERN, une demi-douzaine de projets sont en cours pour tenter aussi de casser le miroir. Des expériences veulent sonder l’intérieur de l’anti-hydrogène (un anti-proton avec un anti-électron gravitant autour) pour vérifier qu’il réagit comme l’hydrogène. D’autres, dont Aegis sur laquelle travaille Michael Doser, veulent voir si les anti-atomes tombent vers le bas, comme les atomes, ou vers le haut. Ou s’ils tombent, comme c’est plus probable, légèrement différemment. Réponse à partir de 2016.

  • Le génome d’un vieil Éthiopien chamboule l’histoire des migrations d’Homo sapiens
    http://www.lemonde.fr/sciences/article/2015/10/08/le-genome-d-un-vieil-ethiopien-chamboule-l-histoire-des-migrations-d-homo-sa

    L’Afrique, berceau de l’homme moderne, est généralement considérée comme une terre d’#émigration. C’est d’#Afrique qu’#Homo_sapiens a commencé, il y a 125 000 à 60 000 ans, son irrésistible conquête du reste du monde. Avant lui, en étaient déjà sortis les ancêtres d’Homo erectus, et on soupçonne plusieurs épisodes migratoires hors d’Afrique plus ou moins réussis dans la préhistoire humaine. Mais on évoque bien plus rarement des mouvements de populations dans le sens inverse.

    La description du génome complet d’un Éthiopien vieux de 4 500 ans suggère pourtant que les Africains vivant aujourd’hui tiennent une part importante de leur hérédité (jusqu’à 7 %) d’ancêtres ayant pratiqué l’agriculture au Moyen-Orient. Ces travaux, publiés dans Science vendredi 9 octobre, et dirigés par Andrea Manica (université de Cambridge) donnent accès pour la première fois au #génome entier d’un Africain ancien. Un exploit, car le climat chaud et humide empêche généralement la préservation de l’ADN sur ce continent. Mais la grotte de Mota, dans l’ouest de l’Ethiopie, a fait exception.

  • Le ciel et la terre, unis pour liquider les dinosaures

    http://www.lemonde.fr/sciences/article/2015/10/01/le-ciel-et-la-terre-unis-pour-liquider-les-dinosaures_4780456_1650684.html

    Alors, volcans ou météorites ? Depuis vingt ans, Capulets et Montaigus des géosciences se rendaient coups pour coups. Trop lente, étalée sur plusieurs millions d’années, l’activité volcanique ne pouvait à elle seule avoir refroidi la planète, disaient les uns. Trop précoce, la météorite aurait dû tuer les dinosaures 300 000 ans plus tôt, répliquaient les autres. Sitôt avancés, les arguments étaient corrigés. Ainsi les « volcanos » affinaient leur séquence et établissaient la brutalité de certains phénomènes magmatiques. Quant aux « astéros », ils ramenaient le décalage à… 32 000 ans, une broutille à l’échelle géologique. Les combattants semblaient infatigables. Analyses chimiques, études géologiques, modélisations, datations : chaque congrès international leur offrait l’occasion de ferrailler, au point de lasser une partie de la communauté scientifique.

    Pour les Américains, la météorite aurait non seulement projeté son fameux nuage, mais aussi provoqué une phénoménale onde sismique. « L’équivalent d’un tremblement de terre de magnitude 11 », assure Paul Renne. De quoi fragiliser la lithosphère de l’autre côté du globe ? Mark Richards en est persuadé. « Le système volcanique était déjà très actif, et il a continué longtemps après l’impact », interdisant tout retour en arrière, concède le chercheur. Deux criminels, donc. « Mais l’impact a manifestement eu des conséquences sur le régime volcanique », ajoute-t-il. Autrement dit, un commanditaire ? « On va encore pouvoir discuter », sourit Frédéric Fluteau.

  • Les Chinois, prêts pour le dopage du QI in utero

    http://www.lemonde.fr/sciences/article/2015/09/21/les-chinois-prets-pour-le-dopage-du-qi-in-utero_4765853_1650684.html

    Des expérimentations récentes ont augmenté les capacités intellectuelles de souris en modifiant la séquence de leur ADN. L’augmentation des capacités cognitives pourrait être prochainement démontrée chez le singe. Seraient-elles acceptables dans l’espèce humaine  ?

    Une polémique scientifique animée oppose les partisans de l’interdiction de la modification des embryons humains à des groupes favorables à ces manipulations. Dans un avis du 4 septembre, le groupe Hinxton (un réseau international de chercheurs, de bioéthiciens et de politiques) affirme que la modification ­génétique des embryons humains serait une «  valeur inestimable  » pour la recherche.

    Les Chinois sont de fait les plus permissifs en ce qui concerne ces technologies et n’auraient aucun complexe à augmenter le QI de leurs enfants par des méthodes biotechnologies.

    La première manipulation génétique portant sur 86 embryons humains a d’ailleurs été menée en avril par des scientifiques chinois, qui ont publié leurs travaux juste après la médiatisation d’une pétition internationale opposée à ces expérimentations ! Les pays où régnera un consensus sur l’augmentation cérébrale des enfants pourraient, lorsque ces technologies seront au point, obtenir un avantage géopolitique considérable dans une société de la connaissance. Le philosophe Nick Bostrom, de l’université d’Oxford, estime que la sélection des embryons après séquençage permettrait en quelques décennies d’augmenter de 60 points le QI de la population d’un pays. En ajoutant la manipulation génétique des embryons, on pourrait obtenir une augmentation encore plus spectaculaire.

    Cette perspective est vertigineuse et effrayante, mais la pression sociale pour faire du neuro- enhancement (« augmentation cérébrale ») va aller croissant avec le développement de l’intelligence artificielle (IA). Sebastian Thrun, l’inventeur de la Google Car, explique dans The Economist du 5 septembre que, « à cause de l’efficacité croissante des machines, il va être de plus en plus difficile pour un être humain d’apporter une contribution productive à la société. Les machines pourraient nous dépasser rapidement.

    Les chauffeurs routiers vont être parmi les premiers à être remplacés par les machines, mais aucune profession n’est à l’abri ». Il considère dès lors qu’il faut tout faire pour nous donner une chance face à l’IA. Cette angoisse vis-à-vis de l’intelligence artificielle devrait conduire la plupart des parents à accepter les technologies d’augmentation cérébrale pour leurs enfants dès qu’elles seront au point. Les jeunes Chinois n’ont pas fini de revendiquer le droit au neuro-enhancement !

  • Pédiatres, psys ou enseignants, ils appellent à « éloigner les tablettes des enfants » (Lemonde.fr)
    http://www.lemonde.fr/sciences/article/2015/09/14/les-tablettes-a-eloigner-des-enfants_4756882_1650684.html

    En janvier 2013, l’Académie des sciences, dans son rapport «  L’enfant et les écrans  », exprimait un avis favorable concernant l’utilisation des tablettes par les jeunes enfants. Plus de soixante chercheurs avaient vivement réagi.

    Malgré leurs protestations, force est de constater que cet objet dont les effets mériteraient d’être soigneusement étudiés se retrouve de plus en plus fréquemment dans les mains des bambins, que ce soit dans la sphère privée ou publique (crèche, école maternelle).

    […]

    Aujourd’hui, nous, psychologues, orthophonistes, psychiatres, pédiatres, enseignants, bibliothécaires, infirmières scolaires, chercheurs et parents, faisons le même constat que celui qui a été fait pour la télévision  : la tablette cause de sérieux troubles chez l’enfant lorsqu’elle devient le principal outil de stimulation.

    Nous observons que l’usage intensif de la tablette  :

    1 - augmente les troubles de l’attention  ;
    2 - retarde l’émergence du langage  ;
    3 - entrave la construction du principe de causalité et des premières notions de temps  ;
    4 - altère le développement de la motricité fine et globale  ;
    5 - nuit à une socialisation adaptée.

    #éducation #NTIC #tablettes

    • La suite ici :

      Ce constat, nous l’avons fait en comparant de nombreux enfants avec d’autres moins exposés, ou en étudiant des enfants dont la consommation a été réduite à la suite des limitations que nous prescrivons.

      Des effets sur l’attention La tablette capte fortement l’attention involontaire  : l’image, attrayante visuellement, rapidement changeante et accompagnée de sons, fascine l’enfant. Elle est une source d’excitation. La machine encourage constamment des pseudo-réussites, y compris dans les actions violentes. En captant l’attention de l’enfant, la tablette retarde l’émergence de compétences capitales telles qu’un langage riche, une sociabilité adaptée, une motricité harmonieuse. Elle vole le temps aux activités nécessaires à leur ­développement.

      Des effets sur le langage De plus en plus d’enfants consultent pour des retards de langage. Et parmi eux, beaucoup ont l’écran comme principale source de stimulation. Cela procure une certaine tranquillité aux parents, mais c’est au détriment de l’interaction verbale, cruciale dans cette période de la vie et indispensable à l’acquisition du langage. Les programmes prétendument «  interactifs  » ne permettent pas l’échange propre à la communication humaine. Aucune machine ne permet de contact visuel ou de langage adressé à l’enfant. Or c’est l’attention qui lui est portée qui permettra à l’enfant de découvrir qu’il est quelqu’un. «  J’ai appris à dire “Je” parce que l’on m’a dit “Tu”  ».

      Des effets sur la constitution de la notion de temps et de causalité Par son action répétée sur des objets réels, l’enfant extrait des lois physiques essentielles à l’intégration du concept de causalité. Le ballon roule si je donne un coup de pied dedans. Cette expérimentation est impossible via l’écran et peut même être biaisée  : le carré peut rouler, l’œuf tomber sans se casser… Par l’observation des objets réels, l’enfant découvre la notion de temporalité  : les feuilles des arbres jaunissent en automne, le jouet jeté se casse et ne se répare pas, les hommes meurent. Le virtuel de l’écran entrave cette découverte essentielle. Enfin, la tablette, par l’illusion de satisfaction immédiate qu’elle procure, évince l’expérience psychique cruciale de la contrainte. L’immédiateté de la réponse fournie par la tablette nuit aux apprentissages nécessitant la planification, la stratégie, le détour, c’est-à-dire l’acceptation d’une frustration momentanée, d’un plaisir retardé.

      Des effets sur la motricité fine et globale Face à une tablette en continu, le bébé ne peut développer sa motricité globale. D’une part, il reste assis sans pouvoir explorer son environnement  ; d’autre part, face à toute surface plane, il a l’illusion d’être devant une tablette en tapotant dessus  ! Devant des objets «  réels  », il est souvent désemparé, limité et étonnamment maladroit.

      Enfin, l’école signale de plus en plus de difficultés de graphisme Les cabinets de psychomotricité ne désemplissent pas. Entre feutres et ­tablette, pas d’hésitation  : l’enfant choisit ce qui scintille, brille et bouge  ! Or, les activités graphiques sur tablette ne sont pas substituables à l’entraînement papier-crayon. L’ajustement tonico-postural exigé par le maintien du crayon, le souci de ne pas déborder de la feuille, d’adapter la force du tracé… constituent autant de contraintes structurantes, inexistantes avec la tablette, qui rectifie d’elle-même les erreurs.

      Nous faisons ces constats auprès de nos patients, de nos élèves, de nos propres enfants. Nous tirons ces conclusions de nos observations quotidiennes de terrain.

      L’observation majeure est que la tablette, comme tout écran, crée un phénomène d’emprise de l’enfant par la captation de son attention. Il se trouve alors coupé de ses expériences sensorielles, essentielles pour appréhender le monde qui l’entoure, coupé de la relation langagière, cruciale pour apprendre à parler et à penser par soi-même, amputé de la nécessaire mise à distance entre soi et les objets, utile au développement de l’imaginaire, de la capacité à être seul et de la conscience de soi.

      Des dangers des objets numériques, les créateurs tel Steve Jobs en avaient une très nette conscience. Le patron d’Apple reconnaissait imposer une limitation drastique pour ses propres enfants, et bien d’autres géants du numérique ont fait le choix d’écoles déconnectées pour leur progéniture.

      Combien de temps faudra-t-il attendre pour que nous adoptions les mêmes recommandations de limitation pour tous les enfants  ?

      Sabine Duflo, psychologue en centre médico-psychologique (CMP) pour enfants et adolescents. Jacques Brodeur, enseignant, fondateur d’Edupax. Janine Busson, enseignante, fondatrice d’Enfance-télé : danger ?, initiatrice de la Semaine sans écran en France. Emmanuelle Deschamps, orthophoniste en CMP enfants. Bruno Harlé, pédopsychiatre. Erik Osika, pédiatre, référent de « J’élève mon enfant », de Laurence Pernoud. Anne Pinault, enseignante en RASED.

    • Bah. Est-ce que les enfants concernés auraient eu un meilleur développement sans les tablettes. Pas si sure. Pour stimuler les gamins, faut pouvoir passer du temps avec eux, et c’est pas en subissant les horaires décalés, par exemple, ou les boulots physiques épuisants qu’on peut être disponible et plein d’entrain. #class_war

    • @supergeante cela s’ajoute aux problèmes de temps disponibles pour ses enfants, à mon avis. Ce n’est pas un remplacement. Les problèmes évoqués ici adviennent aussi chez les enfants des classes aisées, financièrement et/ou culturellement. Quoique je supputerais (sans preuve aucune) que pour les classes aisées culturellement ce sont justement celles qui font gaffe à limiter les temps d’écran et à passer du temps avec les gosses (comme d’hab ya des exceptions dans tout mais je suppose une tendance comme ça).

      Quand il y a des gros changements techno, ça s’applique à la société entière, même s’il y a des disparités suivant les classes. Quand bien même tu ferais attention chez toi, les gosses vont par exemple être obligé d’utiliser les tablettes dès la primaire, pour des résultats à venir plus que douteux. C’est comme pour les problèmes de sexisme : ça infuse toute la société, et tu as beau faire de ton mieux dans le foyer, il y a toutes les influences extérieures (amis, familles, écoles, médias, publicités, etc).

      #critique_techno d’ailleurs, au fait.

  • « Des calculs de probabilité ont produit des erreurs judiciaires »

    http://www.lemonde.fr/sciences/article/2015/09/14/des-calculs-de-probabilite-ont-produit-des-erreurs-judiciaires_4756815_16506

    Leila Schneps, mathématicienne et auteure de romans policiers, a écrit avec sa fille Coralie Colmez Les Maths au tribunal (Seuil, 288 p., 20 €). Elles y passent en revue dix cas dans lesquels la science des nombres a joué un rôle funeste.

    Les mathématiques ont-elles vraiment produit des erreurs judiciaires  ?

    Absolument. Des erreurs de calcul de probabilité ou autres ont entraîné ces injustices. Un exemple  : aux Pays-Bas, en 2001, une infirmière est accusée de meurtres car elle a assisté à toutes les morts survenues dans son hôpital. Certes, elle avait accès aux médicaments et aux malades, et pouvait avoir voulu abréger les souffrances de ces moribonds. Mais aucun élément matériel n’était disponible. Alors, on a fait un calcul  : étant donné une infirmière qui travaille dans un hôpital de telle taille, quelle est la probabilité qu’elle assiste à tous ces décès  ? On a fait ce calcul n’importe comment et trouvé une probabilité infime  : 1 sur 273 millions.

    Et le résultat  ?

    Elle a été condamnée à la prison à vie. Malgré un appel, puis une cassation. ­Entre-temps, on s’est aperçu que pour certaines morts, elle n’était pas présente, car en congé maladie. Cela changeait tout au calcul, mais on ne l’a pas refait… Il a fallu qu’un statisticien reprenne le dossier pour qu’il soit rouvert. Le 14 avril 2010, elle a été finalement déclarée innocente.

    On peut donc condamner sur de seuls motifs mathématiques ?

    Officiellement, jamais. Là, par exemple, on a trouvé autre chose. Dans son journal intime, l’infirmière mentionnait avoir « cédé à sa tentation ». On a dit qu’il s’agissait d’aider les patients à mourir. En vérité, elle leur tirait les cartes... Il y avait des analyses biologiques, mais elles étaient fautives. Des examens psychiatriques, tous mal faits. Ce sont ces éléments que le juge a retenus. Mais ce qui a été central était bien l’analyse mathématique.

    Pourquoi un tel poids ?

    Parce que les mathématiques ont l’autorité d’une science que l’on croit absolue. Comme si un résultat était juste ou faux et un mathématicien infaillible. Par exemple, quand on analyse une empreinte trouvée sur la scène d’un crime et que l’on constate qu’elle appartient à une personne sur 1 000 dans la population générale. Si l’accusé possède la même empreinte, les gens pensent qu’il y a 999 chances sur 1 000 qu’il soit coupable. Mais ce n’est pas du tout ça ! Cela veut dire que dans une ville de 1 million d’habitants, il y a 1 000 personnes qui possèdent la même empreinte, donc 1 000 coupables possibles, et l’accusé est un de ces 1 000, donc, faute d’autres renseignements, une chance sur 1 000 d’être le coupable. Exactement l’inverse ! Ce raisonnement est si courant qu’il a été baptisé le « sophisme du procureur ».

    Les avocats ne décèlent-ils pas de telles erreurs ?

    Celle-là, de plus en plus. Mais il y en a plein d’autres. Que beaucoup d’avocats laissent passer par incompétence. Ou qu’ils relèvent, mais que le jury n’entend pas. Dans le livre, nous racontons le cas d’un couple mixte accusé de vol sur la seule foi d’un calcul de probabilité. Leur avocat comprend que quelque chose ne va pas. Mais il est tellement maladroit que ça se retourne contre lui, et ses clients sont condamnés.

    Les maths ont-elles pesé dans des procès célèbres ?

    L’affaire Dreyfus, par exemple. ​Alphonse Bertillon, le père de l’empreinte digitale, a affirmé, statistiques à l’appui, que le bordereau à l’origine de l’affaire avait bien été écrit par Dreyfus... Des années plus tard, les trois plus grands mathématiciens de l’époque, Poincaré, Darboux et Appel, ont démontré que ce calcul était basiquement faux.

    L’analyse de l’ADN, star des procès, pose-t-elle des problèmes statistiques ?

    Tout à fait. Les juges pensent que pour analyser de l’ADN, il faut faire appel à des biologistes. Or, si prélever et extraire de l’ADN relève bien de la biologie, l’analyse des résultats qui en ressortent relève de la statistique. Les biologistes utilisent bien souvent des méthodes statistiques beaucoup trop primaires et des logiciels qu’ils ne maîtrisent pas

    Ne vaudrait-il pas mieux laisser les mathématiques hors du tribunal ?
    On ne peut plus, elles sont partout. La solution consiste à éduquer le public et surtout les lycéens, qui seront les avocats et les jurés de demain. Malheureusement, en classe, on continue d’enseigner les probabilités avec des exemples issus du commerce ou des histoires de pots de yaourt. Vous ne pensez pas que les meurtres intéresseraient davantage les élèves ?

  • Les dérapages incontrôlés des maths

    http://www.lemonde.fr/sciences/article/2015/09/14/les-derapages-incontroles-des-maths_4756789_1650684.html

    Stéphan Clémençon se souvient parfaitement de son arrivée à Télécom Paris Tech, en 2007. A sa grande surprise, ce spécialiste en statistiques découvrait un département en souffrance. «  Il fallait remplir les classes avec des cours de maths financières. Un comble pour une école d’ingénieurs en télécom  ! Alors j’ai bataillé un peu pour convaincre que les statistiques pouvaient servir à bien des choses, surtout avec le ­développement des gigantesques bases de données des géants d’Internet. Aujourd’hui, nous refusons du monde  !  »

    Une preuve de plus que les maths sont partout. Mais pas toujours pour le meilleur  ! Une sonde martienne se disloque à cause d’une erreur d’unité métrique de la NASA en 1999. Chômage et ­dettes des Etats explosent depuis 2008 après l’explosion de bulles financières entretenues par des équations douteuses. L’outil de prédiction de la grippe de ­Google, incarnation de la toute-puissance des algorithmes, surestime de près du double l’épidémie de fin 2012 aux Etats-Unis. En janvier 2013, le Fonds monétaire international concède que son modèle a sous-estimé de moitié l’effet des réductions budgétaires sur la croissance de pays en crise. Ce mois-ci, une équipe annonce n’avoir pu reproduire que 39 résultats de psychologie sur 100 étudiés  : les autres n’étaient pas statistiquement significatifs. Et que dire de la dizaine d’erreurs judiciaires imputées à des calculs probabilistes incorrects recensés par Leila Schneps et Coralie Colmez dans leur livre Les Maths au tribunal (Seuil, 288 p., 20 euros)  ?

    « il est normal que cela finisse par ​intéresser des gens », constate Jean-Pierre Kahane, mathématicien de l’Académie des sciences et membre du Comité consultatif national d’éthique. « C’est une illusion de penser que nos travaux ne serviront pas. Le savoir est là, il peut échapper. Mais il ne faut pas perdre de vue le champ d’applications et les hypothèses de ce savoir », estime Jean-Pierre Bourguignon, mathématicien, actuel président du ​Conseil européen de la recherche.

    Car c’est bien plus souvent du mésusage des mathématiques qu’il s’agit. « Avec les sondages, on continue à commettre des erreurs mathématiques de base, explique Jean Chiche, statisticien et chercheur au Centre de recherches politiques de Sciences Po (Cevipof). Par exemple, considérer comme indépendantes des variables qui ne le sont pas : niveau d’études, profession, lieu d’habitation... On écrit “toutes choses égales par ailleurs”, mais les choses ne sont bien souvent pas égales par ailleurs. »

    Devant l’autorité naturelle liée au ​chiffre et à sa prétendue objectivité et neutralité, il est néanmoins tentant de s’emparer de quelques formules magiques. Nous avons choisi trois domaines – connu pour l’un, largement ignorés pour les deux autres –, afin d’en mesurer les conséquences dramatiques.

    Prévoir les risques financiers

    « Des professeurs de maths enseignent à leurs étudiants comment faire des coups boursiers. Ce qu’ils font relève, sans qu’ils le sachent, du crime contre l’humanité. » Lorsque l’ancien premier ministre Michel Rocard lance cette accusation dans Le Monde, le 3 novembre 2008, beaucoup de mathématiciens sont choqués. Les vendeurs des produits financiers ayant conduit à la crise ne sont- ils pas plus responsables que les équations complexes utilisées pour en estimer le risque ? Pourtant, la crise financière a réveillé les consciences et remis sur le tapis les questions de la responsabilité des scientifiques dans l’usage de leurs découvertes.

    Ouvrons la boîte noire. A l’origine de la crise, il y a des produits financiers complexes comme les CDO (collateralized debt obligations), portefeuilles d’obligations d’entreprises et de prêts bancaires. Pour donner un prix à ce mélange hétérogène, les experts ont ressorti un vieux théorème disant que peu ou prou, on pouvait mêler simplement les différentes valeurs de risques de chacun des titres, faisant fi de certaines corrélations dévastatrices, en vertu desquelles le défaut sur un actif pouvait entraîner la chute de l’autre. Le tout adoubé par les agences de notation.

    La suite est connue : peu chers, abondants et bien notés, les CDO ont eu du succès. Mais l’explosion de défaut de remboursement de crédits immobiliers les a fait soudain chuter ; les prix calculés par les formules hasardeuses n’étant pas ​corrects, tout le monde a voulu s’en débarrasser, accentuant la chute.

    Autre erreur commise : une mauvaise perception de l’aléa. Les banques doivent évaluer leur pire perte en cas d’accident « rare » (une chance sur 100 ou sur 1 000 par exemple). Et constituer des réserves, qui immobilisent des fonds. Des modèles ont été proposés, tenant compte des fluctuations des titres, mais escamotant parfois l’amplitude de ces variations. Comme si le constructeur d’une digue évaluait la fréquence d’une crue sans s’intéresser à la hauteur des vagues. Evidemment, cela a marché tant que les variations étaient peu importantes. Mais celles de 2007-2008, ​- exceptionnelles, ont balayé toutes ces ​estimations.

    « Il fallait des réponses rapides et efficaces, on s’est donc borné à utiliser des modèles un peu frustes. Les responsables ont fait comme si les maths étaient solides alors qu’elles reposaient sur des hypothèses non vérifiées », note Stéphan Clémençon, directeur de la chaire « Apprentissage statistique » à Télécom ParisTech. Charles-Albert Lehalle, chercheur à Capital Fund Management, ancien responsable de la recherche dans la banque d’investissement du Crédit agricole, précise : « Les bases mathématiques de ces modèles de risque étaient bonnes, c’est leur application dans des contextes incorrects qui a posé problème. »

    Libérer les détenus

    Prévenir la récidive. Tous les pays occidentaux ont fait de cet objectif une priorité. Aux Etats-Unis, c’est même une obsession. Au point de mettre en doute la capacité de jugement des juges. Ainsi est né, dans les années 1960, le souci d’objectiver les risques de chaque condamné. Désormais, la plupart des Etats américains disposent de systèmes dits actuariels qui dressent un portrait du criminel. La nature des faits et leur nombre y côtoient l’âge, le sexe, les revenus, la situation de famille, le passé criminel des parents, le statut dans l’emploi... De vingt à quarante données sont ainsi enregistrées. L’ordinateur applique alors un modèle statistique dit de « régression logistique ». Et « score » le risque de récidive... « Les juges s’en inspirent pour fixer une peine ou pour accorder une libération conditionnelle, explique Sonja Starr, professeure de droit à l’université du Michigan, dans la revue Law and Economics Working ​Papers. Mais cette décision est prise en fonction de l’histoire du criminel, pas de son histoire criminelle. »

    « Ça donne un sentiment d’objectivité, mais en réalité, cela pose des problèmes innombrables, notamment éthiques », ​insiste Virginie Gautron, maître de conférences à l’université de Nantes. Ainsi, un condamné qui habite dans un quartier à fort niveau de criminalité est considéré comme plus susceptible de récidiver. Il en va de même si ses parents ont été condamnés. « Pire, se désole la chercheuse : comme on sait que les délinquants sexuels ont souvent été d’abord abusés, avoir été victime devient un handicap dans le profil. C’est la double peine. »

    Les problèmes sont également d’ordre pratique, ajoute Seena Fazel, professeur de psychiatrie légale à l’université d’Oxford. Le psychiatre a passé en revue les nombreux algorithmes utilisés. « Leurs résultats sont assez bons pour prédire la faible récidive. Mais très mauvais avec les prétendus individus dangereux : pas loin de 50 % d’erreurs. »
    Faut-il alors les écarter ? « Je l’ai cru mais, j’ai changé d’avis. Parce qu’au​jourd’hui, nous n’avons plus les moyens budgétaires de bien évaluer tous les délinquants par entretien. Il faut toutefois réserver ce profilage aux cas où une erreur n’aura pas de conséquence grave pour celui qui la subit. Donc l’interdire pour l’attribution d’une peine ou d’une remise en liberté, mais l’autoriser pour déterminer l’ampleur d’un suivi psychiatrique, d’un pointage au commissariat ou d’une cure de désintoxication. »

    C’est la position qu’a retenue le syndicat des personnels de l’administration pénitentiaire, le Snepap- FSU. La France teste dans six départements, et avec la plus grande discrétion, des logiciels de
    « scoring » élaborés au Canada. Pour le syndicat, l’outil doit rester « une béquille » à l’usage des éducateurs, donc interdite aux juges. Sera-t-il entendu ?

    Evaluer les profs

    La place des mathématiques agite ​depuis longtemps le monde de l’école. Les littéraires dénoncent leur rôle dans la sélection des meilleurs élèves. Les physiciens, chimistes et biologistes leur reprochent de transformer leur matière en simple objet de problèmes à résoudre.

    Aux Etats-Unis, un tout autre aspect de la science des nombres a créé le tumulte : l’évaluation des enseignants. Les parents réclamaient de « bons profs » ? Les mathématiciens ont proposé leurs modèles dits « à valeur ajoutée ». Le principe en est assez simple, explique la mathématicienne Cathy O’Neil : « Un élève est soumis chaque année à des tests normalisés. On analyse ses résultats précédents, le niveau de sa classe, sa situation familiale et sociale, etc. Et un logiciel très perfectionné, appuyé sur la méthode dite de régression quantile, lui prédit un score. Puis compare avec son résultat au test. Il ne reste plus qu’à rapprocher tous les élèves d’un même prof pour voir l’influence d’un enseignant. »

    Washington, New York, Los Angeles, Chicago... Une à une, les grandes villes américaines ont adopté le modèle dans les années 2000, pour attribuer des primes ou titulariser les meilleurs enseignants et sanctionner les moins bons. « Sauf que ces tests sont biaisés et même inopérants », poursuit Cathy O’Neil, qui, sur son blog, Mathbabe, chasse les abus de sa science préférée.

    Son confrère John Ewing, président de l’association Math for America, a, de son côté, dressé une liste de dysfonctionnements. Il a notamment constaté qu’il n’y avait aucune corrélation entre les résultats d’un professeur avec une classe et avec une autre ; pas davantage dans ses performances d’une année sur l’autre. Or, conséquence dommageable, devant l’importance de cette évaluation, bien des enseignants renoncent aux apprentissages non notés, ceux qui nourrissent la curiosité et le travail en groupe.

    Conscients que « les résultats aux tests ne traduisent pas l’accomplissement d’un élève », pour reprendre la formule de John Ewing, les enseignants de Chicago ont fait grève en 2012 pour dénoncer le poids des modèles mathématiques. Sans grand résultat. Dans les pays anglo-saxons, l’évaluation par valeur ajoutée gagne du terrain. En France, il n’en est, pour l’heure, pas question.

    Quels remèdes ?

    Promis, juré, les nouvelles règles de la finance vont corriger les errements passés. Il est vrai que les garanties demandées aux banques ont été relevées et que des audits plus sérieux des modèles de risque sont diligentés. « Mais la formation continue pèche toujours. Il serait bon aussi de favoriser la mixité entre les jeunes et les plus expérimentés. Trop souvent, les jeunes devenaient opérationnels sans vraiment connaître les produits sur ​lesquels ils travaillaient », suggère ​le chercheur Charles- Albert Lehalle.

    « A la suite de la multiplication des problèmes liés aux statistiques dans des articles scientifiques, les revues ont monté leur niveau d’exigence pour la publication : augmentation de la taille des échantillons, seuil de significativité plus élevé, dépôt des données brutes et des logiciels utilisés pour répliquer l’expérience... », note aussi Jean-François Royer, de la Société française de statistique.
    Leila Schneps voudrait aussi relever le niveau de l’expertise en justice et dans la police scientifique.

    « Il faudrait systématiquement et dès l’instruction faire appel à un statisticien. Et établir une liste de tests statistiques et de logiciels acceptables dans les enquêtes et les procès », affirme-t-elle. L’institut Newton, de Cambridge, consacrera aux mathématiques en sciences criminelles un cycle d’un semestre, en 2016. « Avec une centaine de mathématiciens du monde entier », souligne Leila Schneps. Mais pour l’heure, aucun Français.

    D’autres, enfin, font remarquer que les mathématiques peuvent être la solution aux problèmes qu’elles ont pu engendrer. En effet, analyser les pannes ou les crises demande aussi des outils complexes...
    C’est loin d’être terminé. Car une vague nouvelle se lève, gourmande en maths : le big data. Ce terme générique désigne le traitement et l’analyse d’une grande masse d’informations (traces numériques laissées sur Internet, ensembles de gènes et de protéines, capteurs divers dans l’industrie ou la santé...). Or il n’est plus possible de travailler sur ces nouveaux objets avec de « vieux » outils. Les étudiants l’ont compris, qui plébiscitent les formations de « scientifiques des données » et leur large panel d’applications pour la sécurité (prévision de la délinquance, lutte antiterroriste), la santé et le bien-être (médicaments personnalisés, recherche de nouvelles molécules...), ou l’économie en général (assurances, commerce...). De plus en plus, des automates prendront des décisions ou anticiperont des phénomènes, sans qu’on sache vraiment ce que contiennent ces boîtes noires.

    « Lors des dernières élections américaines, le marketing politique a été très loin, relève Cathy O’Neil. En disposant de l’adresse IP [numéro d’identification attribué à chaque appareil connecté à un réseau informatique] de chaque individu cible, vous pouvez adapter votre site à son profil... C’est l’asymétrie complète : le candidat sait tout de vous, vous ne savez rien de lui. ​Mathématiquement, c’est solide, mais pour la démocratie, c’est un danger. »

    Les dérapages arriveront forcément. Bien entendu, les mathématiciens n’en ​seront pas les seuls responsables. Mais il leur sera impossible de faire comme si ces outils leur avaient juste échappé.

  • Découverte d’un nouveau virus géant en Sibérie

    http://www.lemonde.fr/sciences/article/2015/09/08/decouverte-d-un-nouveau-virus-geant-en-siberie_4748713_1650684.html

    Il a été baptisé « Mollivirus sibericum » parce qu’il est tout mou et qu’il a été trouvé en Sibérie. C’est un nouveau type de virus géant vieux de 30 000 ans. Il a été prélevé par des équipes russes dans l’extrême nord-est sibérien et possède plus de 500 gènes. Il se présente comme une coque oblongue de 0,6 micron de long. Pour se multiplier, il a besoin du noyau de la cellule hôte, ce qui n’est pas le cas du Mimivirus ou du Pithovirus qui se contentent du cytoplasme de la cellule.

    L’analyse de l’ADN contenu dans l’échantillon de pergélisol a permis de confirmer la présence du génome intact de Mollivirus bien qu’à une concentration extrêmement faible.

    Le réchauffement climatique libère en effet de plus en plus de glaces marines polaires, ce qui permet d’accéder à la Sibérie orientale et du nord par des routes maritimes qui n’existaient pas. « Si on n’y prend pas garde et qu’on industrialise ces endroits sans prendre de précautions, on court le risque de réveiller un jour des virus comme celui de la variole qu’on pensait éradiqués », relève M. Claverie.

    Les virus géants, qui ont un diamètre supérieur à 0,5 micron (0,5 millième de millimètre) sont aisément visibles avec un simple microscope optique, contrairement aux autres virus. On peut aisément les confondre avec des bactéries. Les chercheurs les font revivre en laboratoire en se servant d’amibes (organisme unicellulaire) comme cellules hôtes. Ils vérifient auparavant qu’ils ne sont pas pathogènes pour l’homme ou la souris.

    « Quelques particules virales encore infectieuses peuvent être suffisantes, en présence de l’hôte sensible, à la résurgence de virus potentiellement pathogènes dans les régions arctiques de plus en plus convoitées pour leurs ressources minières et pétrolières et dont l’accessibilité et l’exploitation industrielle sont facilitées par le changement climatique », relève le CNRS dans un communiqué.

  • La grivèlerie des animaux
    http://www.lemonde.fr/sciences/article/2015/08/13/la-grivelerie_4723944_1650684.html

    Comme toutes les escroqueries, celle-ci se prépare. Dès le début du mois de mai, la ­femelle se poste à couvert et observe les oiseaux qui l’entourent. Une fois repéré le nid de son choix, elle attend que sa construction soit achevée et que son occupante y ait pondu ses propres œufs. Après quoi, profitant d’un moment d’absence de l’hôte légitime, elle y prélève un œuf, et le remplace aussitôt par celui qu’elle pond.

    Durant le printemps, une seule femelle déposera ainsi une dizaine d’œufs dans autant de nids différents… C’est ce que l’on appelle le parasitisme de couvée.

  • « Une cyberattaque quantique aurait un effet dévastateur sur nos vies »

    http://www.lemonde.fr/sciences/article/2015/08/04/70-ans-apres-hiroshima-une-cyberattaque-quantique-aurait-un-effet-devastateu

    Chercheur en mathématiques, l’Italien Michele Mosca est fondateur de l’Institute for Quantum Computing à l’université de Waterloo (Canada). Il dirige depuis 2012 Cryptoworks21, une structure de recherche rassemblant les universités de Waterloo, de Montréal et de Calgary et consacrée aux outils cryptographiques du XXIe siècle. Michele Mosca figure sur la liste 2010 des 40 leaders de moins de 40 ans au Canada.

    Il répond à nos questions dans le cadre des commémorations de la première bombe nucléaire ayant explosé sur la ville d’Hiroshima, le 6 août 1945.

    1- Le 16 juillet 1945, à l’issue du premier essai nucléaire grandeur nature, dit « Trinity », au Nouveau-Mexique, le physicien américain Kenneth Bainbridge, responsable du tir, a déclaré à Robert Oppenheimer, patron du projet Manhattan : « Maintenant nous sommes tous des fils de putes » (« Now we are all sons of bitches »). Dans votre discipline avez-vous le sentiment que ce moment où les chercheurs pourraient avoir la même révélation a été atteint ?

    Il existe une grande différence entre l’informatique quantique, ma discipline, et l’arme nucléaire : son objectif est positif et non destructeur. Les ordinateurs quantiques font l’objet de recherches intenses, car ils sont censés être extrêmement bénéfiques pour la société.

    L’objectif est d’exploiter l’immense puissance de calcul de la mécanique quantique pour résoudre des problèmes importants de l’humanité : concevoir de nouveaux matériaux plus efficaces – pour capter, stocker ou transporter l’énergie par exemple –, découvrir de nouveaux médicaments, améliorer l’imagerie médicale et le diagnostic, optimiser l’allocation des ressources... La plupart de ces applications sont pacifiques et se concentrent sur l’amélioration de la condition humaine.

    Pour autant, il est vrai que l’utilisation de cette puissance de calcul a un effet secondaire négatif : une partie de la cryptographie utilisée pour notre cybersécurité pour protéger notre confidentialité sera un jour « cassée » par les ordinateurs quantiques. Il est donc nécessaire de développer d’ici là une nouvelle génération d’outils cryptographiques pour parer à d’éventuelles attaques. Ce risque, appelé « quantique », peut être éliminé par une bonne planification, alors qu’il n’existe aucune potion magique pour rendre inoffensives les armes nucléaires. Cependant, si le risque quantique n’est pas neutralisé à temps, son effet sera dévastateur.

    2 - Avez-vous ce sentiment dans d’autres disciplines ? Lesquelles et pourquoi ?

    On peut penser à d’autres armes de destruction massive, telles les armes biologiques. Mais il existe aussi des disciplines de recherche développant des technologies qui peuvent se transformer en armes. Ou dont l’usage peut avoir des conséquences négatives imprévues.
    La diffusion croissante du numérique dans nos vies, de la voiture sans chauffeur à la médecine en ligne, nous rend de plus en plus vulnérables à des cyberattaques. Autre exemple, les cyberoutils pour surveiller, extraire ou analyser des données, utilisés à bon escient, peuvent être détournés par des cybercriminels afin de contrôler certaines personnes ou organisations ou d’en profiter.

    Malheureusement, les mesures de sécurité et de confidentialité nécessaires ne sont pas, dans la plupart des cas, mises en place. Dans le milieu de la cybersécurité, les gens disent souvent qu’il faudrait, pour que cela soit fait de façon sérieuse, qu’advienne un « cyberéquivalent » de Pearl Harbor.

    3 - Quel pourrait être l’impact d’un « Hiroshima » dans votre discipline ?

    Si la cryptographie actuelle était « cassée » sans une solution de rechange, les conséquences seraient catastrophiques. Non seulement une vaste quantité d’informations privées (données de santé, situation financière...) perdraient leur caractère confidentiel, mais des systèmes globaux et critiques seraient anéantis. Pour ce faire, il suffirait qu’un ordinateur quantique soit possédé par une entité hostile, ou alors qu’il soit piraté par elle.

    Dans le cas d’Hiroshima, le terrible bilan a été à la fois immédiat (les conséquences directes de l’explosion) et sur le long terme (l’effet des rayonnements et l’impact culturel et économique). Concrètement, dans le cas d’une cyberattaque quantique, l’impact premier, l’atteinte à nos informations personnelles – nos économies, nos données sur la santé, nos communications – aurait un effet dévastateur sur nos vies. Quant aux conséquences sur les systèmes critiques, elles seraient également immédiates : le système financier mondial pourrait être paralysé, des infrastructures énergétiques deviendraient vulnérables à des attaques. On pourrait imaginer des crashs aériens et ferroviaires, la contamination de réserves d’eau. Sans compter les possibles effets induits sociétaux, tels des actes de violence, à la suite d’un effondrement du système financier.

    4 - Après 1945, les physiciens, notamment Einstein, ont engagé une réflexion éthique sur leurs propres travaux. Votre discipline a-t-elle fait de même ?

    Les risques quantiques ne sont pas encore pour demain et ils sont évitables. Nous pouvons neutraliser la menace avant que la technologie ne devienne disponible pour ceux qui voudraient en abuser.

    5 - Pensez-vous qu’il soit nécessaire que le public prenne conscience des enjeux liés à vos travaux ?

    Il est essentiel que les individus expriment leur désir d’être en cybersécurité. Pour empêcher une cybercatastrophe, nous avons besoin que gouvernements et industriels prennent des mesures dès à présent. Il va falloir des années pour rendre compatibles nos cyberinfrastructures avec la technologie quantique. Il ne s’agit pas d’attendre une catastrophe avant d’agir. Nous ne pouvons pas perdre de temps.

    Cependant, comme ni les conséquences ni les récompenses ne sont immédiates, les mesures nécessaires ne sont pas prises. Volonté politique et incitations commerciales font actuellement défaut. De telles prises de décision nécessitent une certaine clairvoyance, qui sera, à terme, récompensée incommensurablement.

    6 - Quelle est, selon vous, la marge de manœuvre des scientifiques face aux puissances politiques et industrielles qui exploiteront les résultats de ces travaux ?

    Cela varie d’une discipline à l’autre. Là où des antidotes existent à l’utilisation destructrice de leurs travaux, certains scientifiques peuvent travailler dur pour les développer et les diffuser. Le cas échéant, ils peuvent rendre publics de tels risques afin de créer une pression politique pour éviter une telle utilisation.

    En cryptographie, si un mathématicien découvre une façon de mettre en péril un encodage, il peut en faire la publicité sans expliquer la méthode pour « casser » le code. En attendant le temps nécessaire pour remplacer l’encodage.

    7 - Pensez-vous à des mesures précises pour prévenir de nouveaux Hiroshima ?

    Les armes actuelles sont encore plus dévastatrices que celle qui a été lâchée sur Hiroshima. Nous avons fondamentalement besoin de méthodes plus humaines pour résoudre des conflits à l’échelle mondiale.

    Il y a plusieurs années, alors que j’étudiais au Royaume-Uni, deux collègues européens m’ont fait remarquer qu’un aspect précieux des programmes d’échanges étudiants de l’Union européenne était la perspective de créer de « bons Européens » – une aide pour éviter la répétition des guerres dévastatrices que l’Europe a connue. Actuellement, les très nombreux échanges internationaux de jeunes favorisent une compréhension plus profonde des cultures mondiales, des relations se nouent et facilitent dialogue, négociation et coopération. Ce sont des outils inestimables pour conjurer de futures catastrophes.

    Pour d’autres menaces plus subtiles impliquant la morale à l’échelle mondiale, nous avons besoin d’une meilleure culture de la responsabilité. Qui, par exemple, est responsable en bout de chaîne pour faire en sorte que nos cybersystèmes soient protégés contre les menaces à venir ? Qui est responsable des dommages causés si ces cybersystèmes sont détruits ? Les gens devraient poser ces questions le plus souvent possible, et persister jusqu’à obtenir des réponses sérieuses. Ils devraient également vérifier qu’il y a bien une corrélation entre les deux réponses.

    Concernant spécifiquement le risque quantique, industriels et gouvernements du monde entier doivent concevoir, mettre en œuvre, déployer et standardiser de nouveaux outils cryptographiques interopérables et sûrs. La protection de la sécurité et de la vie privée est possible avec cette nouvelle génération de codes.

    Article protégé = Lecture Zen + Imprimer la page + Ouvrir le PDF dans Aperçu ….

    • Il existe une grande différence entre l’informatique quantique, ma discipline, et l’arme nucléaire : son objectif est positif et non destructeur.
      […]
      Les risques quantiques ne sont pas encore pour demain et ils sont évitables.
      […]
      Actuellement, les très nombreux échanges internationaux de jeunes favorisent une compréhension plus profonde des cultures mondiales, des relations se nouent et facilitent dialogue, négociation et coopération. Ce sont des outils inestimables pour conjurer de futures catastrophes.

      Je ne sais pas pourquoi, mais tout cela ne me rassure vraiment pas du tout…

    • Clair qu’il se fourre le doigt dans l’œil jusqu’à l’occiput :

      Nous pouvons neutraliser la menace avant que la technologie ne devienne disponible pour ceux qui voudraient en abuser.

      mais l’article a le mérite de dévoiler un nouveau pan de menaces venant de notre chère #silicon_army

  • Noel Sharkey : « Lorsque des machines répondront à des algorithmes secrets, personne ne pourra prédire l’issue d’un conflit »

    http://www.lemonde.fr/sciences/article/2015/08/03/noel-sharkey-lorsque-des-machines-repondront-a-des-algorithmes-secrets-perso

    Noel Sharkey, professeur émérite d’intelligence artificielle et de robotique de l’université britannique de Sheffield, est président de l’International Committee for Robot Arms Control (ICRAC). Il répond à nos questions dans le cadre des commémorations de la première bombe nucléaire ayant explosé sur la ville d’Hiroshima, le 6 août 1945.

    Le 16 juillet 1945, à l’issue du premier essai nucléaire grandeur nature, dit « Trinity », au Nouveau-Mexique, le physicien américain Kenneth Bainbridge, responsable du tir, a déclaré à Robert Oppenheimer, patron du projet « Manhattan » : « Maintenant nous sommes tous des fils de putes » (« Now we are all sons of bitches »). Dans votre discipline, avez-vous le sentiment que ce moment où les chercheurs pourraient avoir la même révélation a été atteint ?

    Il existe une inquiétude considérable, et grandissante, autour de l’automatisation totale. Ce moment précis où toute activité ou travail humain sera réalisé par des machines. Pour ce faire, celles-ci n’ont d’ailleurs pas besoin de devenir super-intelligentes, comme certains le suggèrent.

    Nous sommes à un moment-clé où nous assistons à une convergence de différentes technologies : le big data, le « machine learning », la vitesse de calcul, la robotique et l’Internet. Et nous semblons nous diriger inexorablement vers ce point imaginaire. Un certain nombre de livres et rapports récents analysent minutieusement les pertes d’emplois actuelles et le possible chômage de masse dans un avenir pas si lointain. La vraie question est de savoir quel niveau de contrôle nous, humains, sommes prêts à céder aux machines.

    La plus grande préoccupation de cette dernière décennie est la direction prise afin de donner aux machines le pouvoir de décider de tuer en temps de guerre. Les robots tueurs ou les systèmes d’armes autonomes sont conçus pour rechercher et trouver des cibles, puis les attaquer avec violence, sans que soit nécessaire une quelconque surveillance humaine. Ces robots ne sont pas des humanoïdes à l’image du personnage de science-fiction Terminator, mais de plus traditionnels tanks, sous-marins, avions de chasse et hélicoptères de combat. La finalité à atteindre est l’automatisation totale pour pouvoir tuer en temps de guerre, du moins pour ceux qui possèdent cette technologie. C’est peut-être la plus grave menace sur la sécurité mondiale qui fait de nous tous des « fils de putes ».

    3- Quel pourrait être l’impact d’un « Hiroshima » dans votre discipline ?

    L’automatisation totale de la guerre apporte tant de problèmes à l’humanité qu’on pourrait la considérer comme quelque chose de pire qu’Hiroshima, en pensant simplement au fait que ces systèmes d’armes autonomes peuvent être équipés d’armes nucléaires.
    Il suffirait qu’une nation décide d’atteindre ce point d’automatisation pour que d’autres suivent rapidement, entraînant une prolifération massive et une nouvelle course aux armements. L’utilisation d’armes autonomes facilite l’entrée dans un conflit et pourrait facilement créer des conflits accidentels qu’aucun humain ne pourrait arrêter. Certaines nations ont déjà discuté ensemble de l’utilisation d’essaims de robots tueurs afin de multiplier la force déployée.

    L’un des impacts les plus dangereux de cette automatisation est la rapidité d’action de plus en plus forte qu’elle procure. Les conseillers militaires disent déjà que la guerre est en train de devenir trop rapide pour que les humains réagissent ou prennent des décisions. Ces pourparlers actuels ouvrent la voie à une automatisation complète en laissant de côté un point important : lorsque des essaims de machines répondront à des algorithmes secrets, personne ne pourra prédire l’issue d’un conflit et l’impact sur le monde civil.

    4- Après 1945, les physiciens, notamment Einstein, ont engagé une réflexion éthique sur leurs propres travaux. Votre discipline a-t-elle fait de même ?

    On sent grandir, chez les roboticiens et chercheurs en intelligence artificielle, une volonté d’examiner les problèmes éthiques qui peuvent découler d’une utilisation de leurs travaux.

    Les grandes organisations professionnelles prennent conscience des problèmes potentiels futurs liés aux systèmes d’armes autonomes. Certaines consultent et sondent leurs membres. La protestation grandit.

    5- Pensez-vous qu’il soit nécessaire que le public prenne conscience des enjeux liés à vos travaux ?

    Cette prise de conscience est nécessaire. D’ailleurs, elle a déjà commencé. Nous sommes plusieurs à avoir écrit pour des publications nationales (magazines, journaux), à avoir donné des interviews... Cette campagne de sensibilisation pour arrêter les robots tueurs rencontre un intérêt croissant de la part du public. Les citoyens ont un pouvoir et ils doivent l’utiliser pour arrêter ces développements moralement odieux.

    7- Pensez-vous à des mesures précises pour prévenir de nouveaux Hiroshima ?

    Oui. Je fais partie de la direction d’une grande campagne internationale pour arrêter les robots tueurs. Elle rassemble 54 organisations non gouvernementales de 26 pays ainsi qu’un certain nombre de Prix Nobel de la paix. Nous venons de travailler à l’Organisation des Nations unies pendant deux années et demie afin d’obtenir un nouvel outil juridique contraignant et international. Ceci pour interdire le développement, les essais et la production de systèmes d’armes autonomes. La France nous a apporté une aide très utile, les progrès sont là mais il reste encore un long chemin à parcourir.

    Cependant, il est difficile de penser à la manière d’éviter l’automatisation complète qui rendra superflu le travail humain. C’est quelque chose à envisager ensemble. La question concerne le degré et les limites du pouvoir que nous voulons céder aux machines, sans perdre les formidables avantages qu’apporte la technologie.

    Article protégé = Lecture Zen + Imprimer la page + Ouvrir le PDF dans Aperçu ….

  • La comète Tchouri, un concentré glacé de germes de vie

    http://www.lemonde.fr/sciences/article/2015/07/30/la-comete-tchouri-un-concentre-glace-de-germes-de-vie_4705355_1650684.html

    Mais Tchouri réservait une plus grande surprise encore. Il apparaît que son noyau est un concentré de molécules organiques. Dans le nuage de poussières soulevé par le premier contact de Philae avec le sol ont été trouvées seize de ces molécules, dont quatre (isocyanate de méthyle, acétone, propionaldéhyde et acétamide) n’avaient jamais été détectées sur une comète. Or, il s’agit de précurseurs de composés plus complexes (sucres, acides aminés, bases de l’ADN…) qui constituent les briques élémentaires du vivant.

    Les comètes, en quasi-permanence congelées et donc dépourvues d’eau liquide, n’abritent évidemment aucune vie. Mais cette découverte conforte l’hypothèse que de la matière organique venue des comètes ait ensemencé les océans terrestres lors de bombardements de notre planète par ces astres. Un – gros – bémol toutefois : l’éventuelle présence de composés organiques complexes sur Tchouri n’a pu être confirmée par les premières analyses.

    Ce qui est sûr, souligne Jean-Pierre Bibring, c’est que « le noyau cométaire est très riche en composés carbonés, qui ne se présentent pas sous la forme de petites molécules piégées dans la glace, comme on le pensait jusqu’à présent, mais de grains suffisamment gros pour résister à un voyage dans l’espace ». Et donc pour avoir pu féconder les océans terrestres. « Le système solaire, ajoute Nicolas Altobelli, est une machine à fabriquer et transporter de la matière organique, et les premiers résultats de Philae nous donnent un aperçu des processus chimiques précurseurs de l’apparition de la vie. »

    #They_live

  • Ce que révèlent les nouvelles images de Pluton
    http://www.lemonde.fr/sciences/article/2015/07/25/ce-que-revelent-les-nouvelles-images-de-pluton_4697787_1650684.html


    Image capturée par la sonde New Horizon alors qu’elle s’éloigne de Pluton, le 14 juillet (publiée le 24 juillet par la NASA).
    Handout / AFP

    Sept heures après être passée au plus près de Pluton le 14 juillet, New Horizons a braqué un de ses instruments optiques sur la planète naine, ce qui a permis de saisir les rayons du Soleil passant à travers son atmosphère. Les images montrent des vapeurs s’élevant jusqu’à 130 kilomètres au-dessus de la surface. Une analyse préliminaire indique deux couches distinctes, une à environ 80 kilomètres d’altitude et l’autre à quelque 50 kilomètres.

    « Ces vapeurs sont un élément-clé pour créer les composants complexes d’hydrocarbone qui donnent à la surface de Pluton sa couleur rougeâtre », a expliqué Michael Summers, un astronome de la mission.

    Les dernières images transmises par New Horizons révèlent aussi des signes de mouvements de glace à la surface de Pluton, qui montrent une activité géologique récente de quelques dizaines millions d’années sur la planète, ce qui a surpris ces scientifiques.

    Dans le nord d’une vaste plaine baptisée « Sputnik Planum », de la taille du Texas, ils ont vu des indices très nets de mouvements d’une plaque de glace de méthane, d’azote ou de monoxyde de carbone dont regorge cette zone. Ces mouvements pourraient se produire actuellement, selon ces chercheurs.
    « De tels phénomènes sont similaires à ceux observés sur la Terre avec les glaciers », a relevé Bill McKinnon, un autre scientifique de New Horizons :
    « Dans la partie la plus au sud de la région en forme de cœur, adjacente à la zone équatoriale qui est sombre et apparemment plus ancienne avec de nombreux cratères, il semblerait que les dépôts de glace soient beaucoup plus récents. Toutes les activités observées sur Pluton tendent à indiquer que cette planète a un noyau dense entouré d’une épaisse couche de glace, ce qui accroît la possibilité de l’existence d’un océan liquide sous cette glace. »

  • Une planète ressemblant à la Terre découverte par la NASA

    http://www.lemonde.fr/sciences/article/2015/07/23/la-nasa-annonce-la-decouverte-d-une-exoplanete-semblable-a-la-terre_4695926_

    « Une autre Terre. » La NASA avait su trouver les mots pour attirer l’attention sur la téléconférence de presse qu’elle a organisée, jeudi 23 juillet, sur les derniers résultats de son télescope spatial Kepler, spécialisé dans la chasse aux exoplanètes, ces planètes situées dans d’autres systèmes solaires que le nôtre. L’agence spatiale américaine a comblé l’attente des amoureux d’astronomie : une nouvelle planète d’une taille proche de la Terre a été détectée par le satellite, pour la première fois dans la zone habitable autour d’une étoile du même type que notre Soleil – mais distante de 1 400 années-lumière.

    Baptisée Kepler-452b, elle porte le nombre d’exoplanètes confirmées à 1 030, indique la NASA, dont le directeur adjoint John Grunsfeld a estimé que sa détection « nous faisait faire un pas de plus vers une Terre 2.0 ». D’un diamètre 60 % plus grand que la Terre, Kepler-452b fait le tour de son étoile en trois cent quatre-vingt-cinq jours et se trouve 5 % plus éloignée d’elle que nous le sommes du Soleil. Elle est donc pile dans la zone habitable, celle où de l’eau liquide, indispensable à la vie, aurait des chances d’être présente.

    L’étoile de Kepler-452 (connue sous le nom de 2MASS J19440088 + 4416392) est âgée de 6 milliards d’années, soit 1,5 milliard de plus que notre étoile, et aussi 20 % plus brillante et 10 % plus grande. Ces résultats vont être soumis à la revue Astrophysical Journal.

    #They_live

  • Leur rythme dans ma peau
    http://www.lemonde.fr/sciences/article/2015/07/21/leur-rythme-dans-ma-peau_4692223_1650684.html

    Dans le fim Un jour sans fin (1993), chef-d’œuvre d’Harold Ramis, Bill Murray se réveille, jour après jour, dans le même monde. Coincé avec horreur dans la routine d’un travail qu’il déteste. Privé, pour l’éternité, de vacances. Cette satire de la répétitivité du quotidien fascine parce qu’elle ressemble à l’expérience vécue. Et qu’elle s’en distingue immédiatement : notre monde est rythmé, et le cycle journalier, dans lequel est coincé Murray, n’en est qu’un parmi de nombreux autres. Pour nous, mortels, chaque moment diffère de l’autre  : il n’y a eu qu’un seul 12 décembre 2012 à 12 h 12. Mais pour la société, au contraire, chaque jour se reproduira de manière cyclique.

    Le sociologue Marcel Mauss, dans son Essai sur les variations saisonnières des sociétés eskimos (1904), s’était intéressé aux changements, entre l’hiver, où la vie est collective dans les igloos, et l’été, où la société est moins concentrée. «  La vie sociale ne se maintient pas au même niveau aux différents moments de l’année ; mais elle passe par des phases successives et régulières d’intensité croissante et décroissante, de repos et d’activité, de dépense et de réparation.  »

    #temps