Sciences - Le Monde.fr

/sciences

    • énorme lobby de Philippe Minard, après son article dans Médiapart, auprès des ministères et des élus, malheureusement complètement décalé avec la réalité de la recherche

      mieux vaut lire

      http://www.lemonde.fr/sciences/article/2016/03/07/pour-une-science-ouverte-a-tous_4878011_1650684.html

      Chercheurs de toutes les disciplines, nous pensons que la littérature scientifique peut sauver des vies, à la condition absolue de son entière et immédiate disponibilité pour tous. Parmi d’autres, le cas du virus Ebola en est un exemple avéré. toutes les disciplines, de la médecine à l’anthropologie, de la biologie à l’économie, de l’épidémiologie à la gestion interculturelle, du droit à l’éthique, auraient dû pouvoir être mobilisées sans délai et sans barrière, pour permettre une réaction adaptée à la complexité et à l’urgence de la situation  : détecter l’épidémie, élaborer un traitement, déployer un plan d’urgence, concevoir une stratégie préventive pour l’avenir, mais aussi prendre en compte la complexité des situations culturelles locales et gérer l’après-épidémie, notamment en abordant la question des survivants et de leur réintégration dans la société…

    • Le vrai titre de l’article est
      L’exploration négligée de la #foutaise
      http://www.lemonde.fr/sciences/article/2016/03/07/l-exploration-negligee-de-la-foutaise_4877956_1650684.html

      Visiblement, le gros mot du titre n’a pas eu droit à la une, mais, pour se rattraper, Pierre Barthélémy en a utilisé deux autres dans le début de l’article (en veillant à la parité, en ce 8 mars…)

      Le matériau à la disposition des chercheurs est colossal. Et le corpus ne cesse de s’enrichir à chaque jour qui passe. Pourtant, peu de scientifiques ont jusqu’ici exploré le continent immense de ce que les Américains nomment le bullshit – littéralement la « merde de taureau » – et que l’on traduirait en français par « connerie  » ou « couille en barre » si ces expressions triviales avaient leur place dans ces vénérables colonnes.

      Précisons que la « connerie » en question ne désigne pas la bêtise des abrutis mais uniquement celle de leurs propos. Il n’y a pour ainsi dire pas de science de la foutaise, et des chercheurs canadiens ont décidé de combler – au moins en partie – cette lacune avec une étude publiée en décembre 2015 dans la ­revue Judgment and Decision Making.

      Un échantillon « objectivement stupide »
      Cette équipe a surtout voulu répondre aux deux questions suivantes  : sommes-nous capables de repérer les âneries, et quelles sont les personnes qui ont le plus de chances de s’y laisser piéger  ? Pour ce faire, elle a mis sur pied une série de quatre expériences au...

      Le reste derrière #paywall

      #prétérition (ou plutôt, postérition si ça existait ;-)

    • (...) Mais, pour tester l’impact des billevesées, encore fallait-il en avoir un échantillon « objectivement stupide » sous la main ! Les auteurs de l’étude ont eu recours à deux programmes générant de manière aléatoire des phrases vides de sens mais grammaticalement correctes, à partir de mots vagues et à la mode.
      Un des logiciels en question mouline les mots utilisés, sur son compte Twitter, par le gourou américain Deepak Chopra, roi de l’aphorisme fumeux et inventeur de la « médecine quantique ».
      La machine peut ainsi vous pondre des phrases suggérant une profondeur en réalité inexistante, comme par exemple « Une simple particule co-crée des faits potentiels » ou « La réalité perceptrice transcende la barrière des molécules ».

      80 % des participants piégés

      Dans la première des quatre expériences, après avoir répondu à un questionnaire et à des tests aux réponses contre-intuitives, les « cobayes » se voyaient présenter dix phrases « bullshitesques ». Ils devaient prendre un moment pour réfléchir à leur signification et les noter sur une échelle de la réceptivité aux propos débiles créée spécialement pour l’occasion. Plus de 80 % des participants ont trouvé ces phrases assez profondes si ce n’est plus...

      Au cours des trois autres expériences, les chercheurs ont complexifié l’exercice en ajoutant des phrases réelles de Deepak Chopra et des phrases réellement profondes. Ce qui n’a pas changé grand-chose : les foutaises ont de beaux jours devant elles. selon l’étude, les personnes les plus susceptibles de ne pas les détecter réussissent moins bien aux tests cognitifs, sont plus ouvertes aux théories conspirationnistes, aux médecines alternatives, aux croyances religieuses et paranormales.

      L’affaire n’en est pas restée là. Dans une réponse publiée en janvier par la même revue, le chercheur australien Craig Dalton émet une objection méthodologique en expliquant que certaines des phrases générées par les automates, bien que vides de sens pour les Occidentaux, peuvent en prendre un pour les personnes ouvertes aux systèmes de pensée orientaux.

      On attend désormais sur le sujet l’avis du philosophe belge Jean-Claude Van Damme, dont on n’a pas oublié le profond « Les cacahuètes, c’est le mouvement perpétuel à la portée de l’homme ».

  • http://www.lemonde.fr/sciences/article/2016/03/01/eve-ne-serait-pas-nee-de-la-cote-d-adam_4874060_1650684.html

    Cela s’appelle le baculum, mot latin qui signifie «  bâton » ou « sceptre  ». De nombreux mammifères mâles en sont pourvus et notamment nos plus proches cousins, les chimpanzés et les gorilles. Il s’agit d’un os inclus dans le pénis qui, lors de la copulation, se révèle pratique pour obtenir une érection rapide, sans attendre que se mette en branle tout le système hydraulique sur lequel la reproduction humaine repose.

    Je trouve qu’il y a parfois des domaines de recherche extrêmement pointus.

  • Les #plantes, ces grandes communicantes
    http://www.lemonde.fr/sciences/article/2016/02/29/les-plantes-ces-grandes-communicantes_4873936_1650684.html

    Le premier exemple, et sans doute le plus spectaculaire, fut découvert dans les années 1990, lorsque le biologiste sud-africain Wouter Van Hoven montra que des acacias avaient tué près de 3 000 koudous dans les ranchs  ! Les arbres s’étaient mis à produire plus de tanins (molécules au goût amer) pour rendre toxique la digestion des feuilles par ces herbivores trop nombreux qui menaçaient la survie des végétaux. Les branches blessées émettaient alors un...

    #paywall #grr #botanique

  • Au CERN, la volonté de « tenter de voir ce que la nature a encore à nous dire » - Fabiola Gianotti
    http://www.lemonde.fr/sciences/article/2016/02/23/fabiola-gianotti-tenter-de-voir-ce-que-la-nature-a-encore-a-nous-dire_487005

    Mais c’est cela, la recherche  ! Elle sert à fouler des territoires vierges, en gardant en tête des questions qui nous guident et motivent les investissements, certaines étant évidentes et d’autres encore inconnues. Il est aussi important que le LHC permette de comprendre quelles sont les bonnes questions de physique à se poser pour la suite.

    Justement, alors que le LHC et ses 27 kilomètres de circonférence n’a que 7 ans, on parle déjà d’un accélérateur géant de 100 kilomètres. Est-ce bien raisonnable  ?

    Oui. Le LHC a été imaginé dans les années 1980 et n’a commencé à opérer qu’en 2009. Il faut vingt-cinq à trente ans pour faire aboutir une idée si ambitieuse.

    #recherche #physique #CERN

  • Les plantes du futur divisent le Haut Conseil des biotechnologies

    http://www.lemonde.fr/sciences/article/2016/02/22/les-plantes-du-futur-divisent-le-haut-conseil-des-biotechnologies_4869725_16

    Le Haut Conseil des biotechnologies (HCB) est en crise. L’ensemble des associations de protection de l’environnement siégeant à son comité économique, éthique et social (CEES) – les Amis de la Terre, France Nature Environnement, Greenpeace, etc. – ont ­annoncé, lundi 22 février, la suspension de leur participation aux travaux de l’organisme indépendant chargé d’éclairer la décision publique sur l’ingénierie ­génétique en général et les organismes génétiquement modifiés (OGM) en particulier. Le CEES, censé représenter les parties prenantes (associations, producteurs, semenciers, etc.), se retrouve ainsi amputé de près du quart de ses membres.

    En cause  : un avis du comité scientifique (CS) du HCB, rendu public début février, avec pour objet les nouvelles techniques de modifications du génome (NPBT, pour «  New Plant Breeding Techniques  »). L’enjeu réglementaire est considérable.

    Actuellement, seules les cultures transgéniques «  classiques  » – obtenues par introduction d’un ou de plusieurs gènes étrangers à la plante – sont classées dans la catégorie OGM et donc soumises à des procédures d’évaluation des risques, de traçabilité et d’étiquetage. Mais en recourant aux NPBT, il est possible depuis quelques années d’obtenir des variétés modifiées pourvues des mêmes propriétés (résistance à des ravageurs, tolérance à des herbicides, etc.) mais en échappant au statut juridique des OGM et à ses servitudes.

    Un avis divergent rejeté

    Selon les associations démissionnaires du CEES, « l’avis du comité scientifique a été tronqué et n’a pas inclus l’avis divergent présenté par l’un des membres de ce comité ». Présenté après une séance de discussion du CS du 16 décembre 2015, l’avis divergent d’Yves Bertheau, directeur de recherche à l’Institut national de la recherche agronomique (INRA), mis à disposition du Muséum national d’histoire naturelle, a été rejeté. En effet, dit Christine Noiville, la présidente du HCB, « les avis divergents doivent être discutés en séance ».

    En 2013, un groupe de travail avait été constitué par le HCB pour plancher sur les nouvelles techniques de modification du vivant. Son rapport devait nourrir la réflexion des experts, en vue d’un avis de l’organisme. « Les membres du comité scientifique ont reçu ce rapport le vendredi 11 décembre 2015 en fin d’après-midi, dépourvu des annexes, pour discussion cinq jours plus tard, soit dans des délais très courts, explique M. Bertheau. En outre, l’ordre du jour spécifiait que ce qui était en discussion était une “note de synthèse” et non un avis formel qui serait transmis au gouvernement. »

    Le chercheur estime que « la procédure a été détournée » (http://www.infogm.org/IMG/pdf/note-hcb_201602-final1.pdf) . « J’ai de profonds désaccords de fond et de forme sur cette note devenue avis, ajoute-t-il. Face au refus que je puisse exprimer mon désaccord, je n’ai eu d’autre choix que de démissionner du comité scientifique. »
    La part belle aux industriels

    Pour les associations, l’avis fait la part belle aux industriels, et suggère, selon elles, que des plantes obtenues par les nouvelles techniques ne devraient pas être soumises au même régime que les OGM.
    « L’avis du comité scientifique se borne à décrire les nouvelles tech niques, à détailler ce qu’elles produisent au plan moléculaire et à dire si elles sont associées à des risques particuliers, répond Jean-Christophe Pagès (université de Tours), président du CS. Le texte précise bien qu’une “traçabilité papier” peut être mise en œuvre, mais cette question sera abordée dans la seconde partie de l’avis. » Celle-ci n’est pas attendue avant le printemps.

    De son côté, Christine Noiville estime qu’« il faut sans doute revoir le fonctionnement du comité scientifique ». « Mais il n’y a pas de censure au HCB, précise-t-elle. J’ai demandé à nos tutelles de nous saisir de manière explicite sur les questions soulevées par Yves Bertheau, ce qui leur donnera une existence formelle et officielle. »
    Pour l’heure, la présidence de l’organisme estime que l’avis publié est incomplet et doit, pour être cité, attendre que sa seconde partie soit disponible. Trop tard, regrettent les associations, pour qu’elle soit prise en compte par les instances européennes, qui doivent se prononcer très prochainement sur le statut de ces nouvelles plantes.

  • Le moustique OGM contre le paludisme

    http://www.lemonde.fr/sciences/article/2016/01/25/le-moustique-ogm-contre-le-paludisme_4853263_1650684.html

    La première fois, il a glissé son badge devant le détecteur sans rien dire. L’ascenseur a pris le chemin du sous-sol. A la porte du laboratoire, il a de nouveau présenté sa clé magnétique, puis tapoté des chiffres sur le Digicode, en s’excusant poliment cette fois. «   C’est un peu fastidieux, mais nous ­devons être prudents  », a murmuré Tony Nolan. Le temps de faire cinq pas. Nouvelle porte, ou plutôt double porte, avec bien sûr le badge, et en prime, cette fois, un immense souffle d’air sur la nuque. «  Jusqu’ici, c’était surtout pour vous empêcher d’entrer  ; là, c’est pour empêcher les moustiques de sortir, a souri le biologiste. Et pour eux, il y a encore deux niveaux de protection.  » Dans la pièce tempérée à 28 °C et 80 % d’humidité, il a désigné la dizaine d’armoires transparentes abritant chacune une quinzaine de petites serres, hermétiquement closes et remplies d’Anopheles gambiae, l’insecte vecteur du paludisme en Afrique. «  Aucun ne doit pouvoir s’échapper… Et surtout pas ceux-là  », a-t-il ajouté, en montrant les deux enceintes barrées de l’inscription «  Gene drive  ».

    Depuis quelques mois, ces deux mots déchaînent les passions dans le monde de la biologie. Ici, à l’Imperial College de Londres, comme dans de nombreuses équipes à travers le monde, on y voit une source d’immense espoir. Le moyen de débarrasser notre planète de certaines des pires maladies parasitaires dont elle est infestée   : la dengue, le chikungunya, le tout nouveau virus Zika, terreur des femmes enceintes, et surtout le paludisme...(...)

    Aux Etats-Unis, l’Académie des sciences, saisie par des citoyens inquiets, devrait se prononcer d’ici peu. L’Organisation mondiale
    de la santé (OMS) comme l’Union européenne restent pour l’instant muettes. Quant à la France, elle a commandé, en urgence, une étude au Haut Conseil des biotechnologies, qui devrait rendre sa copie en juin.

    Mais de quoi s’agit-il exactement ? Pour traduire l’expression anglaise gene drive, Eric Marois, chercheur coresponsable du groupe Anopheles (Inserm/CNRS) à l’université de Strasbourg, a opté pour « forçage génétique ». Il s’agit en effet de violer les fameuses lois de Mendel pour répandre un caractère donné dans l’ensemble d’une population. Lors de la reproduction sexuée, un caractère porté sur un chromosome d’un des deux parents n’a qu’une chance sur deux d’être transmis à la génération suivante. Le forçage génétique consiste à dépasser ce seuil et transmettre ce caractère à 100 % de la descendance.

    Imaginez alors : vous introduisez dans une population d’anophèles quelques moustiques porteurs d’un gène de résistance au paludisme. Les insectes qui en sont pourvus ne permettent plus au plasmodium, le parasite qui provoque le paludisme, de se développer dans leur organisme. Ils ne transmettent donc plus la maladie. Chaque fois qu’un animal modifié s’accouple avec un animal « normal », toute la descendance devient résistante. En quelques générations, le tour est joué.

    L’idée de combattre l’animal par lui-même ne date pas d’hier. Dans les années 1950, les entomologistes américains Raymond Bushland et Edward Knipling conçoivent la technique dite des mâles stériles. Elle consiste à noyer une population d’insectes sous un torrent de mâles stériles. Les femelles ne s’accouplant généralement qu’une fois dans leur vie, la population décline de façon vertigineuse. Cette méthode permettra dans les trois décennies suivantes de venir à bout, dans plusieurs pays africains et américains, de la terrible lucilie bouchère, cette « mouche dévoreuse d’hommes » dont les larves transforment de simples coupures en plaies ouvertes et purulentes. Sauf que l’irradiation utilisée avec succès pour stériliser les mouches laisse les moustiques largement infirmes. Incapables, en tout cas, de rivaliser avec les mâles sauvages.

    Née à l’université d’Oxford, la start-up Oxitec a alors proposé une technique similaire fondée, cette fois, sur le génie génétique. Les mâles modifiés transmettent à leur progéniture un gène qui bloque leur développement. Les larves meurent avant leur maturité. Expérimentée depuis six ans sur le moustique de la dengue dans certains pays (Malaisie, îles Caïman, Brésil), la méthode présente de nombreux atouts. Mais aussi un sérieux défaut : elle impose de relâcher une immense quantité d’insectes. « Il faut les produire, c’est très coûteux, avance Andrea Crisanti, directeur du laboratoire de Tony Nolan à l’Imperial College. Or le paludisme est essentiellement une maladie de pays pauvres. Avec notre méthode, quelques dizaines d’individus peuvent venir à bout d’une population. »

    Leur méthode, c’est donc le fameux « forçage génétique ». Vingt ans qu’Andrea Crisanti et Tony Nolan couraient après ce Graal. En 2003, leur collègue Austin Burt avait démontré qu’en utilisant certains gènes dits « égoïstes », on pouvait modifier les caractères de toute une population. Mais la preuve n’était encore que théorique. Des fondations, en quelque sorte. Restait à construire la maison. Tony Nolan est d’abord parvenu à intégrer dans le génome d’un moustique un gène de fluorescence transmissible. Puis à différencier, toujours grâce à la fluorescence, mâles et femelles. En 2011, enfin, le laboratoire d’Andrea Crisanti réussissait à intégrer dans le génome de plusieurs Anopheles gambiae le tout premier élément de forçage génétique. En associant celui-ci avec la fameuse fluorescence, ils apportaient la preuve qu’en douze générations, tout une cage d’anophèles était transformée. La revue Nature honorait leur découverte. « Mais notre dispositif était très lourd, consent Crisanti. Pas toujours très précis. Et puis Crispr est arrivé. »

    Beaucoup a été écrit sur cette nouvelle technique, aujourd’hui au centre d’une guerre des brevets, capable de transformer une partie du génome de manière rapide, soigneuse, et pour un coût dérisoire. L’équivalent de la tronçonneuse chez des bûcherons habitués à abattre les arbres à la hache. Son principe : on introduit dans le génome une « cassette » à trois compartiments : un guide (ARN) qui va reconnaître la portion d’ADN à couper, une protéine (Cas9) qui sert de ciseaux, et éventuellement un gène synthétique supplémentaire pour exprimer un caractère désiré. Et pour peu que cette cassette soit placée au bon endroit, elle va se transmettre de génération en génération, chaque chromosome déjà modifié se chargeant de transformer son homologue encore intact. Du copier-coller à la chaîne, en quelque sorte. « a a bouleversé la donne, nous nous sommes tous jetés dessus », se souvient Eric Marois.

    A ce petit jeu, l’équipe d’Anthony James, de l’université de Californie à Irvine, a tiré la première. Dans la revue PNAS, elle publiait, fin
    novembre 2015, un article proposant un dispositif permettant d’intégrer le fameux gène de résistance au Plasmodium falciparum – responsable du plus dangereux des paludismes – dans le génome d’Anopheles stephensi, principal vecteur de la maladie dans le subcontinent indien. Quinze jours plus tard, Crisanti et Nolan dégainaient à leur tour, cette fois dans Nature biotechnology. Eux ciblaient Anopheles gambiae, de façon plus radicale encore : en répandant un gène récessif de stérilité. Le caractère progresse d’abord silencieusement, puis se répand à une vitesse foudroyante. L’espèce n’est plus transformée, elle est purement et simplement supprimée.

    Chacun défend sa méthode. « Nous vaccinons le moustique, ils l’éradiquent, insiste Anthony James. Ils laissent une niche ouverte, qui risque d’être occupée par un nouveau vecteur. Et avec les migrations incessantes, le moustique peut revenir. Nous offrons une solution durable. » Andrea Crisanti réplique : « Nous ne laissons pas d’animaux génétiquement modifiés s’installer définitivement dans la nature puisqu’ils disparaissent. Surtout, nous réduisons les risques d’apparition de résistance. Que feront-ils lorsque le moustique ou le parasite se seront adaptés, comme ils le font avec les insecticides ou les médicaments antipaludéens ? »

    Cette joute à distance entre les deux hommes laisse entrevoir les questions vertigineuses provoquées par leur découverte commune. Biologiste à l’Institut de recherche pour le développement (IRD) à Montpellier et spécialiste du paludisme, Frédéric Simard en dresse la liste : « D’abord à l’intérieur de l’espèce : si le processus s’altère, il peut transformer une autre partie du génome, doper le moustique au lieu de le fragiliser, le rendre résistant aux insecticides ou capable de transporter de nouveaux agents infectieux... Ensuite entre espèces. L’anophèle a de nombreux prédateurs. Les punaises d’eau et certains poissons mangent ses larves ; les libellules, les araignées, les chauves-souris et des oiseaux se nourrissent des adultes. Normalement, la barrière des espèces devrait éviter toute transmission. Mais là, le système est si puissant qu’on s’interroge. »

    Son confrère Eric Marois, cosignataire de l’article de Nolan et Crisanti,
    réplique par une boutade. « Si nous devions intégrer à notre génome tout ce que nous mangeons, cela fait longtemps que nous serions
    photosynthétiques parce qu’on mange de la salade, et que nous porterions des plumes parce qu’on mange du poulet. » Il n’écarte pas pour autant tout danger. « Des virus peuvent passer d’une espèce à l’autre et transporter une modification génétique. C’est peu probable mais possible. Il faut se donner le temps de l’étudier. Surtout, il faut mesurer les conséquences environnementales d’une telle action. Quelle place occupe le moustique dans l’écosystème ? Si l’anophèle est indispensable à une grenouille ou à une araignée, et que celles-ci s’attaquent aussi à certains insectes ravageurs des récoltes, sa disparition peut aggraver les problèmes, remplacer une maladie par une famine... »

    Professeur assistant au Massachusetts Institute of Technology et lui aussi pionnier du gene drive, Kevin Esvelt admet qu’il y a de l’hubris à vouloir ainsi battre la nature à son propre jeu. « Cela nous donne une terrible responsabilité, impose de mesurer tous les risques et prendre toutes les précautions pour en minimiser les conséquences. » Il a donc mis au point un système capable d’inverser la dissémination d’un caractère génétique. Il a surtout publié, en juillet 2015, dans Science, avec 26 autres scientifiques représentant la plupart des laboratoires internationaux concernés, un catalogue de recommandations (http://science.sciencemag.org/content/349/6251/927.short) qui vont du confinement des installations à l’encadrement réglementaire. Mais pas question pour lui de rejeter, par principe, le recours au forçage génétique. « Préfère-t-on l’usage de bulldozers pour assécher les marais, ou d’insecticides qui tuent sans distinction tous les insectes et dont on ne cesse de découvrir les effets secondaires ? Oublie-t-on que le paludisme, malgré les progrès enregistrés, tue encore 1 000 enfants par jour ? »

    Des progrès, il est vrai, spectaculaires. Entre 2000 et 2015, le nombre de morts annuel est passé de plus de 1 million à moins de 450 000, essentiellement grâce au recours aux moustiquaires imprégnées, à la chimioprévention et à une meilleure prise en charge des malades. Ce qui fait sérieusement douter Florence Fouque, responsable des maladies vectorielles pour le TDR, le programme de recherche sur les maladies tropicales placé auprès de l’OMS, sur l’opportunité d’un recours au forçage génétique. « Je ne suis pas sûre que les pouvoirs publics veuillent s’engager dans des méthodes lourdes, coûteuses et potentiellement risquées alors qu’avec les moyens actuels, nous espérons faire reculer la maladie de 95 % en 2035. »

    Mais d’ici là, combien de morts pourrions-nous encore éviter ? Et que faire des résistances aux antipaludéens qui progressent en Asie et menacent d’apparaître en Afrique, ou encore des résistances des moustiques aux insecticides, susceptibles de rendre ces derniers inopérants ? Les promoteurs du gene drive en sont convaincus : leur découverte sauvera des vies, beaucoup de vies, à l’avenir. A condition de parfaire les connaissances et de vaincre les réticences. Pour les premières, l’équipe d’Andrea Cresanti prévoit de lancer un essai en condition semi-sauvage au pôle de génomique de Pérouse, en Italie. L’occasion de s’éloigner des conditions normalisées du laboratoire et d’introduire, dans des cages de grande taille, différentes souches de moustiques sauvages. « La diversité génétique des anophèles est très importante, prévient Ken Vernick, responsable de l’unité génétique des insectes vecteurs à l’Institut Pasteur. Je crains qu’en s’éloignant du laboratoire, on déchante très vite. »

    Ce dernier obstacle levé, restera à expérimenter le dispositif sur le terrain, à savoir en Afrique. Et lever les craintes des populations. Cinq sites sont actuellement envisagés, parmi lesquels le Mali, le Burkina Faso et l’Ouganda, tous trois membres, avec l’Imperial College, du projet Target Malaria, un consortium financé notamment par la Fondation Bill et Melinda Gates. Mais l’accord d’un pays sera- t-il suffisant ? « C’est sans doute le plus grand enjeu aujourd’hui : le risque social, reprend Kevin Esvelt. Si un pays en a assez de voir mourir ses enfants, peut-il prendre seul une décision qui risque d’affecter tous ses voisins ? Et comment ceux-là réagiront-ils ? »

    Plutôt que de rester paralysé par le danger, le scientifique veut y voir « une formidable occasion » : celle de « faire de la science autrement ». « Depuis toujours, les innovations ont été imposées aux populations. L’essor des OGM en est le plus parfait exemple : il a été opéré dans le secret par les grandes entreprises du privé, sans bénéfice évident, sans volonté d’interroger le public ni d’informer sur les effets secondaires. Eh bien, faisons le contraire ! Agissons dans la transparence, en publiant tout ce que nous faisons. Prenons le temps d’accumuler et de diffuser les connaissances nécessaires sur les risques possibles. Et aidons les populations à décider elles-mêmes. Nous aurons fait avancer la science et la démocratie. » Un moustique assurément révolutionnaire.

  • L’amitié chez le chimpanzé

    http://www.lemonde.fr/sciences/article/2016/01/18/l-amitie-chez-le-chimpanze_4849275_1650684.html

    « Trahir la confiance de l’amitié, violer le plus saint de tous les pactes, (…) ce ne sont point là des fautes, ce sont des bassesses d’âme et des noirceurs.  » L’histoire ne dit pas si Jean-Jacques Rousseau fréquentait des primatologues. Mais le philosophe aurait probablement été intéressé par les recherches de ceux de l’Institut Max Planck d’anthropologie évolutionniste de Leipzig (Allemagne). Celles-ci montrent aujourd’hui, à travers des études sur des chimpanzés, à quel point l’amitié fondée sur la confiance est une inclination réciproque ancrée déjà chez l’ancêtre autant de l’homme que d’autres primates. Autrement dit, que ce sentiment n’est de loin pas propre à Homo sapiens.

    Ces conclusions, publiées le jeudi 14 janvier dans la revue Current Biology, nourrissent un champ de recherches assez récent, nommé «  économie comportementale  », qui se focalise davantage sur les comportements humains que seulement sur les forces abstraites des marchés pour comprendre les prises de décision en ­économie.( ...)

    « Nous souhaitions vérifier si les chimpanzés faisaient davantage confiance aux pairs avec lesquels ils sont plus intimement liés », dit Jan Engelmann, auteur de l’étude. Son équipe a observé durant cinq mois 15 chimpanzés vivant dans un sanctuaire naturel kényan, afin d’identifier lesquels avaient le plus d’affinités entre eux. Ils ont ensuite impliqué deux de ces primates, « amis » ou non, dans une expérience.

    Le premier avait le choix : soit tirer vers lui une corde avec, au bout, une récompense immédiate sous forme de nourriture, mais de loin pas l’aliment qu’il préfère ; soit actionner un autre lien amenant un réceptacle, où un mets de choix a été placé, vers son congénère, cela en espérant que ce dernier partage ce festin avec lui. En d’autres mots, le second cas présente le potentiel d’une situation gagnant-gagnant intéressante, mais uniquement si le premier cobaye fait confiance au second. Chaque singe a interagi douze fois avec ses amis, puis autant avec ses « non-amis ».

    Au final, « les chimpanzés avaient largement plus tendance à mettre volontairement les vivres à disposition du partenaire de jeu – donc de choisir une option plus risquée mais potentiellement plus juteuse – lorsqu’il s’agissait d’un ami », résume Jan Engelmann. « Ces résultats montrent que, chez les chimpanzés aussi, l’on tend à faire plus confiance à un ami qu’à un congénère moins proche, commente Frans de Waal. De surcroît, ils montrent que les singes ne sont pas sensibles à une réciprocité immédiate. Cette conclusion peut sembler surprenante, tant l’accent est souvent mis sur ce concept dans les recherches animales. Mais dans une amitié stable, humaine ou simiesque donc, on ne fait pas sans arrêt le décompte des échanges de bons procédés, ce qui nécessiterait beaucoup de mémoire et d’énergie.

    En réalité, l’on mise sur des bénéfices à plus long terme. »
    Pour Jan Engelmann aussi, il ne peut s’agir d’une « confiance stratégique » de la part du singe tirant les ficelles ; on peut penser qu’après douze essais les cobayes en jeu auraient simplement pu apprendre comment obtenir la meilleure nourriture. « Mais, dans ce cas, les statistiques auraient dû être moins différenciées selon qu’on soit en présence d’amis ou pas. » Selon le primatologue, une forme de « confiance émotionnelle », fondée sur l’identité des partenaires, entre bien en jeu. « Un lien affectif au long cours dont il faut tenir compte lorsque l’on étudie des interactions sociales ponctuelles au sein de groupes d’animaux. »

  • Une petite note d’auto-promotion pour un sujet peu traité en presse généraliste (à vérifier !), les bases de connaissances (Yago, Wikidata, Dbpedia...) et qui l’air de rien commencent à bouleverser notre environnement (interrogation en langage naturel des moteurs de recherche, assistants vocaux...).
    Et oui, c’est en accès payant (j’envoie le pdf via les commentaires !) !
    Wikipédia, la connaissance en mutation
    http://www.lemonde.fr/sciences/article/2016/01/11/wikipedia-la-connaissance-en-mutation_4845347_1650684.html
    #wikipedia #sémantique

  • Wikipédia, la connaissance en mutation

    http://www.lemonde.fr/sciences/article/2016/01/11/wikipedia-la-connaissance-en-mutation_4845347_1650684.html

    Quel succès  ! Quin­ze ans après son lancement, le 15 janvier 2001, par les Américains Jimmy Wales et Larry Sanger, l’encyclopédie en ligne Wikipédia reste le premier site non commercial du Web mondial, toujours dans le top 10 des sites les plus fréquentés avec près de 500 millions de visiteurs uniques par mois pour plus de 250 éditions linguistiques. 36,9 millions d’articles sont rédigés, corrigés, améliorés par quelque 2 millions de contributeurs. 800 nouvelles entrées en anglais sont ajoutées chaque jour, 300 en français. La version française tenant la troisième position, avec plus de 1,7 million d’articles, derrière l’anglophone (plus de 5 millions) et la germanique (1,8 million).

    Mais Wikipédia, c’est moins connu, est bien plus qu’une encyclopédie qu’on consulte pour se documenter ou faire ses devoirs scolaires. Elle est devenue aussi un objet de recherche en tant que tel, à l’instar d’une tribu d’Amazonie, d’un programme informatique ou d’un patient. La base de données Scopus, l’une des trois plus importantes du monde, recense ainsi plus de 5 400 articles ayant pour sujet ou pour objet Wikipédia publiés dans des revues, des actes de colloques ou des livres. Quatorze brevets mentionnent même le célèbre site, selon la même Scopus.

    Autre preuve de l’intérêt académique pour le sujet, en juin 2013, à Paris, se tenait un colloque, coorganisé par le CNRS et le CNAM et intitulé «  Wikipédia, objet scientifique non identifié  », avec sociologues, spécialistes de sciences de la communication, informaticiens…(...)

    Mais que font tous les autres chercheurs en tripatouillant Wikipédia ? De récentes publications témoignent du large spectre couvert. Depuis novembre, une équipe japonaise s’est servie des articles de l’encyclopédie pour analyser les suicides de personnalités dans son pays. Des Britanniques ont construit automatiquement un glossaire technique. Des Turcs ont utilisé le site pour repérer à grande échelle des entités dans des corpus de leur langue. Des Français ont proposé un classement des universités reposant sur les citations des établissements au sein de plusieurs versions linguistiques de Wikipédia. Citons encore un article paru en mai, qui prévoit les pics d’apparition de la grippe grâce aux statistiques de visites des pages de l’encyclopédie.

    Les raisons d’un tel engouement sont simples à comprendre. L’objet est vaste, une quinzaine de gigaoctets de textes (pour la version anglaise). D’utilisation gratuite, contrairement aux données de Facebook, Google ou Twitter, pourtant gigantesques et fournies gracieusement par leurs utilisateurs. Même les données de fréquentation sont disponibles pour chaque article ! Les archives sur quinze ans permettent d’avoir du recul historique, tout en ayant un objet toujours rafraîchi. Des versions en plus de 200 langues ouvrent des perspectives pour des comparaisons ou des analyses culturelles. L’ouverture et la transparence offrent aussi ce que les chercheurs adorent : la vérifiabilité et la reproductibilité. Pour parfaire leur bonheur, l’encyclopédie, tel un iceberg, recèle plus de trésors que sa seule vitrine d’articles. Si la version française contient 1,7 million de pages d’articles, elle contient 4,5 fois plus de pages pour les historiques, les discussions et autres coulisses qui font le dynamisme et la réputation du site. Du coup, presque tous les domaines sont couverts. La sociologie, bien sûr, fascinée par cette démocratie d’un nouveau genre, car auto-organisée et reposant sur quelques règles et le consensus. Les chercheurs, profitant de la transparence du site, y ont également étudié le rôle des « vandales » et autres « trolls » qui mettent leurs pattes malveillantes dans les articles. Les inégalités hommes-femmes particulièrement criantes, avec moins de 10 % de contributrices à l’encyclopédie, ont également donné lieu à beaucoup de littérature et de controverses.

    Wikipédia est devenu une sorte de bac à sable dans lequel s’ébrouent les spécialistes du traitement automatique du langage qui disposent là d’un corpus immense pour tester leurs logiciels de reconnaissance de texte, de traduction, d’extraction de sens... C’est aussi le jouet de physiciens, statisticiens, informaticiens... prompts à dégainer leurs outils d’analyse pour en extraire de nouvelles informations ou aider à les visualiser.

    « Après quinze ans, l’intérêt des chercheurs est toujours là. La première phase était très active car l’objet était nouveau. Cela a contribué à l’émergence de nouveaux domaines comme la sociologie quantitative ou l’informatique sociale, rappelle Dario Taraborelli. Puis, à partir de 2007, l’apparition de nouveaux médias sociaux a détourné un peu les recherches, avant un renouveau depuis 2010. Notamment parce que nous sommes le seul site important à publier nos données quotidiennes de trafic. »

    Ce renouveau est aussi tiré par une révolution à venir. Wikipédia est devenu l’un des maillons indispensables à un projet particulièrement ambitieux : rassembler toute la connaissance mondiale et la rendre intelligible par des machines. « Notre ambition est de rendre encore plus intelligents les ordinateurs afin qu’ils soient toujours plus utiles à l’humanité », s’enthousiasme Fabian Suchanek, enseignant-chercheur à Télécom ParisTech et artisan de cette évolution qui vise à transformer Wikipédia et d’autres riches corpus en une source accessible aux ordinateurs.

    De tels changements sont en fait déjà à l’œuvre, discrètement. Dans les moteurs de recherche par exemple, lorsque l’utilisateur tape un nom de célébrité, apparaissent toujours une liste de liens mais aussi un encadré résumant la biographie de la personne cherchée. Et cela automatiquement : le programme a compris où, dans la page Wikipédia, se trouve l’information souhaitée. Mieux. On peut désormais poser des questions explicites, en langage naturel, à ces moteurs : quand Elvis Presley est-il mort ? Où ? Quel est l’âge de François Hollande ?... et recevoir des réponses directes, sans avoir à lire la page contenant l’information.

    Derrière ces prouesses qui n’ont l’air de rien se cachent de nouveaux
    objets : les bases de connaissance. Les plus célèbres sont Yago, DBpedia, Freebase ou Wikidata. Toutes se sont construites en triturant Wikipédia. Et, preuve des enjeux économiques, les plus grands du Web actuel investissent dans ces constructions. En 2010, Google a ainsi racheté Freebase, qui lui sert pour son Knowledge Graph, l’encadré qui fournit des réponses directes aux requêtes. L’entreprise soutient également financièrement Wikidata, une initiative de la fondation Wikimédia. Amazon a racheté EVI en 2012, anciennement connue sous le nom de True Knowledge, une base de connaissances.

    En outre, derrière les assistants personnels vocaux des mobiles, Siri, Cortana ou Google Now, se cachent aussi ces fameuses bases de connaissances. Pour gagner au jeu Jeopardy en 2011, l’ordinateur Watson d’IBM a bien sûr assimilé bon nombre de données, en particulier de Wikipédia, mais dans une forme prédigérée fournie par la base de connaissances Yago.

    Le sujet de ces bases ou graphes de connaissances est très actif. Le chercheur le plus prolixe sur Wikipédia, toutes activités confondues selon Scopus, est par exemple l’Allemand Gerhard Weikum de l’Institut Max-Planck de Sarrebruck, à l’origine de la première base de connaissances, Yago, en 2007. Le second est un Hollandais, Maarten de Rijke, professeur d’informatique à l’université d’Amsterdam, dont les récents travaux utilisent ces graphes. Il est capable de savoir de quoi parle un tweet en repérant les noms et les faits à l’intérieur et en les confrontant à Yago ou DBpedia. Il enrichit aussi les émissions de télévision automatiquement en fournissant des liens sur les tablettes ou téléphones, choisis en fonction du thème de l’émission, déterminé grâce aux bases de connaissances. « Avec ces bases de connaissances, on peut faire des choses qui étaient impossibles auparavant », estime Fabian Suchanek, cofondateur de Yago. Par exemple ? « Extraire de l’information du quotidien Le Monde : combien de femmes en politique au cours du temps ? Quel est l’âge moyen des politiciens ou des chanteurs cités ? Quelles compagnies étrangères sont mentionnées ? », énumère ce chercheur en citant un travail publié en 2013 avec la collaboration du journal. Le New York Times construit sa propre base de connaissances tirées des informations de ses articles. Autre exemple, il devient possible de poser des questions aussi complexes que :

    qui sont les politiciens également scientifiques nés près de Paris depuis 1900 ? Ou, plus simplement, quelle est la part des femmes scientifiques dans Wikipédia ?

    Mais quelle différence entre ces objets et une base de données ou même une page Wikipédia ? Si un humain comprend que dans la phrase « Elvis Presley est un chanteur né le 8 janvier 1935 à Tupelo, Mississippi », il y a plusieurs informations sur son métier, sa date et son lieu de naissance, une machine ne le comprend pas, et ne peut donc répondre à la question simple, pour un humain, « Quand Elvis est-il né ? ». « C’est un peu paradoxal, mais pour un informaticien, notre langage n’est pas structuré et donc un ordinateur ne peut le comprendre ! », souligne ironiquement Fabian Suchanek. Il faut donc transformer les pages en les structurant différemment, en commençant par repérer les entités, les faits et les relations entre eux. Presley est une entité. Sa date de naissance ou son métier sont des faits. « Né le » et « a pour métier » sont les relations. Tout cela peut être codifié en langage informatique.

    Une autre particularité de ces objets est qu’ils ne répertorient pas ces faits et entités dans des tableaux, comme la plupart des bases de données, mais en les organisant en arborescences ou en graphes. Les branches correspondent aux liens entre les entités et les faits. Les informaticiens et mathématiciens ont bien sûr développé les techniques pour interroger ces graphes et y faire des calculs comme dans un vulgaire tableur. Aujourd’hui, Yago « sait » plus de 120 millions de choses sur 10 millions d’entités (personnalités, organisations, villes...). L’avantage-clé est que le rapprochement devient plus simple entre plusieurs bases de connaissances, celles construites sur Wikipédia mais aussi d’autres concernant les musiciens, les coordonnées GPS, les gènes, les auteurs... Le site Linkeddata.org recense ces nouvelles bases et leurs liens entre elles. Petit à petit se tisse un réseau reliant des faits et des entités, alors que, jusqu’à présent, la Toile connecte des pages ou des documents entre eux. Cela contribue au rêve de ce que Tim Berners-Lee, le physicien à l’origine du Web, a baptisé « Web sémantique » en 2001. « Les défis ne manquent pas. La troisième version de Yago est sortie en
    mars 2015. Nous avons déjà traité la question du temps. Nous traitons aussi plusieurs langues. Il faut maintenant s’attaquer aux “faits mous”, c’est-à-dire moins évidents que les dates et lieux de naissance, les métiers, le genre..., estime Fabian Suchanek. En outre, tout ne peut pas se mettre dans un graphe ! »

    Bien entendu, faire reposer la connaissance future de l’humanité sur Wikipédia n’a de sens que si ce premier maillon est solide. La crédibilité de l’encyclopédie a donc été parmi les premiers sujets d’études. Dès 2005, Nature publiait un comparatif entre l’encyclopédie en ligne et sa « concurrente » Britannica, qui ne montrait pas d’énormes défauts pour la première. D’autres études ont été conduites depuis pour estimer l’exactitude, en médecine par exemple, Wikipédia étant l’un des premiers sites consultés sur ces questions. Les résultats sont bien souvent satisfaisants.

    « C’est finalement un peu une question vaine scientifiquement, car les comparaisons sont souvent impossibles. On confronte les articles tantôt à des encyclopédies, tantôt à des articles de revues scientifiques... », estime Gilles Sahut, professeur à l’Ecole supérieure du professorat et de l’éducation, de l’université Toulouse - Jean-Jaurès. « La question a un peu changé de nature. Il faut passer d’une appréciation globale à une appréciation au cas par cas, et donc éduquer afin d’être capable de dire si un article semble biaisé ou complet », précise ce chercheur, qui a soutenu une thèse en novembre 2015 sur la crédibilité de Wikipédia. Il adosse ce constat à une étude menée sur plus de 800 jeunes entre 11 et 25 ans, pour tester la confiance accordée à l’encyclopédie. Celle-ci s’érode avec l’âge et le niveau de scolarité, mais elle remonte dès lors que les élèves participent. « Ils découvrent d’ail leurs, comme leur enseignant, qu’il n’est pas si facile d’écrire dans Wikipédia ! », sourit le chercheur en faisant allusion aux difficultés à entrer dans la communauté. « Certes les wikipédiens sont des maîtres ignorants sur les savoirs, comme le dit le sociologue Dominique Cardon, mais ils sont très savants sur les règles et les procédures ! »

  • Au Kenya, l’énigme des premiers outils

    http://www.lemonde.fr/sciences/article/2016/01/04/au-kenya-l-enigme-des-premiers-outils_4841519_1650684.html

    Sammy Lokorodi trace des signes dans la terre. Les yeux rivés au sol, il rejoue la scène. «   Vous voyez, on était là, on cherchait. Et puis, on les a vus.   » Le Kényan de 38  ans, originaire de la région du Turkana, dans le nord-ouest du pays, ouvre grand les yeux. «   Si vous n’avez pas l’œil, si vous ne les connaissez pas, vous ne les voyez pas   », s’amuse-t-il. Il enchaîne  : «   On a appelé le reste de l’équipe… On leur a dit   : “Venez, venez, venez  !” Ces pierres-là, elles n’étaient pas comme les autres.  » Sammy rigole. Ce jour-là, il avait trouvé les plus vieux outils de l’histoire de l’humanité.

    Désormais évaluée à 3,3 millions d’années, l’invention de la technologie a été repoussée 700 000  ans en arrière. La découverte ne doit rien au hasard   : elle est le résultat d’une bien longue aventure. Sammy Lokorodi, avec ses longues chaussettes blanches bien remontées le long des mollets, n’en est pas à ses premières prospections. Depuis dix ans, il est l’un des meilleurs «   prospecteurs  » de l’équipe de Sonia Harmand, archéologue à l’origine de la découverte, à la tête de la mission préhistorique française au Kenya, financée depuis 1994 par le ministère français des affaires étrangères, qui fouille ­chaque année sur la rive occidentale du lac Turkana.

    Le Turkana  : berceau et Far West de l’humanité. Lodwar, capitale de la région, avec ses rues agitées, ses armes bon marché, ses petites maisons sans étages et sa piste d’atterrissage cabossée, a tout du western.(...)

    On s’éloigne de la ville, on croise les derniers poteaux électriques, les derniers restes d’asphalte, les dernières antennes paraboliques. De jeunes bergers fouettent leurs chèvres, observent à distance des troupeaux de dromadaires sauvages. Des groupes de femmes en tuniques colorées, une trentaine de colliers autour du cou, marchent dans le désert, canne à la main et petit tabouret de bois porté sous l’aisselle. La vision est irréelle, hors du temps. Le « berceau » de l’humanité n’est pas très loin du bout du monde. A plus de 1 000 kilomètres et quatre jours de route de l’océan, la seule fraîcheur vient du lac Turkana, bijou du Grand Rift, « mer de jade » qui s’étale du nord au sud, sur 300 kilomètres de long et une trentaine de large, alimenté par les lagas, rivières éphémères et redoutables, gonflées par les orages d’altitude.

    C’est en amont de ces cours d’eau que l’on trouve les sites archéologiques. « Ne marchez pas n’importe où : vous risquez de détruire des preuves ! », prévient Sonia Harmand. En cette fin novembre, l’archéologue emmène un groupe d’étudiants à Lomekwi 3, où ont été retrouvés les outils. Les jeunes gens la suivent en file indienne, bien disciplinés. Au sol, s’étale un tapis surnaturel de fossiles de poissons et d’hippopotames préhistoriques, d’éclats brisés et d’outils taillés vieux de plus de 3 millions d’années. L’homme est là, partout.
    Pas loin, un monolithe couleur de boue célèbre le « Turkana Boy », jeune homme vieux de 1,5 million d’années, dont le squelette a été découvert derrière une petite colline effondrée. Malgré l’éloignement, on ne se sent jamais seul très longtemps au Turkana.

    « Rock Star »

    A 41 ans, dont dix-sept à fouiller le Rift, Sonia Harmand, chercheuse au CNRS et enseignante à l’université américaine de Stony Brook (New York) avec le Turkana Basin Institute, cumule les surnoms, les égrène avec plaisir. « Rock Star » depuis sa découverte, ou encore « Indiana Jones sans le fouet », elle est aussi « mama » pour les Turkanas, qui la considèrent comme faisant partie de la famille. Chef du « village gaulois » ou du « French camp », elle mène chaque année, au mois de juillet, une équipe d’une trentaine de chercheurs et de fouilleurs franco-américano-kényans sur les routes du Turkana.

    La passion du Rift, elle l’a au cœur depuis sa première visite au Kenya, à l’âge de 18 ans. « Mes parents m’avaient offert un voyage au Kenya. A l’époque, je lisais tous les aventuriers africains, Kessel, Monfreid, et les autres. » Après quelques jours de safaris, elle fait face à la faille du Grand Rift. « Ça a été un vrai choc émotionnel. J’avais impression que ce paysage m’était familier. Il y avait quelque chose de mystique dans ce que j’ai ressenti ce jour-là. »
    La jeune femme s’oriente vers l’archéologie. Parcours cinq étoiles : Sonia Harmand réalise sa première fouille à Tautavel (Pyrénées-Orientales), gratte le sol pas loin de Palmyre, en Syrie (où elle croise la route de l’archéologue Khaled Assaad, qui sera assassiné le 18 août 2015 par l’organisation Etat islamique). Mais son cœur reste fidèle au Rift, où elle débarque en 1998, dans les pas de l’archéologue Hélène Roche.

    Sonia Harmand reprend en 2011 la direction de la mission préhistorique au Kenya et décide immédiatement d’orienter les recherches vers des zones plus anciennes. Les réticences sont nombreuses. Mais l’archéologue est obstinée. Le 9 juillet 2011, elle part avec son équipe à l’assaut du Turkana. « On avait les cartes à la main, raconte-t-elle. Mais on a pris un mauvais tournant, et on s’est un peu perdus. » Le petit groupe monte sur une colline, cherche des yeux la direction du lac.
    « Et là, on a vu le site. » L’endroit est sublime : un cirque bouillonnant et minéral, aux mille nuances d’ocre et de brun. « C’était un endroit différent. On savait qu’on marchait sur des sols très anciens. On s’est dit tout de suite qu’on pourrait peut-être trouver quelque chose. »

    Lomekwi 3 comme un champ de tulipes

    L’exploration commence. La quinzaine d’archéologues et de fouilleurs marche en ligne, les yeux rivés au sol. Les minutes passent. Les groupes s’éloignent, se perdent de vue. « Et puis, soudain, j’ai entendu mon talkie-walkie grésiller, se souvient Sonia Harmand, C’était un membre de l’équipe qui m’appelait. Sammy avait trouvé quelque chose. J’ai marché dix minutes. J’ai senti que mon pas s’accélérait. »

    Au sol, les « cailloux ». La « peau » ne trompe pas : beige clair, gris pâle. « On voyait bien que ces roches n’étaient pas restées très longtemps en surface, qu’elles n’avaient pas été polies par les vents et le sable, raconte Sonia Harmand. J’ai vu les cicatrices sur les pierres, les éclats retirés délibérément : il n’y avait aucun doute. » L’équipe se regroupe, plante au sol des dizaines de petits drapeaux colorés rouges et orangés, signalant la présence d’outils ou de fossiles. « C’était comme un petit champ de tulipes. » Lomekwi 3 est né.

    Débute alors un long travail. Il n’y a pas le droit à l’erreur : sept géologues se succèdent sur le site afin de dater les outils. « Quand on travaille sur une période si ancienne, on ne peut pas faire usage du carbone 14, explique Xavier Boes, l’un des géologues de l’équipe. Il a fallu se fonder sur l’analyse stratigraphique des tufs – des roches volcaniques projetées lors des éruptions – trouvés à proximité des sites et dont on connaît l’âge radiométrique. Mais tout ça prend du temps : il faut marcher depuis l’endroit où l’on trouve les tufs jusqu’au site, compter les couches sédimentaires successives. » La publication de l’article dans Nature prendra quatre ans. Sur la couverture : deux mains, deux roches et un titre : « L’aube de la technologie ».

    Retour en arrière : moins 3,3 millions d’années. Le site de Lomekwi est alors au cœur d’une forêt galerie, faite de buissons et d’arbres de faible hauteur. Un premier grand lac vient à peine de se retirer. Mais déjà, de petits groupes d’hominidés s’activent le long des cours d’eau. « On sait très peu de chose sur eux, explique Jason Lewis, paléontologue et codirecteur du projet. On était dans une phase bipède, on ne marchait probablement pas trop mal. Les hominidés de cette époque devaient faire entre 1 mètre et 1,50 mètre. » Le visage était très proche de celui des grands singes, mais la taille des canines et de la mâchoire déjà réduite. « La capacité manuelle des hominidés était plus importante que pour le chimpanzé. Le pouce était plus long et détaché : ils pouvaient faire le salut du scout ! »

    Cent vingt pierres taillées ont été retrouvées à Lomekwi 3. Pour fabriquer les objets, deux techniques ont été employées : celle du percuteur dormant, où le bloc à tailler (dit « nucleus ») est frappé sur une enclume de pierre, afin de le faire exploser et de créer des éclats tranchants ; et celle de la percussion bipolaire sur enclume, plus élaborée, où l’on frappe avec une première pierre sur une seconde, elle-même posée sur une troisième. Les pierres retrouvées à Lomekwi 3 sont grosses. « On les appelle les “pavetons” », s’amuse Sonia Harmand. Les hominidés de l’époque n’avaient en effet probablement pas encore les capacités pour tailler des pierres de petite taille, comme on en trouve sur des sites plus « récents », tels les galets oldowayens, vieux de 2,6 millions d’années.

    Percussion bipolaire

    Mais attention : si les deux techniques sont « simples, elles ne sont pas primitives ! », insiste Sonia Harmand. La percussion bipolaire nécessite en effet une désynchronisation des deux bras et donc une capacité cognitive développée. « Lomekwi n’est pas le fruit du hasard. Pour détacher les éclats, il fallait une connaissance des angles, une maîtrise de sa propre force. Les roches ont été sélectionnées. Il y a eu un apprentissage, une transmission de la fabrication. Enfin, nos ancêtres ont fabriqué des éclats tranchants en grande quantité. Il y avait un contrôle de la production. »

    La découverte pose des défis majeurs à la paléontologie. En effet, à – 3,3 millions d’années, on n’a découvert jusqu’à présent aucun représentant du genre Homo, dont nous, Homo sapiens, l’homme moderne, sommes issus. Les restes des premiers Homo datent en effet (au mieux) de 2,8 millions d’années : 500 000 ans trop court pour les outils de Lomekwi.

    L’invention de l’outil, premier acte technologique et culturel de l’histoire, ne serait donc pas de notre fait. La découverte est vertigineuse et mettrait fin au sacro-saint Homo faber, cher à Bergson, où l’outil fait l’homme, par opposition à l’animal. « Nous devons nous redéfinir, explique Jason Lewis. Soit nous acceptons que nous faisons partie d’un ensemble plus vaste et que nous partageons la technologie avec l’animal, car les outils ont probablement été inventés par des espèces plus proches de l’ancêtre commun avec le singe. Soit on est exclusif, et on se dit que la spécificité de l’homme ne repose pas sur les outils. Peut-être davantage sur la maîtrise du feu... »

    A Lomekwi, les paléontologues du Turkana ont trois suspects. Deux australo-pithèques : Australopithecus afarensis (mieux connu du grand public sous le nom de « Lucy », découverte en Ethiopie) et Australopithecus deyiremeda (qui vivait dans la région entre 4,1 et 3 millions d’années). Le troisième candidat est plus sérieux, mais ne fait pas l’unanimité. Il s’agit de Kenyanthropus platyops, découvert en 1999 au Turkana, et dont des restes ont été retrouvés non loin du site, mais dont l’existence comme genre à part est contestée par de nombreux scientifiques.

    « Australopithecus habilis »

    Faut-il aussi débaptiser le pauvre Homo habilis, qui perd à Lomekwi son statut d’inventeur de l’outil, et donc d’« habile » ? « En fait, on pourrait même retirer Homo, explique Jason Lewis. Les récentes recherches sur le squelette et le crâne d’Homo habilis montrent qu’il est un melting-pot de différentes espèces, on trouve dans son crâne des caractéristiques d’Homo, mais aussi d’australopithèque et de chimpanzé. On pourrait même l’appeler Australopithecus habilis... »
    L’homme vient du flou, sa généalogie est embrouillée, ses origines en suspens. Quel lien entre australopithèque et Homo ? Plusieurs espèces vivaient-elles à la même période au même endroit ? Se sont-elles influencées pour l’invention des premiers outils ? La mission préhistorique tente aujourd’hui d’approfondir sa découverte. Des études tracéologiques sont en cours, traquant la présence de résidus de sang ou de végétaux sur les « pavetons » lomekwiens afin d’en déterminer l’usage. « Pour comprendre ces outils, il faut aussi les refaire », ajoute Sonia Harmand. Elle et son équipe ont collecté pour 700 kg de roches près du site et tenté en 2013 et 2014, avec succès, de récréer les outils.

    Le Turkana, il faudra y revenir. « Rappelons-nous que toutes nos conclusions ne reposent que sur un seul site ! », insiste Sonia Harmand. Seule une petite partie de Lomekwi a été excavée, d’autres sites sont à explorer. Sonia Harmand tourne aujourd’hui son regard vers les chaînes basaltiques du Turkana, plus à l’est : « Toute cette région est totalement inexplorée... », souffle l’archéologue. Sisyphe du Turkana, elle sait que les outils de Lomekwi sont déjà bien trop élaborés et sophistiqués. S’ils sont les plus anciens jamais découverts, ils ne sont certainement pas les premiers. « Les tout premiers, ils seront sûrement trop proches d’un simple caillou. Ils seront très difficiles à reconnaître. On ne les retrouvera probablement jamais. »

  • Des spermatozoïdes sous influence

    http://www.lemonde.fr/sciences/article/2016/01/04/des-spermatozoides-sous-influence_4841467_1650684.html

    Comment un traumatisme psychique ou un déséquilibre alimentaire d’un futur parent, avant même la conception, peut-il engendrer des effets sur plusieurs générations  ? Fin décembre, une série d’avancées a été accomplie sur cette voie explorant un mode d’hérédité « buissonnier   »  : l’épigénétique.

    L’épigénétique, ou comment chahuter les lois de l’hérédité classique   : ce mode de transmission, en effet, n’est plus exclusivement fondé sur la sacro-sainte séquence de l’ADN. Avec l’épigénétique, c’est un héritage plus subtil – plus fragile aussi – qui est transmis au fil des générations   : ce sont des «   marques   » qui jalonnent le génome, en des sites précis. Sensibles à des facteurs de l’environnement, ces marques «   allument   » ou «   éteignent  » nos gènes dans nos cellules. C’est ainsi qu’une cellule de notre cerveau est très différente d’une cellule de notre foie, de nos muscles, de nos os…

    Publiées le 31 décembre dans Science, deux études ont examiné l’impact d’une alimentation perturbée chez la souris. Dans la première, l’équipe de Qi Zhou (Institut de zoologie, Pékin) a soumis des souris mâles à un régime très gras. Avec le sperme de ces rongeurs, les chercheurs ont fécondé des femelles nourries normalement. Les souris issues de cette manipulation ont développé une intolérance au glucose et une résistance à l’insuline, deux signes de prédiabète. Elles présentaient aussi une moindre expression de gènes impliqués dans le métabolisme des sucres.

    Des groupes apposés sur l’ADN

    (...)

    Les chercheurs chinois ont isolé les ARN des spermatozoïdes de souris soumises à ce régime gras. Puis ils ont injecté ces ARN à des ovocytes de souris juste fécondés. Les rongeurs nés de cette intervention ont développé une intolérance au glucose. Les ARN assurant cette transmission sont des fragments « d’ARN de transfert ». Leur principale fonction est de transporter les acides aminés lors de la fabrication des protéines. Mais, ici, leurs fragments semblent avoir été « recyclés » à des fins épigénétiques.

    Dans la seconde étude de Science, l’équipe d’Oliver Rando (université de médecine du Massachusetts) a analysé les effets, chez la souris, d’un régime pauvre en protéines. Ses résultats confortent l’idée d’un rôle de ces petits ARN en épigénétique. Un régime pauvre en protéines entraîne, chez la génération suivante, la dérégulation de tout un jeu de gènes, avait montré cette équipe en 2010.

    Des troubles sur deux générations

    Et chez l’homme ? « Dans les spermatozoïdes de personnes obèses, nous trouvons une signature spécifique, constituée de petits ARN et de méthylations de l’ADN. Cette signature marque des gènes qui gouvernent l’appétit », résume Romain Barrès, de l’université de Copenhague, principal auteur d’une étude publiée en décembre dans Cell Metabolism. Mieux : « Cette signature change drastiquement après une perte de poids massive induite par une chirurgie de l’obésité. » Dans une autre étude à paraître dans Molecular Metabolism, cette équipe montre qu’un régime gras, suivi par un rat mâle, provoque des troubles métaboliques sur deux générations. Ces troubles seraient en partie transmis par de petits ARN du sperme.

    Est-ce à dire que seuls les mâles transmettent à leur descendance les effets de leurs modes de vie altérés ? Non. « Les femelles aussi peuvent transmettre des changements épigénétiques. Mais les spermatozoïdes sont plus faciles à étudier que les ovocytes », dit Isabelle Mansuy, de l’Ecole polytechnique fédérale et de l’université de Zurich.

    Retrait social et désordes métaboliques

    D’autres études ont révélé, chez l’animal, comment le traumatisme psychique d’un géniteur peut retentir sur les générations suivantes. En 2010, Isabelle Mansuy montrait les effets d’une séparation chronique et imprévisible de jeunes souris mâles d’avec leur mère. Leurs « enfants » et « petits- enfants » souffraient de troubles dépressifs et cognitifs, d’un retrait social et de désordres métaboliques. En 2014, l’équipe de Zurich découvrait de petits ARN spécifiques altérés dans le sperme de ces souris traumatisées. En injectant l’ARN du sperme de ces animaux dans des ovocytes juste fécondés, elle reproduisait ces troubles sur deux générations. En octobre 2015, une étude publiée dans les PNAS confortait ces résultats. L’équipe de Tracy Bale, de l’université de Pennsylvanie, retrouvait de petits ARN spécifiques dans les spermatozoïdes de souris ayant subi un stress chronique précoce.

    Quelle est la portée de cette hérédité épigénétique chez les mammifères ? C’est un chantier qui s’ouvre. Car l’existence de ces processus reste à prouver chez l’homme, et leurs mécanismes à préciser. Reste aussi cette troublante question : peut-on voir, dans cette transmission épigénétique, une forme d’hérédité des caractères acquis ? « Je ne pense pas que les caractères “obèse” ou “stressé”, en tant que tels, soient transmis, estime Romain Barrès. Ce qui se transmet est une adaptation, induite par l’environnement de nos ancêtres. » Emiliano Ricci ajoute que « les caractères transmis par épigénétique peuvent être labiles ». Si de nouvelles marques épigénétiques sont facilement créées par des changements environnementaux, elles sont tout aussi aisément effacées par de nouveaux changements. L’épigénome offrirait aux individus un moyen d’explorer rapidement une adaptation à une variation de l’environnement, sans pour autant la graver dans le génome...

    L’épigénétique façonne les fourmis

    Et si l’épigénétique déterminait le statut social ? C’est ce qu’une équipe américaine vient de proposer dans la revue Science. Son sujet d’étude n’est pas l’humain, mais la fourmi, insecte social par excellence. Mais le résultat de ses recherches apporte des pistes prometteuses. Les fourmis charpentières de Floride sont composées de deux castes : les soldates et les ouvrières. Les deux disposent du même patrimoine génétique. Les secondes ont pourtant des têtes plus petites, des mandibules moins puissantes... et une surexpression des gènes impliqués dans le développement cérébral.

    A ce constat, les chercheurs en ont ajouté un autre, plus spectaculaire : en modifiant la composition chimique des histones – ces protéines autour desquelles s’enroule l’ADN –, ils sont parvenus à modifier le comportement des fourmis. Un simple changement d’alimentation a dopé l’activité des ouvrières fourrageuses. Pour les soldates, il a fallu en passer par l’injection directe de ces mêmes produits dans le cerveau de jeunes spécimens. Les combattantes ont alors aligné leur activité sur celle des ouvrières. Les auteurs parlent de
    « fenêtre épigénétique de vulnérabilité » et rêvent déjà d’application thérapeutique chez l’homme.

    #épigénétique

  • Erwin Chargaff, Amphisbène, 1963

    http://sniadecki.wordpress.com/2015/12/03/chargaff-amphisbene

    Le chapitre 11 est un pot pourri d’une multitude de conversations auxquelles j’ai pris part au cours de ces dernières années ; il s’agit, bien entendu, d’un assemblage de plusieurs de ces conversations, une sorte de collage : personne ne pourrait être individuellement aussi obtus.

    Je ne doute pas qu’il y aura des gens pour penser qu’il est par trop déplacé et frivole de faire usage, à propos de problèmes scientifiques, de l’humour, de la satire et même des jeux de mots, ces hoquets métaphysiques du langage. Mais la critique devrait s’exercer à plusieurs niveaux ; et la critique de certains concepts de la science moderne, et en particulier de ses aberrations, a pratiquement disparu à une époque où elle est plus nécessaire que jamais ; où la polarisation de la science est si avancée que l’on « fait » désormais « campagne » pour des récompenses scientifiques comme pour des élections politiques ; où les conférences scientifiques commencent à ressembler aux discours à thème des congrès politiques ; où le reportage scientifique a remplacé les potins intimes d’Hollywood ; où la force de conviction des applaudissements s’est substituée à celle de la vérité ; à une époque où les cliques s’appuient sur la claque. L’émergence d’un Establishment scientifique, d’une élite de pouvoir, a donné naissance à un phénomène remarquable : l’apparition de ce que l’on peut appeler des dogmes 1 dans la pensée biologique. La raison et le jugement tendent à capituler face à un dogme ; mais c’est une erreur. Tout comme dans la vie politique, une attitude flegmatique cache souvent un point faible. Il est impératif de critiquer, de la manière la plus rigoureuse, les spéculations scientifiques qui se font passer pour des dogmes. Cette critique doit venir de l’intérieur ; mais elle ne peut être que celle d’un dissident.

    #biologie ; #critique_techno ; #technoscience

    Rapport avec l’actualité :
    http://www.lemonde.fr/sciences/article/2015/11/30/le-genie-genetique-face-au-risque-eugeniste_4820662_1650684.html

    les financiers salivent à la perspective de pommes qui ne noircissent pas ou de pesticides rendus inoffensifs pour l’homme,...

    On peut lire à la fin du dialogue écrit par Chargaff :

    V : Et alors vous obtiendrez effectivement la véritable « ingénierie de l’humain ». Une fois que vous saurez altérer à volonté les chromosomes, vous serez en mesure de façonner le Consommateur Moyen, l’utilisateur prévisible de telle ou telle savonnette, celui sur qui l’on peut compter pour inhaler goulûment tel gaz toxique. Vous aurez fait à l’humanité un cadeau à côté duquel la bombe d’Hiroshima n’était qu’un inoffensif œuf de Pâques. Et vous parviendrez enfin à l’écologie de la mort. A l’image de qui cet homme nouveau sera-t-il conçu ? Je n’ose y penser.

    Merci @rastapopoulos et @enuncombatdouteux pour m’avoir signalé l’actu sur #Crispr-CAS9.

  • Climat : une académie sous influence

    http://www.lemonde.fr/sciences/article/2015/11/30/climat-une-academie-sous-influence_4820870_1650684.html

    Cette lettre est sèche comme un coup de ­trique. Elle mesure tout juste six lignes sur un écran d’ordinateur, mais à sa suite s’enquillent six pages de signatures. Le 1er juin dernier, ils sont près de 200 astrophysiciens français à écrire à d’autres astrophysiciens, leurs pairs qui siègent à l’Académie des sciences. Ils sont abasourdis. «  C’est avec stupeur que nous avons appris par voie de presse la teneur de certains débats se tenant à l’Académie au sujet de l’avis qu’elle doit émettre sur le changement climatique (…), écrivent-ils. Astrophysiciens ou planétologues comme vous, nous sommes consternés qu’une position niant la réalité du réchauffement climatique an­thropique puisse encore être soutenue à l’Académie, face à l’accumulation objective des preuves et dans une démarche déontologiquement douteuse.  »

    La missive n’accusait pas ses destinataires  : elle enjoignait plutôt aux astrophysiciens membres de l’Académie de monter au combat. «  Nous mesurons avec effroi les dégâts qu’une telle position pourrait produire, quelques mois avant la COP21, si elle venait à s’exprimer dans l’avis officiel de l’Académie, précisaient les chercheurs. Vous avez tout notre soutien pour que l’Académie émette un avis sans ambiguïté.  »

    Des proches de Claude Allègre

    Aujourd’hui, plus personne ne doute de la réalité et des causes humaines du changement climatique en cours. Plus aucune institution scientifique – ni dans les grands pays producteurs d’hydrocarbures, ni n’importe où d’ailleurs – ne les remet en cause. Plus aucune ? Pas tout à fait. l’Académie des sciences française, un petit groupe d’irréductibles – pour la plupart proches deClaude Allègre – résiste encore et toujours au consensus scientifique. (...)

    Avec l’imminence de la COP21, le psychodrame était inévitable. Il s’est irrémédiablement produit. En 2014, un an avant la conférence de Paris, l’Académie forme un groupe de dix académiciens – dit « groupe COP21 » – avec pour mission de préparer un avis sur le climat, en appui des négociations qui se tiendront l’année suivante. Au sein du groupe, le géophysicien Vincent Courtillot soutient une position climatosceptique. « Les premières ​réunions du groupe se sont très mal passées, le ton est monté, et il a été rapidement clair que le groupe ne parviendrait pas à se mettre d’accord », dit un académicien qui, comme presque tous ceux interrogés par Le Monde, a requis l’anonymat – à l’Institut, semble-t-il, règne un surprenant climat de peur.

    « Problème déontologique »

    Personnage flamboyant, grand orateur, habitué des médias, Vincent Courtillot est l’ancien bras droit de Claude Allègre. Fin 2014, ce spécialiste mondialement reconnu du magnétisme terrestre présente en séance publique de l’Académie des séries de courbes et de données supposées soutenir ses idées sur le climat. Des courriels assassins circulent. Le climatologue Edouard Bard, académicien et membre du groupe COP21, met crûment en cause la déontologie de son collègue. « Tu as remontré cinq planches de tes travaux de 2008, 2009, 2010 qui ont tous été réfutés dans plusieurs articles expertisés par les pairs », écrit-il à Vincent Courtillot, en copie à tant d’académiciens que l’interpellation devient largement publique. La présentation de travaux invalidés pose « un problème déontologique », notifie le professeur du Collège de France, qui ajoute en substance qu’une bonne part de la présentation de son adversaire est soit tirée d’une fausse revue scientifique éditée en Chine, soit inspirée d’un blog climato​sceptique...

    M. Courtillot n’a pas répondu. Lourde ambiance sous la coupole.
    Sans surprise, le groupe COP21 a fini par se désintégrer. Il aura suffi de deux articles de presse racontant le pataquès, l’un dans Le Monde, l’autre dans le mensuel La Recherche, pour que le groupe cesse de se réunir sans avoir accouché du moindre avis. Fin de l’histoire ? Pas tout à fait. « Dans la dernière semaine d’octobre, nous avons été estomaqués de recevoir dans nos boîtes aux lettres électroniques, par la bande, un projet de texte non signé de huit pages dont on ne sait pas qui l’a rédigé », raconte un membre de l’institution. Dans un message adressé au Monde, M. Courtillot suggère que tous les membres « ou presque » du groupe COP21 « ont mis la main à telle ou telle partie de cet avis ». Selon nos informations, plusieurs membres du groupe n’ont pourtant pas été officiellement informés de l’existence du document. « L’avis n’a en aucun cas été rédigé par le groupe COP21 », confirme de son côté le physicien Edouard Brézin, membre du groupe en question et ancien président de l’Académie.

    La version de travail est ensuite ramenée de huit à quatre pages, au terme de « 24 itérations », précise M. Courtillot. Mais plusieurs académiciens interrogés par Le Monde dénoncent l’opacité du processus. Et pour cause : dans cet avis sur le climat, il est au final très peu question de climat. Car une fois le texte ramené de huit à quatre pages, la plupart des considérations exclusivement
    climatiques ont disparu. « La 24e mouture [du texte] a été discutée et débattue devant l’assemblée plénière des membres (environ 100 présents) et diverses modifications ont été apportées en séance, précise M. Courtillot. Il n’y a pas eu unanimité sur la partie climatique, mais en revanche une quasi-unanimité sur les conclusions en matière d’énergie, jugées être la partie la plus importante de l’avis. »

    Un avis passé inaperçu

    « Au départ, on devait avoir un avis sur le climat, ensuite c’est devenu “climat et énergie”, et en réalité on se retrouve avec un avis qui porte essentiellement sur l’énergie, grince de son côté un académicien. Ce qui est complètement ridicule puisque l’Académie a déjà rendu un avis sur la transition énergétique en début d’année... »

    L’avis du 3 novembre transpire à grosses gouttes le compromis âprement négocié : aucune référence explicite à la responsabilité humaine dans le réchauffement en cours, aucune mention des projections climatiques conduites par la communauté scientifique, aucune caractérisation des risques posés le réchauffement... L’avis est discuté en assemblée générale le 3 novembre, mis au vote et adopté par 78 % des membres présents. ​Publié le jour même, il passe remarquablement inaperçu, nul ne l’ayant jugé ​digne d’intérêt... « Le texte n’est tout de même pas honteux, tempère M. Brézin. Au moins, nous avons évité le pire. »

    Ce n’est pas l’avis de tous, certains académiciens n’ayant pas de mots assez durs pour qualifier l’avis pris en définitive. Comment expliquer l’influence des climatosceptiques à l’Académie des sciences ? Pour comprendre, il faut faire un saut de cinq ans dans le passé.
    On s’en souvient : début 2010, Claude ​Allègre publiait L’Imposture climatique (Plon), l’un des best- sellers de l’année, dans lequel il accusait la communauté des climatologues d’être une « mafia » usant de diverses tricheries et de « méthodes totalitaires » pour imposer l’idée du réchauffement anthropique... « C’était une situation incroyable, se souvient le climatologue Eric Guilyardi (CNRS, université de Reading). Toute une communauté scientifique, qui se faisait insulter à longueur d’émissions de télévision, attendait que ses tutelles réagissent... et pendant de longues semaines, il ne s’est rien passé. »

    Crever l’abcès

    Les chercheurs en sciences du climat se sont en définitive défendus eux-mêmes, avec une initiative sans précédent dans l’histoire de la recherche française : plus de 600 scientifiques signant une lettre collective qui dénonçait les « accusations mensongères » de deux de leurs éminents pairs – Claude Allègre et Vincent Courtillot, membres influents de l’Académie... Interrogée, la physicienne Catherine Bréchignac, secrétaire perpétuelle de l’Institut, relativise et rappelle en substance que l’histoire des sciences est émaillée de violents affrontements : la farouche opposition de Marcelin Berthelot (1827-1907) à la théorie atomiste ; ou encore les virulentes passes d’armes sur la théorie de Jacques Benveniste (1935-2004), la célèbre « mémoire de l’eau »...

    « La démarche scientifique est faite de discussions, et maintenir la diversité intellectuelle est important, dit le chimiste Bernard Meunier, président de l’Académie des sciences. Nous ne souhaitons pas le formatage des esprits. Il n’y avait que du temps de l’URSS qu’on ne trouvaitque des avis avec des majorités absolues. »

    Au risque de calomnier ses adversaires ? En 2010, saisie par 600 chercheurs furieux d’être insultés, la ministre de la recherche d’alors, Valérie Pécresse, ordonne à l’Académie d’organiser un débat scientifique contradictoire sur le climat. Il fallait crever cet abcès.
    Sont invités une brochette de chercheurs spécialistes de la question, dont Eric Guilyardi. Peu de choses ont filtré de la réunion, mais dans un livre très récemment publié (Que feriez-vous si vous saviez ? Des climatologues face à la désinformation, Le Pommier, 190 pages, 17 euros), le chercheur raconte les dessous du débat : « aucune transparence dans la préparation des réunions », « processus d’invitation obscur », « contributions, écrites à l’avance, interdites de diffusion », « échanges menés à huis clos, aucun journaliste n’ayant été admis », « prises de parole organisées en fonction des luttes internes »... Quant au débat lui-même, « il n’a pas semblé vouloir dépasser le niveau du Café du commerce », raconte Eric Guilyardi, qui note toutefois que « de nombreux académiciens ont aussi fait barrage » aux climatosceptiques.

    Une Fondation soutenue par EDF, Alstom, Schlumberger et Cristal Union

    « Le sommet est atteint par un académicien qui se lève pour affirmer avec assurance que “les climatologues disent n’importe quoi puisqu’ils avaient prévu une glaciation dans les années 1970, qui n’est pas arrivée !” », écrit Eric Guilyardi. Curieux, des climatologues l’interrogent pour connaître ses sources. « L’académicien, gêné, finit par avouer, à la pause-café, qu’il tire cette information du film catastrophe Le Jour d’après [de Roland Emmerich], qui vient de passer à la télévision... » Le débat accouchera dans la douleur d’une brève déclaration, là encore âprement négociée et dénuée de toute référence scientifique, reconnaissant du bout des lèvres le consensus : oui, le ​climat se réchauffe, et oui, les activités humaines en sont responsables...
    Mais quelques mois plus tard, alors que les braises de la polémique sont encore vives, l’Institut de France accepte, à la demande de Claude Allègre, d’abriter une nouvelle fondation dont il est fondateur, la Fondation Ecologie d’avenir...

    Bronca immédiate. Echaudés par les scandales à répétition autour du climat, une soixantaine d’académiciens, dont l’ancien président, le physicien Edouard Brézin, s’adressent fin octobre 2011 au chancelier de l’Institut, Gabriel de Broglie, pour lui demander de renoncer au projet. « Comme vous le savez, notre confrère Claude Allègre est pour l’opinion française le porteur du climatoscepticisme, écrivent-ils. Alors qu’à l’évidence le changement climatique est sans doute l’une des thématiques majeures nécessitant des actions immédiates pour préserver l’environnement et permettre l’adaptation des sociétés humaines. »

    En vain. La Fondation Ecologie d’avenir, soutenue par EDF, Alstom, Schlumberger et Cristal Union, sera bien abritée par l’Institut. A la condition – surprenante pour une structure destinée à traiter d’environnement – de s’abstenir d’aborder la question climatique. Un engagement qu’elle a jusqu’à présent respecté...
    Mais plusieurs de ses membres appartiennent aussi aux instances exécutives de l’Académie.

    A commencer par Catherine Bréchignac, qui ne fait pas mystère de ses penchants climatosceptiques. Ou encore le président Meunier qui, « n’étant pas spécialiste du climat », ne se prononce ni en faveur ni en défaveur du consensus scientifique. Dans son édition de juin, La Recherche notait ainsi que deux des quatre membres du bureau, le saint des saints de la société ​- savante, appartiennent à la Fondation Ecologie d’avenir. En outre, ajoutait le mensuel scientifique, sur les quatorze académiciens membres de la fondation, plusieurs siègent au comité restreint – deuxième instance dirigeante de l’Académie...
    Comme promis, la fondation ne s’exprime pas sur la question climatique. Ses membres, eux, ne s’en privent pas, bien qu’aucun ne soit spécialiste en la matière.

    Une Fondation épinglée par la Cour des comptes

    La fameuse fondation a toutefois du plomb dans l’aile. La faute en revient à la Cour des comptes. Publié en avril, son rapport sur le fonctionnement de l’Institut de France et des cinq académies notait en effet que le « fonctionnement de [cette] fondation apparaît très particulier ». « Aux termes d’une convention conclue avec une association, dénommée “Association Ecologie d’avenir Claude Allègre”, l’ensemble des dépenses de la fondation, notamment pour l’organisation de colloques, transitent par cette association, créée à cet effet et présidée par un autre membre de l’Académie des sciences », détaillent les magistrats de la Cour, jugeant « injustifié » un tel montage. Avec quelque perfidie, les « sages » de la rue Cambon ajoutent : « L’association, au demeurant, est une structure légère ; elle compte un seul salarié, proche parent du fondateur [M. Allègre]. » Le chancelier de l’Institut de France, Gabriel de Broglie, n’a pas donné suite aux sollicitations du Monde.

    Le chimiste Christian Amatore, académicien, membre de la fondation et président de l’association Ecologie d’avenir de Claude Allègre, est, lui, scandalisé par la mise en cause de la structure créée par Claude Allègre. Il dit avoir démissionné de certains de ses mandats à l’Académie « pour ne pas risquer que des propos tendancieux dont les connotations sont diffamantes rejaillissent sur [ses] actions ». « Le résultat de cette présentation calomnieuse de la fondation et de l’association a été que le chancelier a décidé de supprimer tous les moyens de financer des employés sur les comptes des associations liées aux fondations de l’Institut, ajoute M. Amatore dans un message au Monde. En conséquence, j’ai dû licencier Laurent Allègre [proche parent de Claude Allègre] et n’ai engagé personne à sa place, ce qui de facto a stoppé l’organisation des colloques. » Pour autant, le climatoscepticisme qui règne sous la coupole en sera-t-il stoppé ?

  • Le génie génétique face au risque eugéniste

    http://www.lemonde.fr/sciences/article/2015/11/30/le-genie-genetique-face-au-risque-eugeniste_4820662_1650684.html

    En février 1975, un groupe de 150 scientifiques se réunissait à huis clos au centre de conférences d’Asilomar, près de Monterey (Californie), pour réfléchir aux techniques d’assemblage d’ADN d’espèces différentes qui venaient d’être découvertes aux Etats-Unis. De cette rencontre, il était sorti non pas un moratoire sur le génie génétique, mais un cadre rigoureux pour la sécurité des expériences et l’interdiction d’utiliser des organismes dangereux pour l’espèce humaine. C’était la première tentative d’autorégulation de la communauté scientifique. «  La convention constitutionnelle de la biotechnologie », décrit le New ­Yorker dans son édition du 16 novembre. ­Redoutant que des bactéries génétiquement modifiées ne se dispersent dans l’environnement, les chercheurs s’autocensuraient.

    Perspectives vertigineuses

    Quarante ans plus tard, alors que ces craintes ont fait place au spectre du «  bébé sur mesure  », un sommet international se tient à Washington du 1er au 3 décembre sur la modification du génome humain, à l’initiative des Académies nationales de sciences et de médecine des Etats-Unis. La communauté scientifique prend acte de l’emballement de la technologie sur l’«  édition  » du génome et des perspectives vertigineuses qu’ouvre la diffusion des expériences hors des labos traditionnels. Contrairement au huis clos d’Asilomar, elle entend cette fois associer le public à ses interrogations. Un nombre limité de journalistes seront admis à la conférence, mais les interventions seront retransmises en ligne.

    (...)

    Pour les critiques, c’est la « civilisation » ​elle-même qui est en jeu si rien n’est fait pour interdire à l’échelle de la planète les expériences sur les cellules germinales aboutissant à des modifications transmissibles aux enfants et aux futures générations, c’est-à-dire à la création d’humains génétiquement modifiés. Ceux-là, comme les membres du Center for Genetics and Society, de Berkeley, craignent le glissement de la thérapeutique à l’« augmentation » des capacités humaines dont rêvent les transhumanistes.

    Crispr-CAS9, le nouveau « jouet » de biosynthèse

    « Nous voulons être sûrs que la technologie soit utilisée pour traiter les maladies et non pour créer des surhommes », explique Marcy Darnovsky, la directrice de l’organisation, qui est également l’une des représentantes de la société civile à la conférence de Washington. « L’évolution travaille à optimiser le génome humain depuis quelque 3,85 milliards d’années, met en garde Francis Collins, le directeur du National Institutes of Health, l’institution de référence de la médecine américaine, sur le site d’informations spécialisées Stat. Croyons-nous vraiment qu’un petit groupe de bricoleurs du génome pourrait faire mieux sans entraîner toutes sortes de conséquences imprévisibles ? »

    Le sommet intervient à un moment de grande agitation dans le milieu de la biosynthèse. Excitation devant les promesses offertes depuis 2012 par le nouveau « jouet » : ​Crispr-CAS9, l’outil qui révolutionne l’ingénierie génétique en permettant d’effectuer en quelques jours des modifications qui prenaient une thèse de doctorat entière. Un nom abscons (Clustered Regularly Interspaced Short Palindromic Repeats) pour une technologie qui revient à insérer ou éliminer un gène comme un simple copier-coller. Fébrilité à l’idée de ne pas en être alors que les chercheurs font miroiter la possibilité d’éradiquer le paludisme, d’éliminer la stérilité masculine, de greffer des organes de cochons modifiés sur les humains (un chercheur a aussi agité la possibilité de modifier le génome de l’éléphant pour ressusciter le mammouth). Et vertige devant les possibilités de dérapages.

    « Dans la communauté, il y a une crainte ​de perte de contrôle », explique Eleonore Pauwels, du projet sur la biologie de synthèse du Woodrow Wilson Center, un institut de politiques publiques financé par le gouvernement américain. Les scientifiques occidentaux s’inquiètent des intentions des ​Chinois (craintes renforcées depuis que l’université Sun Yat-sen a annoncé des expériences sur des embryons humains, certes non viables, en avril 2015). « La Chine fait énormément de séquençage de plantes, d’animaux, d’êtres humains. Elle est vue comme un acteur qui pourrait ne pas jouer le jeu », ajoute l’analyste. Selon les débats préparatoires à la conférence, un millier de laboratoires chinois travaillent déjà avec la technique Crispr. Grande différence avec Asilomar, Pékin est d’ailleurs associé à la conférence, par l’intermédiaire de l’Académie chinoise des sciences.

    Kit pour modification génomique

    Autre source d’inquiétude : la dispersion potentielle de la technique. Crispr-CAS9 (CAS9 est la protéine associée) est réputé être accessible à tout étudiant en biologie. « Que le monde soit prêt ou pas, les organismes synthétiques − virus augmentés de la grippe ou embryons génétiquement modifiés − existent déjà. Même s’ils sont détruits, les instructions pour les créer se trouveront inévitablement sur Internet », s’inquiète le magazine Nature. Sur la plateforme de financement participatif Indiegogo, on trouve un projet de kit pour modification génomique. « Et si vous aviez accès à des outils de biologie de synthèse comme Crispr ? », invite le site, une initiative de Josiah Zayner, un docteur en biologie moléculaire qui collabore à la NASA et entend « démocratiser la science pour que tout le monde y ait accès ».

    Ces « laboratoires communautaires » ne sont pas sans susciter l’inquiétude du FBI. L’un de ses agents, Edward You, de l’unité biologie du directorat des armes de destructions massives, est bien connu du milieu. On pouvait le croiser début novembre à la conférence organisée par SynBioBeta, l’organisation financée par l’industrie des biotechnologies, à San Francisco. Il était venu assurer auxchercheurs que « le gouvernement est là pour les aider » à limiter les « risques potentiels » et à opérer « en toute sécurité ».

    A l’inverse, les financiers salivent à la perspective de pommes qui ne noircissent pas ou de pesticides rendus inoffensifs pour l’homme, en attendant de pouvoir le faire plus ouvertement à propos de modifications du génome humain. Ils viennent de remporter une victoire : après dix-neuf ans d’efforts, le saumon génétiquement modifié pour grossir à vitesse accélérée vient d’être approuvé pour la consommation humaine aux Etats-Unis − premier animal dans ce cas. D’après Paul Berg, l’un des instigateurs d’Asilomar, c’est la différence avec les années 1970. A l’époque, relevait-il dans un texte de 2008 publié par Nature, les chercheurs étaient principalement issus d’institutions publiques. Maintenant, beaucoup de scientifiques choisissent le privé, où le principe de précaution n’est pas tout à fait le même. « On n’a pas arrêté le développement de l’électricité parce qu’il y avait un risque d’incendies », insistait le bio-entrepreneur Michael Flanagan. « Notre travail, c’est de préserver le droit à l’innovation », ajoutait Catherine Barton, ingénieure environnementaliste chez DuPont, le géant de l’agrotechnologie.

    Pente glissante

    Au printemps, Jennifer Doudna a plaidé, dans le magazine Science, pour un moratoire temporaire sur les expériences sur le génome de l’embryon, une initiative qui ne fait pas l’unanimité car elle pourrait conduire à limiter les financements. Dans le New Yorker, la biologiste fait part de ses états d’âme. « Quand j’aurai 90 ans, est-ce que je serai satisfaite de ce que nous avons accompli avec cette technologie ? Ou est-ce que je souhaiterai n’avoir jamais découvert comment elle
    fonctionne ? »

    La communauté scientifique est divisée quant à l’évaluation des risques par rapport aux bénéfices. Les uns soulignent qu’aucun des scénarios de cauchemar des années 1980 ne s’est réalisé et que les techniques qui effrayaient l’opinion, comme la fertilisation in vitro, sont aujourd’hui monnaie courante. Marcy Darnovsky réfute cet argument. « La fertilisation in vitro ne modifiait pas l’être humain pour des générations. »

    La bioéthicienne craint « la stratification sociale » qu’entraînerait inévitablement un laisser-faire généralisé sur le génome : seuls les plus fortunés pourraient avoir accès à l’« amélioration » de leur progéniture. Pour le professeur Paul Knoepfler, du département de biochimie de l’université de Californie à Davis, la pente est glissante. « Il y a déjà des exemples de chiens et de cochons aux muscles génétiquement renforcés. Cela pourrait être une tentation irrésistible pour certains parents. Si nous allons sur ce terrain, il sera difficile de conserver la confiance du public. »

    Mais la technologie Crispr est « très séduisante », reconnaissent les chercheurs. Pour Eleonore Pauwels, tel est l’enjeu du sommet de Washington : « Parviendrons-nous à contrôler notre hubris devant la tentation de transformer − et contrôler − une mécanique aussi complexe que le génome humain ? »

  • Matière et antimatière, étrangement similaires

    http://www.lemonde.fr/sciences/article/2015/11/09/matiere-et-antimatiere-etrangement-similaires_4805904_1650684.html

    Au commencement, quelques «  pouièmes  » de seconde après le Big Bang, le monde était double, composé d’autant de particules que d’antiparticules, c’est-à-dire des sœurs quasi identiques, comme peuvent l’être un objet et son image dans un miroir. Le «  miroir  » est cependant particulier, car il inverse notamment la charge électrique des particules sans toucher à leur masse.

    Mais quelques autres pouièmes de seconde plus tard, les antiparticules ont disparu   ; seules les particules sont restées, donnant naissance à la matière que nous connaissons, faite de protons, de neutrons, d’électrons…

    La brisure de ce miroir primordial est l’un des plus grands mystères de l’origine de l’Univers. Sans elle nous ne serions pas là : matière et antimatière, quand ­elles se rencontrent, s’annihilent, laissant seulement du rayonnement derrière elles… L’antimatière, sur Terre, n’existe plus que fabriquée sur commande.
    De nombreuses expériences ont tenté et tentent encore de comprendre la cause de ce basculement. Le miroir magique doit avoir un défaut et autoriser d’infimes différences de comportement entre particules et antiparticules.

    Chou blanc  !

    Une équipe internationale baptisée STAR, travaillant sur l’accélérateur de particules RHIC de Brookhaven aux Etats-Unis, vient de faire une nouvelle tentative, en mesurant pour la première fois l’écart entre la force agissant entre deux protons et celle qui agit entre deux antiprotons. Chou blanc  ! comme elle l’explique dans ​Nature du 5 novembre. Cette force est la même dans les deux cas : les deux types de particules s’attirent pareillement.

    Cela peut surprendre, car le proton porte une charge positive et deux charges électriques de même signe se repoussent. Sauf que, dans l’expérience, les deux particules sont si proches, quelques millionièmes de milliardième de mètre, que l’interaction électromagnétique ne domine pas et est même dix fois plus faible qu’une autre force, l’interaction dite forte. Celle-ci colle entre eux les trois quarks qui composent les protons ou les neutrons, et attire les protons (ou les antiprotons) entre eux.

    « D’autres expériences avaient déjà estimé cette force de manière indirecte en fabriquant des deutérons, composés d’un proton et d’un neutron, et des anti-deutérons, mais là c’est la première mesure directe de cette force. C’est donc un résultat important », indique Michael Doser du CERN, spécialiste des questions d’antimatière.

    Au RHIC, les chercheurs ont créé les antiprotons en percutant à grande vitesse des noyaux d’or. En six mois, 5 milliards d’antiparticules ont été produites en gerbes. Si ces jets s’étaient répartis aléatoirement autour du point de collision, cela aurait signifié que les antiprotons n’interagissent pas entre eux. Mais ils ont observé qu’ils partent préférentiellement par paires, et que donc ils s’attirent. « Nous avons vérifié que l’interaction forte est semblable entre matière et antimatière », souligne Aihong Tang, le porte-parole de l’expérience STAR.

    Auparavant, des comparaisons portant sur la force électromagnétique, la masse ou d’autres propriétés avaient abouti aux mêmes conclusions. « La brisure de cette symétrie reste un mystère. Nous allons maintenant améliorer encore notre précision », indique Aihong Tang, satisfait, car ces mesures servent également à mieux cerner l’interaction forte qui, même sans le problème de l’antimatière, reste mal comprise.

    Au CERN, une demi-douzaine de projets sont en cours pour tenter aussi de casser le miroir. Des expériences veulent sonder l’intérieur de l’anti-hydrogène (un anti-proton avec un anti-électron gravitant autour) pour vérifier qu’il réagit comme l’hydrogène. D’autres, dont Aegis sur laquelle travaille Michael Doser, veulent voir si les anti-atomes tombent vers le bas, comme les atomes, ou vers le haut. Ou s’ils tombent, comme c’est plus probable, légèrement différemment. Réponse à partir de 2016.

  • Le génome d’un vieil Éthiopien chamboule l’histoire des migrations d’Homo sapiens
    http://www.lemonde.fr/sciences/article/2015/10/08/le-genome-d-un-vieil-ethiopien-chamboule-l-histoire-des-migrations-d-homo-sa

    L’Afrique, berceau de l’homme moderne, est généralement considérée comme une terre d’#émigration. C’est d’#Afrique qu’#Homo_sapiens a commencé, il y a 125 000 à 60 000 ans, son irrésistible conquête du reste du monde. Avant lui, en étaient déjà sortis les ancêtres d’Homo erectus, et on soupçonne plusieurs épisodes migratoires hors d’Afrique plus ou moins réussis dans la préhistoire humaine. Mais on évoque bien plus rarement des mouvements de populations dans le sens inverse.

    La description du génome complet d’un Éthiopien vieux de 4 500 ans suggère pourtant que les Africains vivant aujourd’hui tiennent une part importante de leur hérédité (jusqu’à 7 %) d’ancêtres ayant pratiqué l’agriculture au Moyen-Orient. Ces travaux, publiés dans Science vendredi 9 octobre, et dirigés par Andrea Manica (université de Cambridge) donnent accès pour la première fois au #génome entier d’un Africain ancien. Un exploit, car le climat chaud et humide empêche généralement la préservation de l’ADN sur ce continent. Mais la grotte de Mota, dans l’ouest de l’Ethiopie, a fait exception.

  • Le ciel et la terre, unis pour liquider les dinosaures

    http://www.lemonde.fr/sciences/article/2015/10/01/le-ciel-et-la-terre-unis-pour-liquider-les-dinosaures_4780456_1650684.html

    Alors, volcans ou météorites ? Depuis vingt ans, Capulets et Montaigus des géosciences se rendaient coups pour coups. Trop lente, étalée sur plusieurs millions d’années, l’activité volcanique ne pouvait à elle seule avoir refroidi la planète, disaient les uns. Trop précoce, la météorite aurait dû tuer les dinosaures 300 000 ans plus tôt, répliquaient les autres. Sitôt avancés, les arguments étaient corrigés. Ainsi les « volcanos » affinaient leur séquence et établissaient la brutalité de certains phénomènes magmatiques. Quant aux « astéros », ils ramenaient le décalage à… 32 000 ans, une broutille à l’échelle géologique. Les combattants semblaient infatigables. Analyses chimiques, études géologiques, modélisations, datations : chaque congrès international leur offrait l’occasion de ferrailler, au point de lasser une partie de la communauté scientifique.

    Pour les Américains, la météorite aurait non seulement projeté son fameux nuage, mais aussi provoqué une phénoménale onde sismique. « L’équivalent d’un tremblement de terre de magnitude 11 », assure Paul Renne. De quoi fragiliser la lithosphère de l’autre côté du globe ? Mark Richards en est persuadé. « Le système volcanique était déjà très actif, et il a continué longtemps après l’impact », interdisant tout retour en arrière, concède le chercheur. Deux criminels, donc. « Mais l’impact a manifestement eu des conséquences sur le régime volcanique », ajoute-t-il. Autrement dit, un commanditaire ? « On va encore pouvoir discuter », sourit Frédéric Fluteau.

  • Les Chinois, prêts pour le dopage du QI in utero

    http://www.lemonde.fr/sciences/article/2015/09/21/les-chinois-prets-pour-le-dopage-du-qi-in-utero_4765853_1650684.html

    Des expérimentations récentes ont augmenté les capacités intellectuelles de souris en modifiant la séquence de leur ADN. L’augmentation des capacités cognitives pourrait être prochainement démontrée chez le singe. Seraient-elles acceptables dans l’espèce humaine  ?

    Une polémique scientifique animée oppose les partisans de l’interdiction de la modification des embryons humains à des groupes favorables à ces manipulations. Dans un avis du 4 septembre, le groupe Hinxton (un réseau international de chercheurs, de bioéthiciens et de politiques) affirme que la modification ­génétique des embryons humains serait une «  valeur inestimable  » pour la recherche.

    Les Chinois sont de fait les plus permissifs en ce qui concerne ces technologies et n’auraient aucun complexe à augmenter le QI de leurs enfants par des méthodes biotechnologies.

    La première manipulation génétique portant sur 86 embryons humains a d’ailleurs été menée en avril par des scientifiques chinois, qui ont publié leurs travaux juste après la médiatisation d’une pétition internationale opposée à ces expérimentations ! Les pays où régnera un consensus sur l’augmentation cérébrale des enfants pourraient, lorsque ces technologies seront au point, obtenir un avantage géopolitique considérable dans une société de la connaissance. Le philosophe Nick Bostrom, de l’université d’Oxford, estime que la sélection des embryons après séquençage permettrait en quelques décennies d’augmenter de 60 points le QI de la population d’un pays. En ajoutant la manipulation génétique des embryons, on pourrait obtenir une augmentation encore plus spectaculaire.

    Cette perspective est vertigineuse et effrayante, mais la pression sociale pour faire du neuro- enhancement (« augmentation cérébrale ») va aller croissant avec le développement de l’intelligence artificielle (IA). Sebastian Thrun, l’inventeur de la Google Car, explique dans The Economist du 5 septembre que, « à cause de l’efficacité croissante des machines, il va être de plus en plus difficile pour un être humain d’apporter une contribution productive à la société. Les machines pourraient nous dépasser rapidement.

    Les chauffeurs routiers vont être parmi les premiers à être remplacés par les machines, mais aucune profession n’est à l’abri ». Il considère dès lors qu’il faut tout faire pour nous donner une chance face à l’IA. Cette angoisse vis-à-vis de l’intelligence artificielle devrait conduire la plupart des parents à accepter les technologies d’augmentation cérébrale pour leurs enfants dès qu’elles seront au point. Les jeunes Chinois n’ont pas fini de revendiquer le droit au neuro-enhancement !