person:jean-gabriel ganascia

  • Intelligence artificielle : « La complexité de la modélisation du cerveau humain a toujours été sous-estimée »
    https://www.lemonde.fr/idees/article/2019/05/03/intelligence-artificielle-la-complexite-de-la-modelisation-du-cerveau-humain

    Les spécialistes de l’IA eux-mêmes commencent à reconnaître les limites des promesses « vendues » à une opinion publique gourmande d’utopies technologiques, rappelle l’experte Claire Gerardin dans une tribune au « Monde ».

    Yann LeCun, chercheur en intelligence et vision artificielles à l’Université de New York et directeur de Facebook Artificial Intelligence Research (FAIR), est l’un des pionniers de l’intelligence artificielle (IA) grâce à son rôle majeur dans le développement des technologies de l’apprentissage profond (« deep learning »). C’est à ce titre qu’il a reçu, le 27 mars, avec Yoshua Bengio et Geoffrey Hinton, le prix Turing – un « Nobel de l’informatique ».

    Pourtant, Yann LeCun affirme volontiers que les ambitions en matière de recherche en intelligence artificielle ont toujours été extravagantes. La complexité de la modélisation du cerveau humain pour reproduire son fonctionnement – ce qui est l’objectif originel de l’intelligence artificielle – a toujours été sous-estimée, et les progrès des recherches sont moins importants que ceux auxquels on s’attendait. Pour ce chercheur, il faut délaisser la course à la performance technologique pour se recentrer sur les sujets fondamentaux que sont l’intelligence, le sens commun, ou encore l’apprentissage (« Y a-t-il un cerveau dans la machine ? », « La Méthode scientifique » – Nicolas Martin, France Culture, 30 août 2017).

    La majorité des applications dont on dit qu’elles utilisent l’IA – la traduction, le diagnostic médical, la voiture autonome – utilisent en fait l’apprentissage profond, sa composante principale et quasi unique. Aujourd’hui, tous les assistants vocaux virtuels suivent des scripts préécrits par des humains en fonction de la reconnaissance de mots, ce qui confère à l’IA une compréhension encore très superficielle du sens de la parole.

    Reconnaissance et connaissance

    Pour entraîner cet apprentissage profond et écrire ces scripts, le sociologue Antonio Casilli, auteur d’En attendant les robots (Seuil, 400 p., 24 €), rappelle qu’il y a toujours un humain derrière la machine. En effet, pour exercer les ordinateurs à reconnaître des objets dans des images, les détourer, nettoyer les algorithmes imparfaits, ranger des bases de données, corriger des erreurs typographiques, transcrire des contenus audio, noter des sites Web, modérer les contenus, etc., les acteurs des nouvelles technologies recrutent des opérateurs humains. Ils le font sur des plates-formes de microtâches qui emploient des microtravailleurs, comme Mechanical Turk, UHRS (Universal Human Relevance System), EWOQ, Mighty AI, Crowdflower, Prolific, etc. L’ONU a publié une étude afin d’appeler à une régulation de cette économie parallèle qui touche tous les pays, développés comme en voie de développement (« Digital labour platforms and the future of work », International Labour Office, 2018).

    Peut-on aller jusqu’à dire que L’intelligence artificielle n’existe pas, comme l’affirme le titre du livre de Luc Julia (First 200 p., 17,95 €), vice-président mondial de l’innovation de Samsung. Selon lui, pour créer une IA, il faudrait déjà pouvoir comprendre l’intelligence humaine. Et cela ne serait possible que grâce à une maîtrise scientifique et interdisciplinaire (mathématiques, statistiques, biologie, chimie, physique). Si aujourd’hui le deep learning représente une très grande avancée technologique, on ne peut pas le qualifier d’IA. Car il s’agit de reconnaissance d’images et de mots, et non de connaissance. Et cette reconnaissance demande encore beaucoup d’entraînement des ordinateurs. Par exemple, pour reconnaître un chat dans une image avec un taux de succès de 98 %, il faut à un ordinateur une base de données contenant 100 000 photos de chats, alors qu’un enfant a besoin de deux exemples de photos pour y parvenir sans erreur.

    Récits technologiques

    Ces entraînements représentent tellement d’investissements que le groupe PSA vient d’annoncer l’abandon de ses projets de développement de conduite autonome au-delà du niveau 3 pour ses véhicules particuliers. John Krafcik, le PDG de Waymo, filiale de Google en charge de concevoir la Google Car, affirme qu’il faudra encore des dizaines d’années avant que l’on puisse voir des véhicules autonomes de niveau 4 ou 5 sur les routes, et, dans tous les cas, elles devront avoir un conducteur à bord.

    Alors, pourquoi l’IA connaît-elle un tel succès dans les médias, et un tel engouement dans l’opinion ? C’est l’une des questions à laquelle Jean-Gabriel Ganascia, informaticien et philosophe, tente de répondre dans son livre Le Mythe de la singularité (Seuil, 2017). Il y explique pourquoi l’hypothèse selon laquelle l’invention de l’IA déclencherait un emballement de la croissance technologique qui induirait des changements imprévisibles sur la société humaine, qu’il appelle le mythe de la singularité – s’est largement imposé ces dernières années. L’une des raisons serait que les systèmes de financement de la recherche privilégient les projets capables de susciter de grandes espérances. Leurs concepteurs n’hésitent alors pas à faire la promotion de leurs innovations avec des arguments exaltés.

    Dans un contexte de concurrence intense, les entreprises essaient aussi de se démarquer en portant des ambitions exagérées, du genre de celles qui visent à « changer le monde ». Pour garder le contrôle de marchés où les exigences des clients évoluent en permanence, il ne reste aux entreprises du numérique que la fabrication et la promotion des récits qui accompagnent les technologies. Elles usent en particulier de deux d’entre eux : le récit de l’inéluctabilité, selon lequel les technologies seraient autonomes et se développeraient elles-mêmes ; et la promesse d’éthique, selon laquelle il s’agirait de faire en sorte qu’elles ne nuisent pas aux humains.

  • Contre les « fake news », éduquer à la démarche scientifique

    https://www.lemonde.fr/sciences/article/2018/05/27/contre-les-fake-news-eduquer-a-la-demarche-scientifique_5305389_1650684.html

    Autocritique, transparence, autocorrection : ce qui fait la force de la science la rend vulnérable aux « marchands de doute », explique le président du comité d’éthique du CNRS.

    Jean-Gabriel Ganascia, professeur d’informatique à Sorbonne Université, préside le comité d’éthique du CNRS. Dernier ouvrage paru : Le Mythe de la singularité. Faut-il craindre l’intelligence artificielle ? (Seuil, 2017).

    Pourquoi les « fake news » – terme auquel vous préférez le néologisme français « infox » –, mettent-elles la science en danger ?

    Les « infox » augmentent la défiance du grand public vis-à-vis de la science dans la mesure où elles remettent en cause un certain nombre de résultats de la recherche. Celle-ci a toujours été un terrain de prédilection pour les « marchands de doute » – lobbys industriels, religieux ou idéologiques. Dans le domaine des OGM, du réchauffement climatique, de la théorie de l’évolution ou de la vaccination, les faits sont régulièrement distordus pour promouvoir une cause. Ce qui est nouveau, c’est que ces « infox » colportées par les réseaux sociaux sont désormais fabriquées et diffusées à une échelle qui n’a plus rien d’artisanal.

    La situation est d’autant plus complexe que la science, par nature, se nourrit de défiance. Elle ne repose pas sur la confiance dans les intuitions immédiates que nous donnent les sens : elle essaie, au-delà de son doute, de retrouver des formes d’assurance avec des méthodes de preuve. Une controverse scientifique part d’un désaccord entre des chercheurs de bonne foi, mus par la volonté de parvenir à la vérité, qui s’y efforcent par des débats contradictoires, en utilisant des arguments rationnels et des preuves rigoureuses.

    « LE BON DOUTE EST INQUIET, DÉFEND DES THÈSES TOUT EN RESTANT OUVERT AUX ARGUMENTS DE L’AUTRE. LE MAUVAIS DOUTE NE DOUTE PAS DE LUI-MÊME, NE SUPPORTE AUCUNE CONTRADICTION ET N’EST PAS ÉTAYÉ PAR DES FAITS »

    C’est paradoxalement cette force de la science – l’autocritique, la transparence, l’autocorrection – qui prête le flanc aux vérités « alternatives ». Mobilisées pour alimenter de fausses controverses, elles allèguent de faits douteux et ne laissent pas de place pour le débat de bonne foi. C’est toute la différence entre le « bon doute » et le « mauvais doute ». Le bon doute est un doute inquiet, qui défend des thèses tout en restant ouvert aux arguments de l’autre. Le mauvais doute est un doute qui ne doute pas de lui-même, qui ne supporte aucune contradiction et qui n’est pas étayé par des faits.

    Le comité d’éthique du CNRS, que vous présidez, vient de produire un avis sur ce nouveau régime de « post-vérité ». Quelles responsabilités crée-t-il pour les chercheurs ?

    Pour aider les citoyens à prendre des décisions collectives sur des questions importantes, il faut porter à leur connaissance un certain nombre de conclusions de la recherche. Le fact-checking tel que le proposent aujourd’hui les grands médias est évidemment nécessaire, mais son efficacité reste limitée : l’expérience montre qu’une fois une nouvelle diffusée, le mal est fait, même si l’on démontre qu’elle est fausse. Il ne faut pas oublier par ailleurs que ces « infox » sont encouragées par le système économique. Les grands acteurs d’Internet rétribuant les informations en fonction du nombre de clics, les plus étonnantes sont toujours les plus rentables. Pour prendre le mal à la source, il faudrait donc amener les acteurs d’Internet à changer leur modèle économique.

    Comment, dans ce contexte, endiguer le « mauvais doute », qui a des conséquences délétères en matière de politiques publiques ou de comportements individuels ? Il faut essayer de communiquer le mieux possible avec un public le plus large possible, en utilisant toutes les voies de médiation, y compris les sciences participatives. Il faut également une meilleure éducation à la démarche scientifique – en enseignant l’épistémologie, par exemple, dès le secondaire. L’histoire des sciences permet en effet de valoriser le « bon » doute. Elle montre que la vérité ne s’impose pas toute seule.

    Que pensez-vous de la loi en préparation, qui propose une procédure judiciaire d’urgence pour les élections lorsqu’il est avéré qu’une fausse nouvelle de nature à altérer la sincérité du scrutin est diffusée de manière massive ?

    La liberté d’expression est une valeur essentielle, et je crains beaucoup une loi qui la restreindrait. Mais la diffusion massive de « fake news » est susceptible de provoquer un obscurcissement de l’attention tel que peuvent venir à manquer les capacités cognitives permettant de discerner le vrai du faux. Il me semble donc important de pouvoir identifier précisément ces stratégies d’obscurcissement de l’information et les arrêter lorsqu’elles visent véritablement à fausser les choix démocratiques à des moments-clés. Si la loi arrive à mettre ce garde-fou en place de façon claire, je pense qu’il faut la soutenir.

  • Peut-on faire confiance à l’intelligence artificielle ?
    https://lejournal.cnrs.fr/articles/peut-faire-confiance-a-lintelligence-artificielle

    Alors que nous faisons de plus en plus appel à des systèmes d’aide à la décision, s’en remettre à des machines ne nous fait-il pas perdre un peu de notre humanité ? De surcroît, les programmes ont beau disposer d’une logique « froide », ils ne sont pas exempts de préjugés. Les chercheurs planchent pour leur injecter de la « morale ».

    • #intelligence_artificielle #informatique #éthique #responsabilité #asservissement #droit #morale #assurance #véhicule_autonome #probabilités #logique_déontique

      Là est bien le danger. Pas dans les fantasmes made in Hollywood de prise de pouvoir par des machines rebelles et malveillantes. « Cela correspond à ce qu’on appelle la "singularité", cela n’a aucun fondement scientifique et ce n’est pas près d’arriver, contrairement à ce que prétendent certains cadors de l’industrie numérique et transhumanistes. Le véritable danger, c’est nous ! Lorsque, par ignorance ou par facilité, nous déléguons les décisions et notre autonomie à la machine, martèle Jean-Gabriel Ganascia. Laisser les algorithmes autonomes ultra–rapides aux commandes de la Bourse a ainsi sans doute conduit à la crise de 2008. Mais il y a une confusion à cause du terme “autonome” : au sens technique, cela ne veut pas dire qu’une machine définit ses propres objectifs. Cela veut seulement dire qu’elle peut atteindre sans intervention humaine un objectif donné, celui-ci ayant bel et bien été fixé par l’humain-programmeur. »

  • #intelligence_artificielle : les mythes qui masquent les dangers réels
    https://www.mediapart.fr/journal/culture-idees/141217/intelligence-artificielle-les-mythes-qui-masquent-les-dangers-reels

    Le gouvernement dévoile vendredi les résultats d’une consultation menée depuis un an par la Cnil sur la question de l’intelligence artificielle. Mediapart a interrogé le chercheur Jean-Gabriel Ganascia, auteur de plusieurs livres sur le sujet, dont Le Mythe de la singularité. Selon lui, les prophéties apocalyptiques sur des intelligences artificielles qui supplanteraient l’humanité ne sont que « des fables » masquant « la réalité du monde dans lequel nous entrons ».

    #Culture-Idées

  • L’oubli, mécanisme clé de la mémoire

    http://www.lemonde.fr/sciences/article/2017/08/21/l-oubli-mecanisme-cle-de-la-memoire_5174858_1650684.html

    C’est parce que les détails de nos souvenirs s’effacent que nous pouvons agir, nous adapter au quotidien, acquérir de nouvelles connaissances. Immersion dans les mécanismes de l’oubli qui, lorsqu’il se fait massif, peut être le symptôme d’une maladie ou d’une lésion cérébrale.

    « Dans sa chute, il avait perdu ­connaissance ; quand il était ­revenu à lui, le présent ainsi que les souvenirs les plus anciens et les plus banaux étaient devenus intolérables à force de richesse et de netteté. Il s’aperçut peu après qu’il était infirme. (…) Sa perception et sa mémoire étaient maintenant infaillibles. »

    Cette fiction de Jorge Luis Borges (1899-1986), Funes ou la ­mémoire (1942), est inspirée d’une histoire vraie : celle d’un patient, « S. », suivi par le psychologue russe Alexandre Luria (1902-1977). Funes ou l’impossible oubli. Peut-être ­enviez-vous ce jeune homme pour sa capacité quasi illimitée de stockage et de rappel de ses souvenirs ? Eh bien, vous avez tort. Le cadeau était empoisonné.

    Nous devrions bénir nos facultés d’oubli. Car une « bonne mémoire » doit certes nous permettre de retenir durablement l’essentiel de nos savoirs et de nos expériences. Mais elle doit aussi, et c’est primordial, parvenir à effacer ­l’accessoire, le superflu. Les Grecs anciens, déjà, l’avaient pressenti. Mnémosyne, déesse de la mémoire, n’a-t-elle pas enfanté les Muses, « qui procurent l’oubli des maux et la fin des douleurs », selon Hésiode dans La Théogonie ?

    « En dehors du contexte très particulier des maladies de la mémoire, les deux termes “mémoire”et “oubli” sont loin de représenter deux fonctions ­antagonistes. Ils répondent aux mêmes objectifs, car l’oubli est indispensable au bon fonctionnement de la mémoire », résume Francis Eustache, neuropsychologue, directeur d’une unité Inserm (université de Caen-Normandie) et directeur d’études à l’Ecole pratique des hautes études (EPHE), dans Mémoire et oubli (Le Pommier, 2014).

    « La condition même de l’action »

    Cet oubli « positif » rend notre mémoire performante, nous permet de forger des ­concepts et d’adapter nos comportements aux situations nouvelles. Bref, il nous rend plus intelligents !

    A première vue, c’est paradoxal. Pourtant, plusieurs philosophes et psychologues en ont eu l’intuition. « L’oubli, sauf dans certains cas, n’est pas une maladie de la mémoire, mais une condition de sa santé et de sa vie », écrivait Théodule Ribot, un des pères de la psychologie, dans Les Maladies de la mémoire (1882).

    « Pour Henri ­Bergson, l’oubli est la condition même de l’action. Son filtre ne laisse passer que les souvenirs utiles à l’action présente », notent le neurologue Antoine Lejeune et le psychiatre Michel Delage dans La Mémoire sans souvenir (Odile Jacob, 336 p., 25,90 euros).

    Publié dans Neuron le 21 juin, un article en ­offre une éclatante démonstration : il récapitule les données accumulées depuis près de cent cinquante ans. « Il est capital que le cerveau oublie les détails sans importance pour se focaliser sur ce qui compte vraiment dans nos prises de décision quotidiennes », résument Blake Richards et Paul Frankland, coauteurs, de l’université de ­Toronto (Canada).

    Ces chercheurs rendent d’abord hommage aux patients souffrant de divers troubles de la ­ mémoire, qui ont inspiré nombre de découvertes. Il y a, d’abord, ceux qui n’oublient pas. Dont le fameux « S. » : Solomon Cherechevski de son vrai nom.

    « C’était probablement un synesthète [un individu capable d’associer différents sens, par exemple un son à une couleur] et il utilisait spontanément la méthode des lieux [qui apparie les connaissances à retenir à des lieux bien ­connus] », précise le professeur Robert Jaffard, du Centre national de la recherche scientifique, à l’université de Bordeaux.

    Les ravages d’une mémoire insatiable

    Destin funeste, en vérité, que celui de ce Funes, alias « S. ». Voici ce qu’en dit Borges : « Non seulement il lui était difficile de comprendre que le symbole générique chien embrassât tant d’individus dissemblables et de formes diverses ; cela le gênait que le chien de trois heures quatorze (vu de profil) eût le même nom que le chien de trois ­heures un quart (vu de face). (…) Il avait appris sans effort l’anglais, le français, le portugais, le ­latin. Je soupçonne cependant qu’il n’était pas très capable de penser. Penser, c’est oublier des différences, c’est généraliser, abstraire. »

    La nouvelle illustre bien les ravages d’une mémoire ­insatiable, absorbant et retenant tout – monstrueuse et paralysante. « Les cas d’hypermnésie sont rarissimes et très ­intrigants. Ce sont sans doute des troubles neuro-développementaux. Personnellement, je n’en ai ­jamais rencontré », ­témoigne Francis Eustache.

    En 2006, le neurologue James McGauch, de l’université de Californie, a décrit le cas d’une jeune femme, Jill Price, qui considérait sa ­mémoire autobiographique exceptionnelle comme « un fardeau ». Une dizaine de cas similaires ont été rapportés.

    Paradoxalement, ces as de la mémoire autobiographique ont des performances médiocres dans des tests de mémoire. Ils se distinguent des champions de la mémoire, ces « mnémonistes » capables de retenir, à la suite d’un entraînement ­intense, une masse d’informations impersonnelles : par exemple, des dizaines de milliers de décimales de Pi. Certains, comme Raymond dans Rain Man, sont des « savants autistes ». Sur le plan neurobiologique, ces hypermnésies sont des mystères.

    Retombées pédagogiques

    Bien plus nombreux sont les patients qui oublient trop. Ainsi K. C., décédé en 2014, était ­ devenu amnésique à la suite d’un accident de vélomoteur à l’âge de 30 ans. Il pouvait évoquer des connaissances antérieures, y compris sur sa propre vie [« mémoire sémantique »], mais pas accéder à ses souvenirs personnels [« mémoire épisodique »]. « Ce patient a permis de faire la distinction entre ces deux formes de mémoire », note Francis Eustache. Plus étonnant encore : alors qu’il ne formait plus aucun souvenir personnel, K. C. pouvait apprendre de nouveaux concepts.

    Ce type d’études a des retombées pédagogiques. Les rééducateurs le savent : les amnésiques doivent éviter de faire des erreurs lors de l’apprentissage d’une procédure. « Si un amnésique fait une erreur, il va généralement la mémoriser et la reproduire », relève Francis Eustache.

    Autres cas étonnants : les enfants qui naissent avec des lésions de l’hippocampe. Alors qu’ils forment très peu de souvenirs, ils acquièrent le langage et engrangent des connaissances, comme n’importe quel autre enfant. Mais, de ­retour de l’école, ils sont incapables de raconter des anecdotes de leur journée. Cela conforte « l’hypothèse que des connaissances peuvent être formées sans accéder au statut de souvenir », une idée à contre-courant des dogmes passés.

    Les tours et détours du duo « mémoire-oubli » sont ainsi innombrables. « De récentes recherches ont montré que les mécanismes neuronaux à l’origine de l’effacement des souvenirs sont distincts de ceux qui en assurent le stockage », écrit Paul Frankland dans Neuron.

    Prenons d’abord le stockage. Comment se forme un souvenir dans le cerveau ? « C’est grâce à la mise en réseaux des neurones qui ont été activés, ensemble, par les données à mémoriser ou par un apprentissage, explique Robert ­Jaffard. Mais le premier encodage du souvenir est instable. Pour laisser une trace mnésique, ces ­réseaux doivent être consolidés. »

    Mécanismes d’effacement

    Cette consolidation peut résulter de la relecture d’une leçon, par exemple. Elle est liée au renforcement durable des ­connexions, ou « synapses », entre les neurones de ces réseaux. Une partie d’entre eux se trouve dans l’hippocampe, zone impliquée dans la formation de la mémoire.

    Quant aux mécanismes d’effacement, ils sont de deux types. Le premier est logique : il tient en l’affaiblissement des synapses, dans les réseaux de neurones qui matérialisent les traces mnésiques. Le processus est connu : c’est la « dépression synaptique à long terme (LTD) ». Quand un neurone A ne parvient pas à exciter un neurone B, alors la connexion – la synapse – entre A et B perd de son efficacité. D’où un déclin passif, quand le souvenir n’est pas consolidé.

    Le second mécanisme est contre-intuitif : il vient de la ­formation de nouveaux neurones, à partir de cellules souches du cerveau. Une découverte réalisée par Paul Frankland en 2013. En fait, précise Robert Jaffard, la formation de nouveaux neurones entraîne des effets opposés selon le moment où elle se produit. « Lors de l’encodage d’un souvenir, elle facilite grandement sa mémorisation. » Mais après, c’est le contraire : « Après un apprentissage, quand on provoque artificiellement la formation de nouveaux neurones, on entraîne son oubli. »

    Un troublant parallèle

    Pourquoi ? Parce que ces nouveaux neurones s’intègrent dans le circuit de l’hippocampe où la trace mnésique est stockée. Ils créent alors des interférences, polluant et affaiblissant ce ­ circuit. « Ce processus expliquerait pourquoi les enfants, qui forment beaucoup de nouveaux neurones, oublient si facilement », soulignent les auteurs dans Neuron.

    On peut s’étonner que le cerveau consacre tant d’énergie à créer des neurones aux seules fins d’affaiblir des souvenirs. C’est que l’enjeu est ­vital. Le texte publié dans Neuron le confirme par l’étude des réseaux de neurones artificiels.

    Troublant parallèle, en vérité : en intelligence ­artificielle aussi, l’oubli peut être une vertu ! Ainsi, dans « l’apprentissage machine », des algorithmes apprennent à des ordinateurs à effectuer une ­tâche – un classement, par exemple – à partir d’une série d’expériences, puis à améliorer leurs performances sur de nouvelles expériences.

    « L’objectif de l’apprentissage machine n’est pas de stocker toutes les données – ce qui se révèle impossible dans le cas des big data – pour s’en “souvenir”, mais d’en retenir quelque chose d’essentiel réutilisable dans des contextes différents de ceux qu’on a ­appris »,écrit Jean-Gabriel Ganascia, professeur à l’université Pierre-et-Marie-Curie (UPMC, Paris), dans Mémoire et oubli. Lorsque l’ordinateur ­apprend trop de détails, ce « sur-apprentissage » est contre-productif.

    De l’importance du sommeil

    Revenons à l’humain. « Une fois le souvenir ­encodé, sa trace mnésique va migrer de l’hippocampe vers le cortex, dit Robert Jaffard. Cette ­migration s’accompagne d’une forme d’oubli : les informations stockées dans le cortex sont moins précises, plus schématiques », indépendantes du contexte. C’est le processus de « sémantisation ». L’oubli nous aide ainsi à généraliser, à conceptualiser.

    Ainsi une bonne mémoire est une mémoire qui hiérarchise et sélectionne. « Le sommeil lent joue un rôle-clé dans cette sélection. Il permet le tri entre ce qui sera archivé et ce qui sera effacé », rappelle Robert Jaffard. Mais il est aussi propice à la consolidation des savoirs acquis durant la journée.

    « Pendant le sommeil lent et paradoxal, le cerveau rejoue les activités neuronales correspondant au souvenir, ce qui le renforce. Cela a été montré chez le rongeur avec les “cellules de lieux”, ces neurones qui codent la carte de l’environnement spatial. Quand l’animal dort, ces cellules ­rejouent le trajet qu’il a suivi durant la journée », ­explique Serge Laroche, du CNRS (Institut des neurosciences Paris-Saclay).

    Une étude française, publiée le 8 août dans ­Nature Communications, révèle que le sommeil fait mieux : nous pouvons aussi apprendre de nouvelles choses en dormant.

    En exposant des volontaires humains à des stimuli sonores répétés, des chercheurs du CNRS à Paris (ENS/EHESS), avec le Centre du sommeil de l’Hôtel-Dieu (AP-HP), montrent que le cerveau parvient à ­apprendre des sons pendant le sommeil paradoxal et le sommeil lent léger. Au réveil, les sujets testés reconnaissent les bruits qu’ils ont entendus durant ces deux phases. « On peut donc utiliser les siestes courtes du début de l’après-midi, riches en sommeil lent léger, pour favoriser l’apprentissage », noteThomas Andrillon, coauteur. Mais l’étude montre aussi que ces mêmes sons peuvent être oubliés durant le sommeil lent profond.

    Jaillit alors le souvenir

    L’oubli dépend de trois filtres, qui opèrent ­durant l’encodage, la consolidation ou le rappel du souvenir. « On peut penser qu’on oublie bien moins qu’on ne le croit. Une partie de l’oubli serait un déficit du rappel des détails, dont la trace pourrait rester présente dans le cerveau. Il faut alors trouver les éléments contextuels permettant de les réactiver », précise Serge Laroche.

    C’est là qu’entre en jeu une autre mémoire, plus souterraine, qui opère à notre insu. « Face à une mémoire explicite [consciente] toujours fragile, laborieuse, coûteuse en énergie, la mémoire implicite [inconsciente], solide, robuste, s’impose souvent », expliquent Antoine Lejeune et Michel ­Delage dans La Mémoire sans souvenir.

    Très liée aux émotions et aux perceptions, cette mémoire implicite peut bloquer ou au contraire ouvrir l’accès à certains éléments de notre passé. Elle est « d’abord la mémoire oubliée des premières ­empreintes de la vie. »

    « Une information du monde intérieur [le vécu, l’humeur, le plaisir ou la souffrance] rencontre une information du monde extérieur [l’autre, le paysage, une chanson…]. » Jaillit alors le souvenir, rassemblant les fragments épars des éléments du passé. « Le contrôle est un tout petit élément de la mémoire ! », souligne Francis Eustache.

    « Il existe de nombreux “faux oublis” : les souvenirs que l’on croit oubliés ressurgissent, à notre insu, dans le présent », notent Antoine Lejeune et Michel Delage. C’est Proust, bien sûr, et sa madeleine qui ressuscite le souvenir des dimanches de Combray…

    Distorsions

    Tout souvenir, cependant, est une ­reconstruction. Lors de sa consolidation, la mémoire est malléable, plus labile et fragile. Elle peut alors mêler, amalgamer des éléments nouveaux. Et ces « interférences » brouillent le souvenir originel. D’où les distorsions de notre mémoire.

    Prenons par exemple les enfants d’une même fratrie. Adultes, « ils confrontent leurs souvenirs et s’aperçoivent rapidement, avec inquiétude, humour ou agressivité, que le même événement familial fait l’objet de descriptions différentes », poursuivent nos deux auteurs.

    C’est que chacun ayant vécu le même événement, en stocke et en remodèle le souvenir selon ses humeurs du ­moment, ses connaissances nouvelles, son évolution, son système de valeurs… Au fil du temps, « le soi n’a plus les mêmes centres d’intérêt ni les mêmes projets ».

    D’où un aperçu vertigineux sur ce qui fait notre identité : « D’un certain côté, notre identité est ­extrêmement stable tout au long de notre vie : c’est la notion de “mêmeté” chère au philosophe Paul Ricœur [1913-2005]. Et ce, même chez des personnes atteintes de maladie d’Alzheimer. Dans le même temps, toute une partie de notre identité est beaucoup plus changeante – c’est la notion d’“ipséité”. Etonnamment encore, même de grands amnésiques conservent cette capacité à changer »,analyse Francis Eustache.

    La révolution de l’optogénétique

    Mais une question nous taraude tous, à mesure que nous vieillissons : comment distinguer « l’oubli positif », vertueux, de l’oubli pathologique ? C’est le travail des neuropsychologues, dès qu’un patient franchit leur porte. Sa plainte mnésique est-elle bénigne ? Due à une dépression ? Un trouble de l’attention ? Un Alzheimer débutant ? Des tests cognitifs, complétés si besoin par une imagerie cérébrale, conduiront au diagnostic.

    Si notre mémoire est une reconstruction, une synthèse changeante sur le monde et nous-mêmes, elle peut aussi être manipulée. Chez l’homme, on peut induire de faux souvenirs. Mais c’est surtout chez le rongeur qu’une retentissante série d’expériences, depuis 2012, a montré à quel point on peut renforcer ou supprimer des souvenirs, voire en créer de faux.

    Ces expériences font appel à l’optogénétique, cette alliance révolutionnaire de génie génétique et d’optique. La technique permet d’activer ou d’inhiber à volonté des catégories bien identifiées de neurones.

    Dans ces manipulations, le principe est toujours le même. On repère d’abord les neurones activés par un apprentissage. Puis on fait ­fabriquer à ces seuls neurones, par manipulation génétique, des canaux ioniques sensibles à une lumière bleue ou jaune. Ensuite, en appliquant cette lumière bleue ou jaune sur le cerveau des rongeurs, on active ou inhibe, selon les cas, ces cellules chez l’animal vivant. C’est ainsi que le prix Nobel (1987) Susumu Tonegawa, à l’Institut Riken ­(Tokyo) et au MIT (Cambridge), est parvenu à ­modifier, par optogénétique, des souvenirs stockés dans l’hippocampe de rongeurs.

    Un espoir balbutiant contre la maladie d’Alzheimer

    Dans un premier temps, son équipe a placé des souris dans un « contexte A ». Puis, les chercheurs ont mis ces rongeurs dans un ­« contexte B », en leur administrant systématiquement un petit choc électrique. En même temps, ils repéraient les neurones activés dans ce « contexte B ». Lorsqu’ils réactivaient ensuite, par optogénétique, ces mêmes neurones dans un autre contexte, la souris se comportait comme si elle était dans le « contexte B » : elle avait peur.

    Ensuite, les chercheurs ont apparié ce « contexte B » à un troisième « contexte C ». ­Résultat : ils sont parvenus à faire croire au rongeur que le « contexte C » était à redouter, alors que la souris n’avait jamais eu peur dans cette ­situation. Un vrai faux souvenir, donc.

    Poursuivant leur irrésistible avancée, ils se sont intéressés à des souris modèles d’Alzheimer. Résultat, publié en 2016 dans Nature : chez ces souris amnésiques, ils ont ressuscité un souvenir qui semblait perdu. Comment ? En réactivant, par optogénétique, le réseau de neurones qui avait été activé pendant un apprentissage – mais que l’on croyait non mémorisé. « C’est donc que malgré un hippocampe déficitaire, cette souris Alzheimer a pu former une trace mnésique », s’enthousiasme Robert Jaffard. Comment ? Probablement par des mécanismes cérébraux de compensation. Ce qui ouvre un espoir – balbutiant – face à cette maladie, même si l’optogénétique n’est pas un traitement envisageable.

    De nombreux labos s’intéressent maintenant à une autre forme d’oubli : le syndrome de stress post-traumatique (PTSD). Ce trouble associe à une hypermnésie des aspects émotionnels et sensoriels d’un traumatisme vécu, une amnésie de son contexte. Les sujets atteints sont envahis d’idées et d’images intrusives très handicapantes.

    Une équipe de l’université de Californie est parvenue à effacer, chez la souris, une mémoire de peur liée à un conditionnement – modèle imparfait de PTSD. Comment ? En affaiblissant, par ­optogénétique, les seules synapses du réseau de neurones qui permettent l’association entre un son et un choc électrique. Ces synapses se trouvent dans l’amygdale, une aire du cerveau très impliquée dans les émotions. Le résultat a été ­publié dans Neuron le 17 août.

    Les différentes formes de mémoire

    Episodique : c’est la « mémoire des souvenirs », la mémoire à long terme des événements que nous avons personnellement vécus, situés dans un contexte spatial et temporel précis. Elle n’apparaît que vers l’âge de 3 à 5 ans. Grâce à elle, nous prenons conscience de notre propre identité, avec un sentiment de continuité temporelle. Particulièrement fragile, elle dépend d’un réseau de neurones très distribué dans le cerveau. Elle s’appuie aussi sur la mémoire sémantique.

    Sémantique : c’est la « mémoire des connaissances », une mémoire à long terme des concepts, des mots, des savoirs généraux sur le monde et sur nous-mêmes. La plupart de nos souvenirs autobiographiques se transforment progressivement en connaissances générales : ils rejoignent la mémoire sémantique.

    Autobiographique : elle mêle notre mémoire épisodique à des éléments de notre mémoire sémantique [ceux qui concernent la connaissance sur nous-mêmes].

    Déclarative (explicite) : elle concerne le stockage et la récupération des données que nous pouvons faire émerger consciemment, puis exprimer par le langage.

    Procédurale : c’est la mémoire des savoir-faire et des habiletés motrices, verbales, cognitives, quand elles sont devenues automatiques [faire de la bicyclette sans y penser, par exemple]. Ce type de mémoire est relativement épargné dans les « maladies de la mémoire », comme Alzheimer.

    Implicite : c’est une mémoire inconsciente, très émotionnelle. Elle peut contrôler, à notre insu, le rappel de certains souvenirs : par exemple, en établissant un lien entre les affects du présent et ceux de la période d’acquisition du souvenir.

    Perceptive : elle s’appuie sur diverses modalités sensorielles (vue, ouïe…) pour, par exemple, reconnaître un parcours familier sans y prêter vraiment attention.

    De travail : c’est une mémoire à court terme. Elle nous offre un « espace de travail mental » qui nous permet de stocker et de manipuler des informations pendant une période de plusieurs secondes. Et, donc, de réaliser une tâche, raisonner, comprendre ce que nous lisons, suivre le fil d’un discours… Dans nos activités quotidiennes, elle est constamment sollicitée.

  • Technologie : peut-on se défaire des #promesses et des mythes ?
    http://www.internetactu.net/2017/06/14/technologie-peut-on-se-defaire-des-promesses-et-des-mythes

    Le dernier livre de Jean-Gabriel Ganascia a de nombreux mérites, le principal est certainement sa très grande clarté. Dans Le mythe de la Singularité, le spécialiste de l’Intelligence artificielle et président du comité d’éthique du CNRS réfute et démonte pas à pas le cadavre de la Singularité et bien des (...)

    #Articles #Futurs #innovation #RD #singularité

    • Avez-vous remarqué que Google, partisan du #transhumanisme et très engagé en robotique, s’investit aussi de plus en plus dans des services d’ordre régalien, c’est-à-dire du ressort de l’#État ? » L’ogre américain s’emploie en effet déjà au cadastre avec Google Maps, à la monnaie avec le porte-monnaie électronique Google Wallet, et à la santé en y investissant 35 %4 de son fond d’investissement Google Ventures, qui pèse 2 milliards de dollars d’actifs. Et ce n’est que le début. « Il me semble que leurs prétendues alertes sur la prise de pouvoir par des machines intelligentes ne sont qu’un écran de fumée pour détourner notre attention de tout cela… », suggère le chercheur.

      #ia #singularité #silicon_army

  • De l’intelligence artificielle aux humanités numériques - La Vie des idées
    http://www.laviedesidees.fr/De-l-intelligence-artificielle-aux.html

    À l’occasion d’un entretien croisé Milad Doueihi, spécialiste du numérique, et Jean-Gabriel Ganascia, philosophe et cogniticien, réfléchissent aux fondements de l’humanisme numérique aujourd’hui. Revisitant l’histoire de l’intelligence artificielle, vieille déjà de plusieurs décennies, ils s’intéressent à la notion d’intelligence dans ses rapports avec la culture numérique d’aujourd’hui.

  • De l’intelligence artificielle aux humanités numériques
    http://www.laviedesidees.fr/De-l-intelligence-artificielle-aux.html

    À l’occasion d’un entretien croisé Milad Doueihi, spécialiste du #numérique, et Jean-Gabriel Ganascia, philosophe et cogniticien, réfléchissent aux fondements de l’humanisme numérique aujourd’hui. Revisitant l’histoire de l’intelligence artificielle, vieille déjà de plusieurs décennies, ils s’intéressent à la notion d’intelligence dans ses rapports avec la culture numérique d’aujourd’hui.

    Essais & débats

    / numérique, #technique, #histoire_des_sciences

    #Essais_&_débats