• L’intelligence artificielle est « dans l’impasse »
    https://www.lemonde.fr/idees/article/2019/12/24/l-intelligence-artificielle-est-dans-l-impasse_6023927_3232.html

    Faute d’une théorie de l’intelligence, les ingénieurs de l’intelligence artificielle tâtonnent dans des démarches empiriques dont les succès éphémères cachent mal les limites, observe l’informaticien Vincent Bérenger dans une tribune au « Monde ». Alors que se multiplient les applications de l’intelligence artificielle (IA) à grande échelle après des décennies de stagnation, sa capacité à produire une intelligence équivalente à la nôtre est remise en cause, et le terme même d’intelligence lui est dénié. Les (...)

    #algorithme #technologisme

    • L’intelligence artificielle est « dans l’impasse »
      Vincent Bérenger (Consultant et directeur de projet informatique), Le Monde, le 24 décembre 2019

      Tribune. Alors que se multiplient les applications de l’intelligence artificielle (IA) à grande échelle après des décennies de stagnation, sa capacité à produire une intelligence équivalente à la nôtre est remise en cause, et le terme même d’intelligence lui est dénié. Les acteurs majeurs de la discipline confirment que l’on est encore bien loin du but. Au-delà de l’euphorie actuelle, l’IA serait-elle donc dans l’impasse ?

      Toutes les IA sont affectées des mêmes lacunes : hyperspécialisation, absence d’autonomie, incapacité à manipuler du sens et à créer une représentation du monde. Le fait que ces limites se manifestent depuis les travaux des pionniers dans les années 1960 donne le sentiment que la discipline tourne en rond. Comme un horizon enchanté fuyant devant les chercheurs, le Graal d’une intelligence universelle leur échappe à chaque fois qu’ils croient l’atteindre.

      Malgré les progrès des sciences cognitives, l’intelligence reste un mystère et, curieusement, il n’existe pas de recherche fondamentale dédiée à l’élaboration d’une théorie de l’intelligence. Le fait que l’IA bénéfice de centaines de milliards d’investissements en l’absence de toute théorie de l’intelligence pose question. Il n’existe même pas de définition précise de l’intelligence et pour cause : une définition, c’est un résumé…

      Pourtant la somme des connaissances accumulées par les sciences cognitives est considérable. Pourquoi une synthèse ne dégagerait-elle pas des principes utiles à l’IA ? L’absence de socle théorique peut aussi expliquer qu’en se focalisant sur des compétences spécialisées, l’IA connaisse des succès qu’elle est incapable de généraliser. Faute d’un cadre théorique, les chercheurs progressent sans direction précise, ils abordent chaque nouvelle technique en espérant qu’elle les mènera un peu plus loin. Cela fonctionne parfois, mais des décennies sont perdues à investiguer des impasses.

      Des déceptions cuisantes

      Les chercheurs sont comme des fourmis explorant la petite bande de terre délimitée par la technologie, sans possibilité de se concentrer sur les points de ruptures proposés par une théorie. Ils espèrent parvenir un jour au sommet de la colline qui leur dévoilera la voie vers une véritable intelligence, mais le risque est grand que cela n’arrive qu’après avoir exploré la totalité des impasses conceptuelles qui les cernent. Il ne peut y avoir plus lente et plus coûteuse méthode et une fois au sommet de la colline, il n’est pas certain qu’ils s’en rendent compte faute de repères conceptuels.

      Habitués à l’absence de vision théorique, échaudés par l’accumulation d’annonces triomphales suivies de déceptions cuisantes, les chercheurs ne se fient qu’à « ce qui marche », mettant la charrue de l’ingénierie avant la conception générale. L’empirisme, c’est la lenteur mais c’est aussi la myopie.

      Cette myopie touche parfois à la cécité. Il a fallu près de trente ans pour passer des premiers algorithmes d’apprentissage profond à la reconnaissance de leur valeur par la communauté. Pire, le « deep learning » n’a pas été reconnu pour la pertinence de sa vision vis-à-vis de l’intelligence, mais parce que ses performances dépassaient les résultats d’autres méthodes dans la reconnaissance de formes.

      Ce genre d’heureuse conjonction cumulant rupture de conception, progrès technique foudroyant et persévérance d’un tout petit nombre de chercheurs en marge du courant de pensée principal, est malheureusement trop aléatoire pour soutenir une progression rapide.

      Ingénierie et non recherche fondamentale

      Cette démarche dépourvue de vision globale est vouée à l’échec s’il s’avère que l’intelligence émerge des interactions de multiples facultés. C’est l’assurance pour les chercheurs de tourner en rond, progressant avec succès quelque temps dans un domaine précis pour se voir stoppés sans comprendre pourquoi.

      Plus profondément encore, en l’absence d’un support théorique, il n’est plus question de démarche scientifique, et c’est tragique dès que l’on tente d’évaluer les progrès réalisés et ceux restant à faire. Impossible de valider les hypothèses et implications d’une théorie qui n’existe pas. C’est ainsi que l’on ne se rend compte qu’après des années que les succès contre des experts humains ne sont en rien significatifs de progrès vers une véritable intelligence.

      Peut-on véritablement espérer résoudre à tâtons et séparément les lacunes de l’IA, faire de l’ingénierie en croyant faire de la recherche fondamentale, ignorer que ce sont les mêmes problèmes récurrents aujourd’hui que ceux que les pionniers affrontaient il y a soixante ans ?

      Malgré de stupéfiantes performances, l’IA reste victime de l’illusion de l’horizon enchanté, et rien ne permet d’écarter la possibilité que nous soyons à des siècles d’une IA universelle.

      Alors, le « deep learning » est-il une oasis d’insouciance dans un désert théorique prêt à figer l’IA dans un nouvel hiver ? Si oui, une théorie de l’intelligence permettrait-elle de renouer avec l’ambition des pionniers d’atteindre une intelligence comparable à la nôtre ?

      #IA #AI