Ce qui pose me question dans tout ça, c’est cette propension a utiliser l’expression « une intelligence artificielle », avec un article défini. Ça suppose qu’on est en train de parler d’une entité autonome, douée d’intelligence. Il n’y a rien de plus faux, et surtout il n’y a rien de mieux pour brouiller le débat et les vraies questions qui se posent aujourd’hui autours de l’IA.
Dit autrement : l’intelligence artificielle je sais ce que c’est : un champ de recherche, concernant un ensemble de disciplines, et qui produit un certain nombre de techniques et de réflexions sur l’automatisation de certaines tâches nécessitant des compétences relevant de l’intelligence (et même là il faudrait définir beaucoup plus finement... mais on va dire qu’en gros c’est ça).
Une intelligence artificielle je ne sais pas ce que c’est, mais je sais les dégâts sémantiques et les occultations que ça provoque.
Pour revenir à l’article de gurumed, je n’ai pas grand chose à en dire : on ne sait strictement rien des modèles utilisés par les exemples cités, il est donc impossible de commenter quoi que ce soit (ni même de s’esbaudir d’ailleurs !). Allez, si le seul finalement sur lequel on peut dire quelque chose c’est sur l’araignée qui marche sur le dos. Le regard extérieur trouve ça extraordinaire à cause de la visualisation du phénomène. Retirez la vidéo, et voyez le problème juste sous l’angle de son modèle, c’est à dire de sa représentation mathématique, et franchement ça n’a rien, mais alors vraiment rien d’impressionnant. C’est juste un problème d’optimisation sur un critère. il y a un critère d’optimisation (le moins de contact des pattes avec le sol), et votre modèle va naturellement vers la solution optimale, parce que vous n’avez pas posé la contrainte qu’on ne marche pas « sur la tête ») il n’y a vraiment rien de remarquable là dedans. Et notez au passage que des fonctions relevant de l’intelligence, en l’espèce, il n’y en a pas beaucoup dans cet exemple.
Un autre petit exemple des ravages de cette expression « une intelligence artificielle » : le fait de croire en une entité autonome alimente la thèse des tenants de « l’avènement de la singularité », autrement dit le supposé moment ou une machine s’affranchirait de l’homme et deviendrait autonome au point de reléguer l’humanité à un rang secondaire. Bullshit bien sûr, en tout cas tant que l’ordinateur fonctionnera sur le modèle des ordinateurs actuels (l’architecture dite de Von Neumann, ou la machine de Turing si vous préférez). Tant qu’on en sera à ce modèle, l’ordinateur n’est capable que de réaliser des tâches réductibles à des fonctions calculables (au sens de Turing, c’est donc une notion mathématique bien définie). Flipper sur l’avènement de l’IA qui dominera l’homme reviendrait donc à penser que l’intelligence peut se réduire à un ensemble de fonctions calculables. Hum... Gonflé non ? Mais en revanche, ce qui est certain, c’est que pendant qu’on fait flipper les gens là dessus, on évite de se poser trop de questions sur la collecte des données nécessaire au fonctionnement de toutes les applis à base de réseaux de neurones (qui, au passage, est une toute partie de l’IA, très à la mode, mais très peu fondée scientifiquement - on ne sait pas pourquoi ça marche - et donc les capacités cognitives sont assez limitées : c’est fait pour faire de la perception, de la reconnaissance, du classement, mais pas de l’inférence)
Ceci dit sans vouloir froisser personne, mais il se trouve que je suis modestement chercheur dans le domaine depuis une vingtaine d’années, et que l’apparition subite de ce l’article défini devant le terme IA (depuis 2-3 ans on va dire) me pose question, et me dérange pour tout dire.
#ia #mythe_de_la_singularité #autonomie_des_machines #mensonge_technologique #scientisme