Qwant : l’impasse du moteur de recherche européen

/qwant-l-impasse-du-moteur-de-recherche-

  • Qwant : l’impasse du moteur de recherche européen - Science & Vie
    https://www.science-et-vie.com/technos-et-futur/qwant-l-impasse-du-moteur-de-recherche-europeen-54859

    En fait, si l’opacité entourant Qwant intrigue, le retard à l’allumage, lui, était largement prévisible, d’après les experts du secteur. « Le web est constitué de plusieurs milliers de milliards de pages qu’il faut explorer en permanence à l’aide de programmes appelés crawlers. Il faut ensuite une capacité de stockage immense pour tenir l’index, sorte de sommaire de l’ensemble. Il faut enfin procéder au ranking, qui consiste à classer les pages en fonction de leur intérêt en s’appuyant, par exemple, sur l’occurrence de certains mots-clés. Une tâche qui demande des algorithmes performants et d’énormes ressources de calcul » , détaille Marc Longo.

    Google, lui, a acquis, en vingt ans de domination, une avance technique monumentale. Dès sa création, en 1998, le moteur s’est démarqué de la concurrence par la pertinence de ses algorithmes qui analysaient non seulement les critères internes à la page, comme l’occurrence des mots et leur place dans le texte, mais aussi (et ils étaient les premiers à le faire) des critères externes, comme le nombre de liens renvoyant vers cette page. « Les créateurs de Google ont en quelque sorte appliqué lalogique de la publication scientifique qui veut que plus un chercheur est cité dans d’autres papiers, plus sa crédibilité est grande » , illustre Olivier Andrieu.

    Depuis cet algorithme originel baptisé PageRank, les procédures de Google se sont largement complexifiées et prennent à présent en compte plus de 200 paramètres (là où Qwant déclare en utiliser 90).

    Ce n’est pas tout. Les algorithmes de Google ont aussi pu s’appuyer sur des moyens de stockage et de calcul sans commune mesure. Le géant de Moun-tain View revendique ainsi un index en centaines de milliards de pages, dont la taille est supérieure à 100 000 000 gigaoctets. Pour rafraîchir cet index, 20 milliards de sites sont crawlés chaque jour.

    Quand bien même un concurrent pourrait aligner une force de frappe comparable, comme Microsoft avec Bing, Google possède un atout supplémentaire : « Sa connaissance unique des habitudes et des goûts des utilisateurs » , explique Jérôme Bondu. Une expérience qui lui permet de proposer des résultats plus pertinents sur les requêtes complexes.

    #Google #Qwant #Moteur_recherche