Google et la neutralité du réseau, par Hervé Le Crosnier (Les blogs du Diplo, 9 août 2010)

/2010-08-09-Google-et-la-neutralite-du-r

  • Pas grand chose dans nos archives sur le principe de neutralité du net. À part ce long billet de @hlc en 2010.

    Google et la neutralité du réseau, par Hervé Le Crosnier (Les blogs du Diplo, 9 août 2010) https://blog.mondediplo.net/2010-08-09-Google-et-la-neutralite-du-reseau

    Tout d’abord, précisons ce qu’est la « #neutralité_du_Net » (Net neutrality en anglais). Il ne s’agit ni du fait de permettre toutes les expressions (liberté d’expression), ni de privilégier un regard distancié faisant de l’équilibre des idées sa marque principale (le « principe de neutralité » tel qu’il est appliqué dans Wikipédia). Le neutralité du réseau découle du principe fondateur de l’Internet selon lequel chaque « paquet d’information », quels qu’en soient la source et le destinataire, est traité de façon égale par les nœuds du réseau, les routeurs. De ce principe découlent à la fois des risques pour l’équilibre global du réseau (les embouteillages de nos routes physiques deviennent la « congestion » de l’Internet) et des garanties pour les acteurs du réseau (lecteurs, serveurs et entreprises se lançant dans la sphère économique du numérique). Jusqu’à présent, malgré les annonces régulières d’un grand embouteillage, le réseau a su bon an mal an résister à la congestion : son propre succès incite les opérateurs à multiplier les routeurs, à renforcer les réseaux et à inventer en permanence de nouvelles règles de transmission qui accélèrent le processus de traitement. Le protocole de l’Internet n’est certainement pas le plus rapide de tous les protocoles de télécommunication, mais il est le plus coopératif, le plus ouvert et le plus robuste, le plus extensible. C’est ce qui a permis son succès, et qui aujourd’hui encore est le meilleur gage de son évolution.

    Le protocole de l’Internet repousse « l’intelligence » (le traitement de l’information) dans les deux bouts de la communication : le serveur et le poste client. Ainsi, si un serveur décide d’inventer une nouvelle forme de codage de l’information (par exemple quand l’entreprise Real Networks a créé le premier protocole de streaming audio en 1995), il ne lui reste plus qu’à diffuser des outils de lecture (les players « RealAudio »), et il peut expérimenter, développer son produit et espérer acquérir une place au soleil dans la nouvelle économie numérique. Il n’a besoin de demander à personne l’autorisation : les réseaux doivent laisser passer ses données encodées, et seul le succès public vient arbitrer entre les divers services équivalents.

    C’est cette logique de support permanent et ouvert à l’innovation technique et sociale qui a fait de l’Internet ce nouveau système nerveux mondial que nous connaissons. C’est elle aussi qui a permis la mise en place de protocoles dits P2P, de pairs à pairs, pour favoriser la diffusion d’informations volumineuses. Ce protocole sert aujourd’hui principalement aux échanges de fichiers de musique ou de vidéo, mais il est aussi un élément fondamental d’une accélération globale de l’Internet. Or, avec les restrictions liées aux diverses lois de renforcement de la propriété intellectuelle, il est demandé aux opérateurs de réseau de surveiller, et éventuellement de bloquer les usages de certains protocoles. C’est un premier coin dans l’architecture globale de l’Internet, qui donne une position centrale aux opérateurs de réseau.