• It’s time to rebuild the web - O’Reilly Media
    https://www.oreilly.com/ideas/its-time-to-rebuild-the-web

    The web was never supposed to be a few walled gardens of concentrated content owned by Facebook, YouTube, Twitter, and a few other major publishers. It was supposed to be a cacophony of different sites and voices. And it would be easy to rebuild this cacophony—indeed, it never really died. There are plenty of individual sites out there still, and they provide some (should I say most?) of the really valuable content on the web. The problem with the megasites is that they select and present “relevant” content to us. Much as we may complain about Facebook, selecting relevant content from an ocean of random sites is an important service. It’s easy for me to imagine relatives and friends building their own sites for baby pictures, announcements, and general talk. That’s what we did in the 90s. But would we go to the trouble of reading those all those sites? Probably not. I didn’t in the 90s, and neither did you.

    Yes, there would still be plenty of sites for every conspiracy theory and propaganda project around; but in a world where you choose what you see rather than letting a third party decide for you, these sites would have trouble gaining momentum.

    I don’t want to underestimate the difficulty of this project, or overestimate its chances of success. We’d certainly have to get used to sites that aren’t as glossy or complex as the ones we have now. We might have to revisit some of the most hideous bits of the first-generation web, including those awful GeoCities pages. We would probably need to avoid fancy, dynamic websites; and, before you think this will be easy, remember that one of the first extensions to the static web was CGI Perl. We would be taking the risk that we’d re-invent the same mistakes that brought us to our current mess. Simplicity is a discipline, and not an easy one. However, by losing tons of bloat, we’d end up with a web that is much faster and more responsive than what we have now. And maybe we’d learn to prize that speed and that responsiveness.

    #HTML #Web #Design

    • Je pense qu’il se trompe totalement de sujet. Le problème n’est pas la difficulté technique, mais l’économie de l’attention.

      Avant que « tout le monde » se mette à publier sur Facebook, il y avait les « blogs », y compris centralisés, tels que Blogspot. Aujourd’hui il y a Medium (et d’autres). Si on veut publier en dehors de Facebook, techniquement, c’est simple, c’est puissant et c’est beaucoup plus joli.

      Et en dehors de ça, il y a toujours la possibilité de se mettre à plusieurs pour faire un site ensemble, ce qui est une aventure particulièrement enrichissante, et techniquement pas usante (si vraiment on veut s’exprimer dans ce cadre, hé ben on trouve le ou la geek du groupe qui te configure le truc et voilà).

      Les gens « publient » sur Facebook parce qu’on a développé un fantasme de l’audience et de l’attention. Les gens postent leurs vidéos où ils prétendent commenter sérieusement l’actualité au milieu des vidéos de chats sur Youtube plutôt que sur n’importe quel autre plateforme parce qu’on leur promet que l’audience est là, pas parce que ce serait plus difficile sur Vimeo par exemple. On veut s’exprimer sans bosser (hop, je balance mon indignation à deux balles sur n’importe quel sujet) sur des plateformes qui promettent une grosse audience, voire une audience captive. Et les militants vont aussi sur Facebook pour exactement les mêmes raisons : parce qu’on leur dit qu’ils y feront de l’audience. Genre à ce train, il faudra aussi penser à aller « militer » sur Musically…

      Et je suspecte que beaucoup de « militants » vont sur Facebook ou Twitter parce que ce sont des plateformes fliquées où l’on peut facilement s’exprimer à sens unique, sans gros risque de contradiction, parce que les « réponses » sont perdues dans un marigot de conneries crasses, avec une interface bien conçue pour que personne ne les lise.

      Tant qu’on ne s’interroge pas sur la réalité et la qualité de l’attention dont on croit bénéficier sur Facebook, on n’ira nulle part. On peut bien vouloir décentraliser, revenir à un beau bazar de Web, mais tant que la logique qu’on oppose à cela est systématiquement « oui mais “les gens” sont sur Facebook », c’est mort. Tant qu’on ne se demandera pas quel est le niveau d’attention réel de ce qui est compté comme une « vue », ou même un « like » sur Facebook ou Twitter, c’est peine perdue.

      Si on regarde la photo, à une époque Flickr est presque mort de sa médiocrité, malgré son audience, et les photographes avec une (petite) prétention à la qualité sont partis ailleurs (500px par exemple). Idem pour les vidéos : si tu as une prétention artistique, tu fuis Youtube et tu vas sur Viméo. Pourquoi la question ne se pose-t-elle pas (ou pas encore) pour les gens qui cherchent une qualité de lecture, d’attention et d’échange avant d’aller sur Facebook (ou même Twitter) ?

    • Puisque je suis lancé…

      – La question du personal branding (« marketing personnel »), que je pense fondamentale dans les nouveaux supports de publication. Facebook semble être idéal pour cela, en ce qu’il a dès le début promu l’« identité réelle », mais aussi la confusion volontaire entre vie publique et vie privée (alors que, pour ma génération, aller balancer des propos politiquement engagés au même endroit où l’on échange des photos de ses gamins avec ses beaux-parents et où l’on garde le contact avec ses anciens élèves et ses relations du boulot, c’était une idée totalement crétine).

      Le changement de support de publication s’est aussi accompagné de ce changement de comportement (on se souviendra des vieux de la vieille bataillant pour tenter de pouvoir rester sous pseudo sur Facebook). Dans le bazar des années 90, nous avions tous des pseudos et nous tenions au pseudonymat (théorisé par certains – on a un texte sur uZine à ce sujet – comme la seule façon d’écrire de manière réellement libre). Dans les années 2000, chacun son blog, mais avec la mise en place d’un vedettariat. Désormais c’est terminé. Écrire sous pseudo est largement suspect et irresponsable et fake-news et tout ça…

      – La disparition des liens hypertexte. Je mets ça dans les années 2000, où les gens se sont mis à ne plus faire de liens entre blogs. On cite des gros médias sérieux, on les commente, on y répond, mais on ne rebondit pas « entre blogueurs » aussi facilement qu’on le faisait dans les années 90. Une sorte de dramatisation du lien hypertexte, accentué par la paranoïa anti-confusionisme et anti-complotisme chez les blogueurs engagés à gauche. Oh là là, mon image-personnelle-super-brandée va s’effondrer si je fais un lien vers un autre site qui, un jour, pourrait faire un lien vers quelqu’un de pas bien ou, pire, qui pourrait dire un truc qui ne me conviendrait pas !

      À partir du milieu des années 2000, quand on avait encore un site indépendant/militant, la seule source de visites à peu près régulière a été le Portail des copains. Pour un site militant, avoir un billet référencé ou pas sur le Portail, ça revenait à être lu par quelques centaines ou milliers de visiteurs eux-mêmes militants, ou pas lu du tout. Je suppose qu’au bout d’un moment, hé ben les gens vont à la soupe sur Facebook, parce que « c’est là que sont les gens » et que l’écosystème de l’hypertexte est déjà perverti depuis un bon moment ; même si ça me semble largement illusoire d’être lu sérieusement entre deux considérations sur les photos de vacances des cousins, et si c’est politiquement mortifère.

    • Et du coup, deux aspects qui pourraient redonner goût aux gens engagés à retourner au bazar…

      – À force de paranoïa anti-fake news, la visibilité des médias « non marchands », « indépendants », « alternatifs » sur Facebook va de plus en plus dépendre de leur adhésion à une vision du monde validée par les grands médias, au travers des contrats de traque aux fake-news que ces grands réseaux ont signé avec les Decodex et Décodeurs… L’effort énorme de chasse aux propos hétérodoxes sur les réseaux est en train de faire un massacre de ce côté, avec des changements volontaires des algorithmes de classement. (Le fait qu’une partie de cette paranoïa anti-fake-news ait été largement menée par la gauche aux États-Unis et ici est, je dois dire, assez croquignolesque.) Constater, par exemple, qu’on n’a déjà qu’une très faible visibilité pour les médias alternatifs sur un machin comme Google News.

      – Le principe même de réseaux qui vendent de la publicité et qui, dans le même temps, sont des outils de marketing personnel, amène au rétrécissement de l’expression non-sponsorisée sur ces réseaux (Facebook annonçant par exemple restreindre la visibilité naturelle des « pages » dans les flux personnels, mais pas une réduction de la quantité de publicité dans ces mêmes flux…). En dehors des quelques indignations préformatées qui continueront à « buzzer », parce qu’il faut bien continuer à faire croire que ces réseaux servent à s’exprimer, il devient de plus en plus évident que, pour récupérer de la visibilité dans les flux des usagers, il faudra payer. Je suspecte qu’il existe déjà des gens qui achètent de la visibilité sur Facebook pour avoir plus de « like » sur leurs photos de mariage, et je pense que dans quelques années, ce sera une pratique aussi banale que de, justement, payer un photographe pour avoir de belles photos de mariage… alors cette faramineuse audience qu’on te promet sur Facebook, ça risque d’être un peu compliqué. (Sinon, il te reste l’option d’aller relancer le niveau de buzz – et donc le revenu afférent – en allant, arme à la main, foutre le dawa chez Youtube.)

      Du coup, ce double mouvement de chasse aux expressions hétérodoxes (« chasse », en revanche, très tolérante pour les foutaises mainstream fascisantes) et d’obligation de passer à la caisse pour récupérer de la visibilité, ça pourrait être l’occasion d’une renaissance d’un Web un peu plus éclaté et joyeusement foutraque (#ou_pas).

    • @arno Pas nécessairement pour te relancer, encore que, depuis ce matin je bois un peu tes paroles comme du petit lait, mais je remarque ceci. Ce que tu exprimes ici avec une clarté dont je suis jaloux et qu’il m’arrive donc aussi de défendre de façon pus obscure, est de manière tellement fréquente, en fait, disqualifié d’un revers de main qui entend ringardiser de tels propos. Je suis souvent frappé que ces tentatives visant à faire fi de tels avertissement aux accents de Cassandre comme on me dit si souvent émanent naturellement de personnes qui n’ont pas le centième du quart du tiers de nos compétences techniques (surtout des tiennes plutôt que des miennes, dont je ne doute pas qu’elles datent un peu), et ce sont les mêmes personnes axquelles il ne me viendrait pas à l’esprit de reprocher cette plus faible aptitude technique, qui vont ensuite dévouvrir que vraiment ce que font les plateformes de leurs réseaux asociaux avec leurs données personnelles, c’est quand même pas très bien. Naturellement, des ringards cassandriens comme toi et moi (surtout moi) tentons de saisir l’opportunité de telles réalisations tardives pour leur dire que peut-être ce serait le bon moment pour changer de lunettes, mais alors tombe, tel une masse sur une mouche, l’argument qu’ils et elles ne peuvent pas partir de la sorte de ces plateformes et qu’ils et elles vont perdre tous leurs amis et suiveuses. Et tout ce petit monde retourne dans le grand bain dans la pleine connaissance qu’il grouille de requins et sans doute se rassure en pensant que cela concernera un ou une autres et que statistiquement, dans la masse, il est peu probable que le requin viennent les croquer elles et eux, quand le vrai danger n’est pas tellement les requins mais les amibes, parfaitement invisibles et autrement plus contagieux, et, in fine, léthaux.

      Je n’insiste pas sur le fait que leur faible niveau de prophylaxie numérique éclabousse quotidiennement leurs proches, qui elles, et eux, si cela se trouve, prennent, au contraire, certains précautions.

      Enfin, dans ce grand dessein de reconstruire Internet, je remarque que très rarement la question de la convservation de ressources certaines anciennes est évoquée or il me semble que c’est une question importante. Combien de fois cela me ravit quand à la faveur de la recherche d’un renseignement précis, il m’arrive de tomber sur des sites aux esthétiques du millénaire précédent, tout en Times et les liens en bleu souligné. Et dans cette masse profuse sur laquelle se sont aglutinés des sédiments plus récents, il y a des pépites dont je me demande combien de temps encore les navigateurs contemporains pourront encore les interpréter justement sans les interpréter et les dénaturer.

    • On a encore les codes d’uZine si jamais :)

      Perso je veux juste réagir sur un point de l’article de départ : geocities c’était pas hideux (ou pas seulement), c’était inventif et festif. Avec un revival chez https://neocities.org qui a une approche très sympa (notamment un backend #ipfs pour la pérennité)

  • forum.decroissance.info - La sociologie de Bourdieu [et l’économie]
    http://ktche.ouvaton.org/phpBB2/viewtopic.php?t=8551&postdays=0&postorder=asc&start=0

    Ralala tellement de perles, de contenus, de recherches et d’argumentations dans toutes ces années de forum…

    Encore merci @ktche, et en plus de la lecture seule, je me dis qu’il faudrait peut-être en faire un paquet zip archivé en p2p ou ce genre, histoire de ne pas le perdre, genre si ton hébergement disparait et que toi on sait pas comment te contacter. #archivage_militant

    #Bourdieu #économie #philosophie

  • #Mouton_2.0 - La puce à l’oreille
    https://www.youtube.com/watch?v=al74-lfTS0A


    #film #documentaire #puces #RFID

    Site du film :

    La #modernisation de l’#agriculture d’après guerre portée au nom de la science et du progrès ne s’est pas imposée sans résistances. L’#élevage ovin, jusque là épargné commence à ressentir les premiers soubresauts d’une volonté d’#industrialisation.

    Depuis peu une nouvelle obligation oblige les éleveurs ovins à puçer électroniquement leurs bêtes. Ils doivent désormais mettre une #puce_RFID, véritable petit mouchard électronique, pour identifier leurs animaux à la place de l’habituel boucle d’oreille ou du tatouage. Derrière la puce RFID, ses ordinateurs et ses machines il y a tout un monde qui se meurt, celui de la #paysannerie.

    Dans le monde machine, l’animal n’est plus qu’une usine à viande et l’éleveur un simple exécutant au service de l’industrie. Pourtant certains d’entre eux s’opposent à tout cela …


    http://mouton-lefilm.fr
    #technologie #identification #surveillance
    cc @odilon

    • v. aussi l’article :
      Élevage 2.0. État des lieux de l’informatisation du métier d’éleveur en système extensif

      À partir de l’exemple de l’#identification_électronique des ovins et des caprins rendue obligatoire en France en 2010, cet article décrit une étape de l’imposition dans l’élevage des normes techniques de la traçabilité issues du monde de la production industrielle. La généralisation des procédures de traçabilité y est décrite, du point de vue des éleveurs qui y sont opposés, comme un facteur de dépossession de leur métier. Mais, du fait des caractères propres aux échanges informatisés, cette traçabilité est également décrite comme une étape importante dans le développement d’une abstraction : la valeur informationnelle. Cette notion de valeur informationnelle est proposée pour rendre compte d’une forme de valeur marchande particulièrement déconnectée des valeurs d’usages produites par les éleveurs sous forme de produits lactés ou carnés.


      https://gc.revues.org/2939
      #traçabilité

    • L’alimentation sous contrôle : tracer, auditer, conseiller

      #Inspections_sanitaires, analyses de laboratoire, traçabilité et #étiquetage des produits, audits qualité, #certifications de la production, toutes ces procédures placent l’#alimentation « sous contrôle » ?. Depuis leur production jusqu’à la table du consommateur, les denrées font l’objet d’un suivi documentaire continu. Elles sont soumises à de nombreux contrôles qui concernent autant leur qualité sanitaire que les conditions dans lesquelles elles sont produites et commercialisées.

      C’est ce nouvel environnement de la production agricole, du marché, des mobilisations sociales et des pratiques matérielles des acteurs qui est examiné dans cet ouvrage. Celui-ci explore les conséquences concrètes des dispositifs de surveillance actuellement en place à partir de terrains d’enquête français, anglais et italiens : Que faut-il tracer pour « faire preuve » ? Quelles nouvelles pratiques des producteurs cela engage-t-il ? Quelles sont les modalités de contrôle associées à la norme et comment se déroulent les audits ? Sur quoi et comment se forme le jugement des auditeurs ? Par quels moyens les écarts sont-ils relevés et sanctionnés ?

      Riche en témoignages, ce livre éclaire également les positionnements des acteurs engagés dans des processus de normalisation. Quel « travail » ont-ils à faire pour répondre à une contrainte de fidélité vis-à-vis de la norme tout en visant la rentabilité économique et l’expansion de leur activité ? Comment articuler productions locales et marché global ? Quelles négociations s’opèrent vis-à-vis des règles de production et des cahiers des charges ? Qui sont les auditeurs et quelle est la spécificité des organismes certificateurs ?


      http://editions.educagri.fr/livres/4670-l-alimentation-sous-controle-tracer-auditer-conseiller.html

      #livre

    • Cité dans l’article...
      Un savoir-faire de #bergers

      Comment les pratiques des bergers favorisent-elles le renouvellement de la diversité des ressources naturelles et cultivées ? Comment les bergers encouragent-ils les facultés d’apprentissage des animaux et stimulent-ils leur appétit face à des mélanges de plantes variées ?
      À l’heure où les politiques publiques cherchent à concilier agriculture et protection de la nature et réinterrogent les modes de production agricole, Un savoir-faire de bergers a l’ambition de rappeler que les bergers ont dans les mains une culture technique toujours vivante, qui correspond bien aux attentes de la société en matière d’agriculture plus respectueuse du vivant.
      Cet ouvrage, richement illustré, associe différents points de vue : chercheurs, ingénieurs pastoralistes, gestionnaires d’espaces naturels, enseignants en écoles de bergers. Mais, avant tout, il donne la parole à des bergers et à des bergères, celles et ceux qui ont contribué aux travaux scientifiques ou exprimé les difficultés rencontrées suite à la méconnaissance de leur métier par d’autres usagers des montagnes et des collines.


      http://editions.educagri.fr/livres/4542-un-savoir-faire-de-bergers.html
      #livre

    • Cité dans l’article [ https://gc.revues.org/2939 ]
      Un savoir-faire de bergers

      La citation :

      La valorisation informationnelle touche d’autres domaines reliés à l’élevage extensif, en particulier le savoir-faire des bergers, tel qu’il est décrit dans l’ouvrage coordonné par Michel Meuret (2010), agronome de l’INRA et sympathisant du collectif d’opposition au puçage dans la région PACA. Le savoir vernaculaire des bergers (notamment la connaissance des biais parcourus par les troupeaux pour les orienter vers des écailles de terrain qu’ils donnent à brouter chaque jour) est transformé en savoir d’expert sur cartes, traité par SIG et calculé ensuite en polygones de portions de pâturage élémentaire (PPE).

      Dans la même idée : http://ktche.ouvaton.org/La%20fabrique%20des%20marchandises%20%C3%A0%20l%27%C3%A8re%20num%C3%A

      L’informatisé participe de façon ambivalente à la saisie de son propre monde en répondant aux sollicitations de l’informatiseur. Il agit ainsi le plus souvent par désir de reconnaissance de sa propre activité, en se faisant plein d’illusions sur l’intérêt soudain que l’on prête à ses propos. Dans le domaine de l’élevage ovin, un exemple frappant de ce type d’interaction est constitué par l’ouvrage Un savoir-faire de bergers où sont assemblés des articles scientifiques et des interviews de bergères et de bergers. On peut y lire à la fois leurs évocations du métier de berger (pp. 295 et suivantes), mais aussi des descriptions désincarnées en terme scientifique telles que la « forme amiboïde à pseudopodes » des troupeaux en alpage (p. 107) ou la « représentation prototypique de l’organisation d’un menu au pâturage » (p. 160), tout ça assemblé dans la perspective de « revaloriser le métier ». Nul doute que les « forme amiboïde » et « représentation prototypique » finissent par se retrouver dans un logiciel de gestion du troupeau estampillé INRA et adoptées avec ou sans enthousiasme par des bergers revalorisés...

  • Du nouveau sur le front du digital labor

    Fuchs publie un article qui cite Scholz... non pas Trebor Scholz mais Roswitha Scholz !

    http://journals.sagepub.com/doi/pdf/10.1177/0896920517691108

    Une critique du travail (et non pas du point de vue du travail) va-t-elle commencer à émerger dans ce domaine de recherche ? La prochaine étape peut-elle être une critique du numérique qui ne s’en tienne pas à la seule dénonciation des phénomènes empiriques ?

    • This article asks: How can understanding the relationship of exploitation and oppression inform the study of digital labour and digital capitalism? It combines the analysis of capitalism, patriarchy, slavery, and racism in order to analyse digital labour. The approach taken also engages with a generalization of David Roediger’s wages of whiteness approach, Marxist feminism, Angela Davis’s Marxist black feminism, Rosa Luxemburg, Kylie Jarrett’s concept of the digital housewife, Jack Qiu’s notion of iSlavery, Eileen Meehan’s concept of the gendered audience commodity, and Carter Wilson and Audrey Smedley’s historical analyses of racism and class. The article presents a typology of differences and commonalities between wage-labour, slave-labour, reproductive labour, and Facebook labour. It shows that the digital data commodity is both gendered and racialized. It analyses how class, patriarchy, slavery, and racism overgrasp into each other in the realm of digital capitalism. It also introduces the notions of the organic composition of labour and the rate of reproductive labour and shows, based on example data, how to calculate these ratios that provide insights into the reality of unpaid labour in capitalism.

      #digital_labor #paywall non ? L’article complet est-il magiquement trouvable quelque part ?

  • Vers une éducation fondée sur des preuves
    http://www.scilogs.fr/ramus-meninges/vers-education-fondee-preuves

    L’éducation fondée sur des preuves est un courant visant à fonder les pratiques éducatives sur des preuves (ou au moins des éléments de preuve) scientifiques de leur efficacité. L’expression « éducation fondée sur des preuves » vient de l’anglais « evidence-based education ». La notion de preuves peut sembler excessivement forte, mais il faut comprendre que c’est un problème de traduction. Le mot evidence fait avant tout référence à des données factuelles, plus qu’à de véritables preuves. L’esprit est donc de promouvoir les pratiques éducatives basées sur des données factuelles (concernant leur efficacité), par opposition aux pratiques fondées sur de simples croyances ou sur des philosophies.

    #education #scepticisme

    • When I received the requirements, they contained the questions for the quiz, along with multiple choice answers for each question.

      Missing from the requirements was any indication of what I should do with the answers at the end of the quiz. So what rules determined what treatment the quiz would recommend?

      I spoke to the Account Manager about this. She emailed the client and got me the requirements. With those, I proceeded to code up the quiz.

      [...]

      I wish I could tell you that when I first saw those requirements they bothered me. I wish I could tell you that it felt wrong to code something that was basically designed to trick young girls. But the truth is, I didn’t think much of it at the time. I had a job to do, and I did it.

      http://ktche.ouvaton.org/La%20fabrique%20des%20marchandises%20%C3%A0%20l%27%C3%A8re%20num%C3%A

      L’informaticien fabrique la machine particulière que concrétise chaque logiciel en ignorant totalement les mondes qui peuvent être bouleversés par leurs usages. En effet, son interlocuteur direct et unique est l’informatiseur. Celui-ci lui fournit les éléments requis pour accomplir sa tâche sous la forme de « spécifications ». L’informaticien n’en conteste le contenu que si celui-ci n’est pas suffisamment cohérent pour mener à bien la tâche qui lui incombe. C’est bien souvent d’ailleurs une position revendiquée par l’informaticien qui se voit comme le virtuose d’une technique à la fois spécifique qu’est l’ingénierie logicielle, et très générique puisque la pratique de l’informaticien se déplace de projet en projet en changeant de contexte sans changer de contenu.

      En conclusion de l’article de Bill Sourour

      Since that day, I always try to think twice about the effects of my code before I write it. I hope that you will too.

      Ooohhh oui, j’y pense à deux fois ! Mais l’ethos des informaticiens (le pure formalisme) et les conditions de production des logiciels (SSII, sous-traitance, externalisation, critères d’évaluation d’une carrière) sont des obstacles qui ne peuvent être franchis individuellement qu’à l’occasion (bien trop rare) où le lien entre informaticien et informatisé-e-s est établi en direct comme le relate Bill Sourour

  • Surtout n’allez pas sur notre site internet !

    http://www.lepostillon.org/Surtout-n-allez-pas-sur-notre-site.html

    Pour tout vous dire, je suis un peu gêné. Le Postillon vient de mettre en ligne un site internet, qui archive tous les articles et brèves de nos anciens numéros. Avant on pouvait seulement trouver nos PDF sur internet, sur le site des Renseignements généreux ( [1]). Maintenant, on a un vrai site à nous. Cela nous a pris beaucoup de temps. Deux amis sachant parler l’informatique ont passé des heures, bénévolement, à créer l’architecture du site, assurer sa fonctionnalité, régler une multitude de petits détails. Rien de passionnant dans ce travail, qui mérite plus que des remerciements. Ensuite, nous avons passé des heures à publier article par article (à vrai dire, moi j’ai presque rien fait). Un gros boulot chiant comme une campagne d’élections municipales. Et pour saluer ce dur labeur, je ne trouve rien de mieux à faire que de la contre-publicité pour ce site. Ce n’est même pas de l’ingratitude, c’est de la goujaterie. Laissez-moi vous expliquer.

    Lorsque je vends Le Postillon à la criée, certaines remarques m’énervent particulièrement : celles des gens qui ne veulent pas l’acheter « pour ne pas utiliser de papier », « parce que ce n’est pas écologique », « parce que maintenant je lis tout sur l’ordinateur ». Encore l’autre fois, au concert des Ogres de Barback - ou je suis allé par pur opportunisme commercial pensant naïvement que les jeunes et vieux baba-cools se rueraient sur un journal papier indépendant -, cinq personnes m’ont répondu « Non merci, le papier ça tue des arbres ».
    Voilà pourquoi j’écris ce texte : pour expliquer à tous ceux qui croient qu’ils sauvent la planète en s’informant uniquement via Lemonde.fr, Rue89.com, grenews.com qu’ils sont en fait de parfaits nigauds. Non seulement j’assume entièrement d’être un « tueur d’arbre », mais en plus j’accuse les autres d’être bien plus criminels.

    Les aficionados du numérique sont parvenus à faire croire que le monde virtuel est totalement propre, sans aucun impact environnemental. Foutaises. De plus en plus d’études et d’écrits critiques ( [2]) s’attaquent à ce mythe : une récente étude de l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) nous apprend qu’ « un mail avec une pièce jointe nécessite 24Wh, soit une ampoule allumée pendant une heure. Sans pièces jointes, c’est 5 Wh. Chaque heure, 10 milliards d’e-mails sont envoyés dans le monde, soit en moyenne 50 GWh. C’est l’équivalent de la production électrique de quinze centrales nucléaires pendant une heure, ou quatre mille allers retours Paris-New-York en avion. Tout ça pour une heure d’échange de mails sur le réseau, sans compter tout ce qu’on peut faire d’autre » ( [3]). Si ces chiffres et ces comparaisons sont contestés, certains affirmant qu’ils sont exagérés ou peu pertinents, ils évoquent une réalité indéniable : se servir d’internet pompe beaucoup d’électricité. Avec l’énergie que j’ai engloutie pour rechercher des infos sur le Web pour écrire ce foutu texte, j’aurais pu éclairer mon appartement pendant de longues heures. Pour la peine, puissent ces lignes éclairer votre lanterne.

    Un journal papier n’a pas d’obsolescence programmée

    Permettez-moi de passer rapidement sur quelques éléments importants, mais peu visibles dans la cuvette grenobloise : les dizaines de milliers de kilomètres de câble installés chaque année au fond des océans pour permettre au réseau de fonctionner, les matériaux rares, sources de graves tensions géopolitiques, nécessaires à la fabrication du matériel informatique, les « 40 millions de tonnes par an » de déchets électriques et électroniques qui une fois « chargés sur des camions de 40 tonnes et de 20 mètres de long représenteraient une file de 20 000 kilomètres de long » ( [4]). Remarquons simplement la supériorité technologique d’un journal comme Le Postillon, qui à la différence de ces ordinateurs que l’on doit changer tous les deux ans, n’a pas de problème d’obsolescence programmée : si vous le conservez bien au sec, vous pourrez le lire à vos petits-enfants dans cinquante ans. Et même si – ô sacrilège – vous voulez vous en débarrasser, vous n’alimenterez pas les grandes poubelles électroniques qui polluent l’Inde et d’autres pays pauvres : il pourra être recyclé ou vous servir d’emballage, pour sécher vos chaussures ou allumer un feu.

    Les éléments physiques les plus visibles de la débauche d’énergie que représente internet sont ce qu’on appelle les data centers, ou « centres de traitement de données » dans cette langue un peu has been qu’est le français. Regroupant les équipements électroniques d’une seule ou plusieurs entreprise, ces espaces peuvent occuper une pièce, un étage ou un immeuble entier.
    Le problème, c’est que les serveurs entreposés à l’intérieur ne vivent pas d’amour et d’eau fraîche, mais d’électricité. Ils équivalent donc à des radiateurs qui chauffent sans arrêt. Pour évacuer cette chaleur, on doit installer des compresseurs et autres appareils énergivores qui font péter le score de la facture EDF. Résultat : « En France, les data centers consommeraient 9 % de l’électricité du pays. Et la consommation électrique des data centers va augmenter de 10 % chaque année » (France Culture, 25/12/2012).
    Bernard Boutherin est un scientifique grenoblois et il mène des travaux intéressants (oui, c’est assez rare pour être souligné) : il s’intéresse notamment aux impacts environnementaux des data centers dans le cadre d’un groupe de travail nommé Ecoinfo ( [5]). Dans son bureau du LPSC (Laboratoire de physique subatomique et cosmologique), il m’explique par exemple que « Google consomme avec ses data centers plus de 2,6 GWh/an soit l’équivalent d’une ville d’un million d’habitants. Et Google représente 1 % de la consommation des data centers dans le monde. Cette consommation représente elle-même seulement le tiers de l’énergie qu’il faut pour faire fonctionner le “Web”, le second tiers étant les infrastructures de réseau avec les bornes Wifi qui consomment énormément du fait de leur grand nombre (il y a 2,4 milliards d’internautes), et le troisième tiers étant la consommation des ordinateurs des internautes. Pour être complet sur le plan énergétique, il faut ajouter l’énergie qui a été utilisée pour fabriquer tous les ordinateurs et les tablettes. Selon Wikipedia, si le Web était un pays, il arriverait au cinquième rang des consommateurs d’énergie ».

    Un green data center = une roue carrée

    Dans notre bonne vieille cuvette, il y a quelques dizaines de data centers. La plupart sont de taille modeste et accueillent les serveurs d’une seule entreprise. Ceux de Bull, Cogent ou HP sont plus importants. Et puis il y a Eolas.
    [Début de la digression] Fondée en 1991 par Gérald Dulac - un ingénieur-informaticien-entrepreneur comme on en rencontre trop dans la cuvette - Eolas a été rachetée en 2000 par un groupe répondant au doux nom de Business & Decision. Occupant initialement le créneau du « conseil en conception de systèmes d’informations », Eolas a su habilement prendre la vague internet pour vendre un maximum de services, comme la « création du premier système d’information territorial français ». Aujourd’hui elle emploie cent quinze salariés, a réalisé un chiffre d’affaires de dix millions d’euros en 2012 et propose trois types d’offres : « digital services », « hébergement » et « développement d’applications ». Précisons que Gérald Dulac a été adjoint municipal à l’économie sous Destot I (1995 – 2001) et président du « Conseil de développement de la Métro », organe pseudo-participatif censé embellir le délire métropolitain. Des jobs intéressants qui lui ont permis de rencontrer plein de monde et de remplir son carnet d’adresses. Simple coïncidence : Eolas, qui est maintenant dirigée par son fiston Frédéric Dulac, a pour clients - entre autres - presque toutes les institutions locales (la Métro, le Conseil général, la région Rhône-Alpes, etc). Par exemple, la ville de Grenoble a également payé l’entreprise pour « accroître sa visibilité sur les réseaux sociaux » et permettre à son compte Facebook de passer en trois mois de 4000 à 40 000 fans (le nombre de fans sur Facebook étant une politique prioritaire de l’équipe municipale). Des échanges gagnant-gagnant qui révèlent tous les bienfaits du fameux tryptique grenoblois conseil municipal – business – industrie. [Fin de la digression]

    Outre quelques locaux de bureaux remarquables en plein centre-ville, Eolas possède le premier « green data center » de France, rue Général Mangin.
    Un « green data center », c’est un oxymore transformé en opération de communication. Si le bâtiment, qui ressemble à un bunker orné d’au moins six caméras de vidéosurveillance, est effectivement « green », c’est-à-dire peint en partie en vert, ce centre de traitement de données n’a rien à voir avec l’écologie. Pour se glisser dans le moule hypocrite du « développement durable » - et également pour réduire sa facture d’électricité -, Eolas a énormément communiqué sur quelques détails, comme la pose de panneaux solaires sur le toit du bâtiment, l’utilisation d’électricité d’origine « 100 % renouvelable » ou l’exploitation de l’eau de la nappe phréatique pour le refroidissement. Cela ne l’empêche pas de consommer énormément d’électricité, même s’il est impossible de connaître le chiffre exact. En me faisant passer pour un étudiant, j’ai demandé poliment à Eolas, qui au début n’a pas voulu me répondre par soi-disant manque de temps (« Notre direction n’a pas de disponibilité pour vous répondre, leur temps est largement occupé par leur activité. Vous comprendrez lorsque vous travaillerez que chaque minute compte »). Après de multiples relances, le directeur m’a répondu que « nous ne diffusons pas ce type d’informations puisqu’elles font partie de notre processus industriel et à ce titre sont confidentielles ».
    Avant l’ouverture de ce bâtiment en 2011, les projections avançaient une consommation de 1 300 000 KWh par an. En se basant dessus, et en sachant qu’un habitant consomme environ 2000 KWh par an, il apparaît que cet unique « green data center » engloutit autant d’énergie que 6 000 grenoblois - même s’ils tâchent de bien éteindre la lumière quand ils sortent des toilettes. Pour alléger sa facture salée, Eolas a-t-elle réussi à bien négocier avec GEG, qui fait également partie de ses gros clients ?

    Voulant croître à tout prix, Eolas, dont la devise est « Run your Internet » n’a pas pour but de faire baisser la consommation d’électricité. Pour faire du business, elle souhaite que le « réseau » s’agrandisse toujours pour avoir toujours plus de clients.

    L’informatique fait augmenter la consommation de papier

    Ce cas est symptomatique de la stratégie des acteurs du numérique. Comme les nuisances bien réelles du virtuel commencent à être documentées, les stratèges-geeks mettent un peu de vert dans leur monde électronique et s’en enorgueillissent. Ces efforts sont très rapidement annulés par le développement incessant des applications numériques, qui envahissent peu à peu toutes les sphères de la vie sociale, faisant grimper en flèche le « bilan carbone » et les autres indices éco-technocratiques. Bernard Boutherin pense qu’il y a actuellement « un gros problème avec l’émergence du “cloud” [concept qui consiste à accéder à des données et services sur un serveur distant]. De plus en plus de données sont stockées en permanence donc consomment en permanence de l’énergie et imposent une connexion réseau permanente aux internautes. C’est une fuite en avant. » Et puis contrairement aux croyances, et pour revenir à notre sujet initial, utiliser internet ne fait pas baisser la consommation de papier, bien au contraire. « Dans les dix dernières années, note Bernard Boutherin, la consommation de papier a augmenté de 6 à 10 % par année. C’est en grande partie dû à la multiplication des imprimantes personnelles qui font que les gens impriment beaucoup plus qu’il y a vingt ans, où il fallait aller au bureau de tabac ou chez l’imprimeur pour faire une photocopie. Finalement, on se rend compte que l’informatique augmente la consommation de papier ». Remarquons simplement que la lecture de journaux (hormis les pages high-tech de Libération et du Monde) n’augmente pas, elle, la consommation d’informatique.

    « On ne peut nier les énormes progrès accomplis en terme d’efficacité énergétique sur les appareils pris un à un. Mais en ne disant que cela, on fait totalement abstraction de la dynamique exponentielle de production des données et de multiplication des écrans » analysent les auteurs de La face cachée du numérique ( [6]). En likant ses potes sur Facebook, on pompe une électricité qu’on n’utilisait pas quand on allait simplement dehors pour les voir in real life. En commentant tout et n’importe quoi sur Twitter, on fait tourner les data centers, qui n’étaient pas du tout utiles quand les discussions politiques se tenaient au comptoir d’un bistrot ou sur la place du marché. Oui, je sais, je suis un vieux con, mais j’ai tellement de bonnes raisons.

    Prenez Muséomix, par exemple. Ce « makeathon culturel international » a permis au musée dauphinois de Grenoble d’être un « laboratoire de nouvelles expérimentations numériques » lors du week-end du 11 novembre dernier. Concrètement, une flopée de geeks, dont des membres d’Eolas, se sont retrouvés pendant trois jours pour essayer d’inventer des « dispositifs inédits de visite du musée ». Je m’y suis rendu, j’ai vu, j’ai été déçu. Voire énervé. Les gadgets présentés, tous plus ou moins « fun » (une « machine à conter », une table tactile numérique pour jouer à vivre dans un village de montagne, etc.) n’ont pour moi pas leur place dans un musée, qui est un lieu devant servir la connaissance et non le divertissement. Pour découvrir une exposition, en quoi a-t-on besoin d’un « passeport numérique », c’est-à-dire un badge avec une puce RFID, pour naviguer dans le musée en suivant des parcours ou en se « faisant surprendre », et en « likant » ses espaces préférés ? Ça vous fait rêver, vous, cet extrait du document de présentation : « un récapitulatif hebdomadaire et/ou mensuel sera proposé sur les différents médias sociaux du musée dauphinois : cette semaine, la chapelle est l’espace du musée le plus apprécié, avec 250 “like” » ? Une des salariées du musée m’a expliqué que le but était de « tester des nouvelles manières de faire visiter grâce aux nouveaux outils numériques, parce qu’il faut qu’on soit moderne, qu’on sorte de l’image vieillotte des musées ». Et voilà comment le musée dauphinois, lieu de transmission de la mémoire du patrimoine local, se transforme en show-room pour les vendeurs de camelote électronique.

    La banalité de l’innovation numérique

    Si deux ou trois bricoleurs fous, plus ou moins allumés, proposaient dans leur coin des jeux pour agrémenter une visite de musée, je pourrais trouver ça sympathique. Le problème aujourd’hui c’est que la course à l’échalote numérique est devenue tellement banale. On ne bricole plus, on programme. Les nouvelles technologies sont en train d’uniformiser les métiers quand elles ne les détruisent pas. Les bibliothèques municipales de Grenoble passent « en mode numérique » et dépensent des millions d’euros pour acheter des liseuses et des Ipad (voir Le Postillon n°20). Les rencontres-i, organisées par l’Hexagone de Meylan, proposent chaque année des créations artistiques truffées de capteurs et de gadgets co-réalisées avec des chercheurs du CEA (Commissariat à l’énergie atomique). La ministre Fioraso vient de lancer un grand plan « France universités numériques » pour que les étudiants apprennent derrière un écran plutôt qu’avec un professeur. En filigrane, tout le monde est censé comprendre qu’aujourd’hui, pour faire n’importe quelle activité, les puces électroniques sont devenues indispensables, pour le plus grand bonheur des gérants des data centers.
    Vous devez vous dire que je m’éloigne de mon sujet, et vous avez raison. Mais la presse n’échappe pas à cette déferlante. L’avenir de l’information est annoncé sur des tablettes, avec des articles interactifs, des « web-documentaires », des sites graphiques en perpétuelle animation, et le cerveau branché en permanence sur Facebook et sur Twitter. Une foire d’empoigne permanente à l’innovation qui ne contribue pas à rehausser la qualité des articles et qui omet qu’un des seuls journaux rentables en France est Le Canard Enchaîné, sans site internet ni publicité et avec une maquette inchangée depuis la Seconde Guerre mondiale.
    Je suis attaché aux journaux papier car je n’aime pas les sites internet. Ils me font perdre un maximum de temps. Autant j’aime lire au bistrot Le Monde, L’Équipe et Le Daubé (non pas que ces journaux soient de qualité, mais parce que les parcourir reste un moment agréable et des fois instructif), autant je déteste être pendu aux informations du monde.fr, de lequipe.fr et du dauphine.com. Pendant que j’essaye d’écrire ce papier, je suis sans cesse tenté par la grande fuite que représente la navigation sur le Web. Comment rester concentré pour trouver un enchaînement de mots convenable alors que, d’un seul clic, on peut aller voir dans le monde virtuel s’il n’y a pas quelque chose de nouveau ? Est-ce que Saint-Étienne a marqué un but face à Lyon ? Quel est le nouveau record d’impopularité d’Hollande ? Est-ce que machin a répondu au mail que je lui ai envoyé il y a cinquante minutes ? Pendant toutes ces heures, je me débats pathétiquement pour sortir de ce zapping permanent entre une information et une autre. Combien de centaines d’heures ai-je perdues comme ça, à moitié honteux d’errer sans but dans ce dédale virtuel ? Mais pourquoi n’arrivé-je pas à débrancher ce satané câble et à écrire tranquillement, sans cette fascination pour ce flux énorme d’informations qui ne m’apprennent presque rien ? Pourquoi ?

    À Échirolles, on bosse pour la surveillance générale

    Le pire c’est que mes clics frénétiques ne tombent pas dans l’oubli. Promu comme un « grand espace de liberté », Internet est surtout un gigantesque espace de flicage, comme l’ont démontré les révélations fracassantes de l’ex-consultant pour la NSA (l’agence de sécurité nationale américaine), Edward Snowden. Potentiellement la NSA tout comme ses homologues européens, peuvent lire presque n’importe quel mail et tout savoir des usages d’un ordinateur connecté à Internet. Ils s’en servent pour réaliser un gigantesque fichage, surveiller les échanges entres personnes importantes, repérer les individus potentiellement subversifs, connaître leurs habitudes. En allant sur le site internet du Postillon, votre intérêt pour tel ou tel sujet pourra être fiché par les grandes oreilles des services de renseignements. Si vous achetez notre journal au tabac-presse, votre lecture restera secrète et personnelle. À notre connaissance, aucun buraliste ne tient de fiche sur ses clients.

    Pour traiter cette somme considérable d’informations, il faut des machines capables de calculer une énorme quantité d’informations très rapidement. On appelle ça des supercalculateurs. Des machines comme en fabrique Bull, une des plus anciennes entreprises françaises informatiques, « en partenariat avec le CEA-DAM (direction des entreprises militaires du CEA) ». Le dernier-né, un certain Tera-100, est capable de calculer « un million de milliards d’opérations en virgule flottante par seconde », ce qui sert à « simuler le fonctionnement d’une arme nucléaire » mais aussi au renseignement : il est en effet utilisé à la DGSE (Direction générale de la sécurité extérieure), équivalent français de la NSA américaine, depuis plusieurs années (selon Le Nouvel Observateur, 30/10/2013). C’est grâce à ce genre de machines qu’ils peuvent placer entièrement le réseau sous surveillance.
    Pour améliorer ce supercalculateur et pour « en tirer pleinement parti » Bull a inauguré en mars dernier tout près de Grenoble, à Échirolles et sous les applaudissements de la ministre Geneviève Fioraso, le « Centre d’excellence en programmation parallèle », « le premier centre européen d’excellence technique et industrielle dans ce domaine ». « Il a pour vocation d’aider les ingénieurs et les scientifiques des Centres de recherche et du secteur de l’industrie à franchir l’étape technologique cruciale de la parallélisation des applications de calculs intensifs. Concrètement ce centre leur offre un service d’analyse, de conseil et d’optimisation de leurs applications » (L’essor, 28/03/2013). Et voilà comment le laboratoire grenoblois, ce « formidable écosystème de l’innovation » selon ses promoteurs, participe activement aux recherches technologiques pour perfectionner encore la surveillance généralisée.

    Oui je sais, je m’éloigne encore. Et surtout une question vous brûle les lèvres depuis le début : pourquoi alors avoir fait un site internet ?
    Non, ce n’était pas simplement pour trouver une bonne accroche pour cet article. Mais parce qu’on aimerait que les premiers concernés, ceux qui ont peur de toucher du papier de peur d’être accusés de complicité de génocide de la forêt amazonienne, lisent ce texte. Internet étant devenu le domaine de recherche exclusif de beaucoup d’étudiants, journalistes ou simples citoyens, nous mettons nos articles en ligne pour que ceux qui ne lisent plus la presse papier puissent tomber dessus s’ils s’intéressent à des sujets qu’on a traités. En espérant avoir convaincu les autres de ne pas taper www.lepostillon.org et de continuer à avoir le plaisir d’aller chez le buraliste chercher leur Postillon, sentir la bonne odeur de l’encre, le parcourir sous la couette ou en terrasse au soleil, le laisser traîner dans le salon et puis le ranger sur l’étagère, là-haut, sur la pile où il y a tous les autres.
    Notes

    [1] Avant on pouvait seulement trouver nos PDF sur internet, sur le site des Renseignements généreux. Maintenant, on a un vrai site à nous.

    [2] Voir notamment : Fabrice Flipo, Michelle Dobré et Marion Michot, La Face cachée du numérique, Editions l’Echappée, 2013.

    [3] Relayée dans l’émission « La Tête au carré » du 4 novembre 2013, sur France Inter.

    [4] Voir notamment : Fabrice Flipo, Michelle Dobré et Marion Michot, La Face cachée du numérique, Editions l’Echappée, 2013.

    [5] Voir notamment : Groupe Ecoinfo, Les impacts écologiques des technologies de l’information et de la communication, éditions EDP sciences, 2012.

    [6] Voir notamment : Fabrice Flipo, Michelle Dobré et Marion Michot, La Face cachée du numérique, Editions l’Echappée, 2013.