person:john battelle

  • It’s time to rebuild the web - O’Reilly Media
    https://www.oreilly.com/ideas/its-time-to-rebuild-the-web

    The web was never supposed to be a few walled gardens of concentrated content owned by Facebook, YouTube, Twitter, and a few other major publishers. It was supposed to be a cacophony of different sites and voices. And it would be easy to rebuild this cacophony—indeed, it never really died. There are plenty of individual sites out there still, and they provide some (should I say most?) of the really valuable content on the web. The problem with the megasites is that they select and present “relevant” content to us. Much as we may complain about Facebook, selecting relevant content from an ocean of random sites is an important service. It’s easy for me to imagine relatives and friends building their own sites for baby pictures, announcements, and general talk. That’s what we did in the 90s. But would we go to the trouble of reading those all those sites? Probably not. I didn’t in the 90s, and neither did you.

    Yes, there would still be plenty of sites for every conspiracy theory and propaganda project around; but in a world where you choose what you see rather than letting a third party decide for you, these sites would have trouble gaining momentum.

    I don’t want to underestimate the difficulty of this project, or overestimate its chances of success. We’d certainly have to get used to sites that aren’t as glossy or complex as the ones we have now. We might have to revisit some of the most hideous bits of the first-generation web, including those awful GeoCities pages. We would probably need to avoid fancy, dynamic websites; and, before you think this will be easy, remember that one of the first extensions to the static web was CGI Perl. We would be taking the risk that we’d re-invent the same mistakes that brought us to our current mess. Simplicity is a discipline, and not an easy one. However, by losing tons of bloat, we’d end up with a web that is much faster and more responsive than what we have now. And maybe we’d learn to prize that speed and that responsiveness.

    #HTML #Web #Design

    • Je pense qu’il se trompe totalement de sujet. Le problème n’est pas la difficulté technique, mais l’économie de l’attention.

      Avant que « tout le monde » se mette à publier sur Facebook, il y avait les « blogs », y compris centralisés, tels que Blogspot. Aujourd’hui il y a Medium (et d’autres). Si on veut publier en dehors de Facebook, techniquement, c’est simple, c’est puissant et c’est beaucoup plus joli.

      Et en dehors de ça, il y a toujours la possibilité de se mettre à plusieurs pour faire un site ensemble, ce qui est une aventure particulièrement enrichissante, et techniquement pas usante (si vraiment on veut s’exprimer dans ce cadre, hé ben on trouve le ou la geek du groupe qui te configure le truc et voilà).

      Les gens « publient » sur Facebook parce qu’on a développé un fantasme de l’audience et de l’attention. Les gens postent leurs vidéos où ils prétendent commenter sérieusement l’actualité au milieu des vidéos de chats sur Youtube plutôt que sur n’importe quel autre plateforme parce qu’on leur promet que l’audience est là, pas parce que ce serait plus difficile sur Vimeo par exemple. On veut s’exprimer sans bosser (hop, je balance mon indignation à deux balles sur n’importe quel sujet) sur des plateformes qui promettent une grosse audience, voire une audience captive. Et les militants vont aussi sur Facebook pour exactement les mêmes raisons : parce qu’on leur dit qu’ils y feront de l’audience. Genre à ce train, il faudra aussi penser à aller « militer » sur Musically…

      Et je suspecte que beaucoup de « militants » vont sur Facebook ou Twitter parce que ce sont des plateformes fliquées où l’on peut facilement s’exprimer à sens unique, sans gros risque de contradiction, parce que les « réponses » sont perdues dans un marigot de conneries crasses, avec une interface bien conçue pour que personne ne les lise.

      Tant qu’on ne s’interroge pas sur la réalité et la qualité de l’attention dont on croit bénéficier sur Facebook, on n’ira nulle part. On peut bien vouloir décentraliser, revenir à un beau bazar de Web, mais tant que la logique qu’on oppose à cela est systématiquement « oui mais “les gens” sont sur Facebook », c’est mort. Tant qu’on ne se demandera pas quel est le niveau d’attention réel de ce qui est compté comme une « vue », ou même un « like » sur Facebook ou Twitter, c’est peine perdue.

      Si on regarde la photo, à une époque Flickr est presque mort de sa médiocrité, malgré son audience, et les photographes avec une (petite) prétention à la qualité sont partis ailleurs (500px par exemple). Idem pour les vidéos : si tu as une prétention artistique, tu fuis Youtube et tu vas sur Viméo. Pourquoi la question ne se pose-t-elle pas (ou pas encore) pour les gens qui cherchent une qualité de lecture, d’attention et d’échange avant d’aller sur Facebook (ou même Twitter) ?

    • Puisque je suis lancé…

      – La question du personal branding (« marketing personnel »), que je pense fondamentale dans les nouveaux supports de publication. Facebook semble être idéal pour cela, en ce qu’il a dès le début promu l’« identité réelle », mais aussi la confusion volontaire entre vie publique et vie privée (alors que, pour ma génération, aller balancer des propos politiquement engagés au même endroit où l’on échange des photos de ses gamins avec ses beaux-parents et où l’on garde le contact avec ses anciens élèves et ses relations du boulot, c’était une idée totalement crétine).

      Le changement de support de publication s’est aussi accompagné de ce changement de comportement (on se souviendra des vieux de la vieille bataillant pour tenter de pouvoir rester sous pseudo sur Facebook). Dans le bazar des années 90, nous avions tous des pseudos et nous tenions au pseudonymat (théorisé par certains – on a un texte sur uZine à ce sujet – comme la seule façon d’écrire de manière réellement libre). Dans les années 2000, chacun son blog, mais avec la mise en place d’un vedettariat. Désormais c’est terminé. Écrire sous pseudo est largement suspect et irresponsable et fake-news et tout ça…

      – La disparition des liens hypertexte. Je mets ça dans les années 2000, où les gens se sont mis à ne plus faire de liens entre blogs. On cite des gros médias sérieux, on les commente, on y répond, mais on ne rebondit pas « entre blogueurs » aussi facilement qu’on le faisait dans les années 90. Une sorte de dramatisation du lien hypertexte, accentué par la paranoïa anti-confusionisme et anti-complotisme chez les blogueurs engagés à gauche. Oh là là, mon image-personnelle-super-brandée va s’effondrer si je fais un lien vers un autre site qui, un jour, pourrait faire un lien vers quelqu’un de pas bien ou, pire, qui pourrait dire un truc qui ne me conviendrait pas !

      À partir du milieu des années 2000, quand on avait encore un site indépendant/militant, la seule source de visites à peu près régulière a été le Portail des copains. Pour un site militant, avoir un billet référencé ou pas sur le Portail, ça revenait à être lu par quelques centaines ou milliers de visiteurs eux-mêmes militants, ou pas lu du tout. Je suppose qu’au bout d’un moment, hé ben les gens vont à la soupe sur Facebook, parce que « c’est là que sont les gens » et que l’écosystème de l’hypertexte est déjà perverti depuis un bon moment ; même si ça me semble largement illusoire d’être lu sérieusement entre deux considérations sur les photos de vacances des cousins, et si c’est politiquement mortifère.

    • Et du coup, deux aspects qui pourraient redonner goût aux gens engagés à retourner au bazar…

      – À force de paranoïa anti-fake news, la visibilité des médias « non marchands », « indépendants », « alternatifs » sur Facebook va de plus en plus dépendre de leur adhésion à une vision du monde validée par les grands médias, au travers des contrats de traque aux fake-news que ces grands réseaux ont signé avec les Decodex et Décodeurs… L’effort énorme de chasse aux propos hétérodoxes sur les réseaux est en train de faire un massacre de ce côté, avec des changements volontaires des algorithmes de classement. (Le fait qu’une partie de cette paranoïa anti-fake-news ait été largement menée par la gauche aux États-Unis et ici est, je dois dire, assez croquignolesque.) Constater, par exemple, qu’on n’a déjà qu’une très faible visibilité pour les médias alternatifs sur un machin comme Google News.

      – Le principe même de réseaux qui vendent de la publicité et qui, dans le même temps, sont des outils de marketing personnel, amène au rétrécissement de l’expression non-sponsorisée sur ces réseaux (Facebook annonçant par exemple restreindre la visibilité naturelle des « pages » dans les flux personnels, mais pas une réduction de la quantité de publicité dans ces mêmes flux…). En dehors des quelques indignations préformatées qui continueront à « buzzer », parce qu’il faut bien continuer à faire croire que ces réseaux servent à s’exprimer, il devient de plus en plus évident que, pour récupérer de la visibilité dans les flux des usagers, il faudra payer. Je suspecte qu’il existe déjà des gens qui achètent de la visibilité sur Facebook pour avoir plus de « like » sur leurs photos de mariage, et je pense que dans quelques années, ce sera une pratique aussi banale que de, justement, payer un photographe pour avoir de belles photos de mariage… alors cette faramineuse audience qu’on te promet sur Facebook, ça risque d’être un peu compliqué. (Sinon, il te reste l’option d’aller relancer le niveau de buzz – et donc le revenu afférent – en allant, arme à la main, foutre le dawa chez Youtube.)

      Du coup, ce double mouvement de chasse aux expressions hétérodoxes (« chasse », en revanche, très tolérante pour les foutaises mainstream fascisantes) et d’obligation de passer à la caisse pour récupérer de la visibilité, ça pourrait être l’occasion d’une renaissance d’un Web un peu plus éclaté et joyeusement foutraque (#ou_pas).

    • @arno Pas nécessairement pour te relancer, encore que, depuis ce matin je bois un peu tes paroles comme du petit lait, mais je remarque ceci. Ce que tu exprimes ici avec une clarté dont je suis jaloux et qu’il m’arrive donc aussi de défendre de façon pus obscure, est de manière tellement fréquente, en fait, disqualifié d’un revers de main qui entend ringardiser de tels propos. Je suis souvent frappé que ces tentatives visant à faire fi de tels avertissement aux accents de Cassandre comme on me dit si souvent émanent naturellement de personnes qui n’ont pas le centième du quart du tiers de nos compétences techniques (surtout des tiennes plutôt que des miennes, dont je ne doute pas qu’elles datent un peu), et ce sont les mêmes personnes axquelles il ne me viendrait pas à l’esprit de reprocher cette plus faible aptitude technique, qui vont ensuite dévouvrir que vraiment ce que font les plateformes de leurs réseaux asociaux avec leurs données personnelles, c’est quand même pas très bien. Naturellement, des ringards cassandriens comme toi et moi (surtout moi) tentons de saisir l’opportunité de telles réalisations tardives pour leur dire que peut-être ce serait le bon moment pour changer de lunettes, mais alors tombe, tel une masse sur une mouche, l’argument qu’ils et elles ne peuvent pas partir de la sorte de ces plateformes et qu’ils et elles vont perdre tous leurs amis et suiveuses. Et tout ce petit monde retourne dans le grand bain dans la pleine connaissance qu’il grouille de requins et sans doute se rassure en pensant que cela concernera un ou une autres et que statistiquement, dans la masse, il est peu probable que le requin viennent les croquer elles et eux, quand le vrai danger n’est pas tellement les requins mais les amibes, parfaitement invisibles et autrement plus contagieux, et, in fine, léthaux.

      Je n’insiste pas sur le fait que leur faible niveau de prophylaxie numérique éclabousse quotidiennement leurs proches, qui elles, et eux, si cela se trouve, prennent, au contraire, certains précautions.

      Enfin, dans ce grand dessein de reconstruire Internet, je remarque que très rarement la question de la convservation de ressources certaines anciennes est évoquée or il me semble que c’est une question importante. Combien de fois cela me ravit quand à la faveur de la recherche d’un renseignement précis, il m’arrive de tomber sur des sites aux esthétiques du millénaire précédent, tout en Times et les liens en bleu souligné. Et dans cette masse profuse sur laquelle se sont aglutinés des sédiments plus récents, il y a des pépites dont je me demande combien de temps encore les navigateurs contemporains pourront encore les interpréter justement sans les interpréter et les dénaturer.

    • On a encore les codes d’uZine si jamais :)

      Perso je veux juste réagir sur un point de l’article de départ : geocities c’était pas hideux (ou pas seulement), c’était inventif et festif. Avec un revival chez https://neocities.org qui a une approche très sympa (notamment un backend #ipfs pour la pérennité)

  • Google’s true origin partly lies in CIA and NSA research grants for mass surveillance — Quartz
    https://qz.com/1145669/googles-true-origin-partly-lies-in-cia-and-nsa-research-grants-for-mass-surveill
    https://qzprod.files.wordpress.com/2017/08/rts18wdq-e1502123358903.jpg?quality=80&strip=all&w=1600

    Le titre est un peu « clickbait », mais les infos sont intéressantes, quoique parfois elliptiques.

    C’est écrit par : Jeff Nesbit, Former director of legislative and public affairs, National Science Foundation
    Quelqu’un qui doit savoir de quoi il cause.

    In the mid 1990s, the intelligence community in America began to realize that they had an opportunity. The supercomputing community was just beginning to migrate from university settings into the private sector, led by investments from a place that would come to be known as Silicon Valley.

    The intelligence community wanted to shape Silicon Valley’s efforts at their inception so they would be useful for homeland security purposes. A digital revolution was underway: one that would transform the world of data gathering and how we make sense of massive amounts of information. The intelligence community wanted to shape Silicon Valley’s supercomputing efforts at their inception so they would be useful for both military and homeland security purposes. Could this supercomputing network, which would become capable of storing terabytes of information, make intelligent sense of the digital trail that human beings leave behind?

    Intelligence-gathering may have been their world, but the Central Intelligence Agency (CIA) and the National Security Agency (NSA) had come to realize that their future was likely to be profoundly shaped outside the government. It was at a time when military and intelligence budgets within the Clinton administration were in jeopardy, and the private sector had vast resources at their disposal. If the intelligence community wanted to conduct mass surveillance for national security purposes, it would require cooperation between the government and the emerging supercomputing companies.

    Silicon Valley was no different. By the mid 1990s, the intelligence community was seeding funding to the most promising supercomputing efforts across academia, guiding the creation of efforts to make massive amounts of information useful for both the private sector as well as the intelligence community.

    They funded these computer scientists through an unclassified, highly compartmentalized program that was managed for the CIA and the NSA by large military and intelligence contractors. It was called the Massive Digital Data Systems (MDDS) project.
    The Massive Digital Data Systems (MDDS) project

    MDDS was introduced to several dozen leading computer scientists at Stanford, CalTech, MIT, Carnegie Mellon, Harvard, and others in a white paper that described what the CIA, NSA, DARPA, and other agencies hoped to achieve. The research would largely be funded and managed by unclassified science agencies like NSF, which would allow the architecture to be scaled up in the private sector if it managed to achieve what the intelligence community hoped for.

    “Not only are activities becoming more complex, but changing demands require that the IC [Intelligence Community] process different types as well as larger volumes of data,” the intelligence community said in its 1993 MDDS white paper. “Consequently, the IC is taking a proactive role in stimulating research in the efficient management of massive databases and ensuring that IC requirements can be incorporated or adapted into commercial products. Because the challenges are not unique to any one agency, the Community Management Staff (CMS) has commissioned a Massive Digital Data Systems [MDDS] Working Group to address the needs and to identify and evaluate possible solutions.”

    In 1995, one of the first and most promising MDDS grants went to a computer-science research team at Stanford University with a decade-long history of working with NSF and DARPA grants. The primary objective of this grant was “query optimization of very complex queries that are described using the ‘query flocks’ approach.” A second grant—the DARPA-NSF grant most closely associated with Google’s origin—was part of a coordinated effort to build a massive digital library using the internet as its backbone. Both grants funded research by two graduate students who were making rapid advances in web-page ranking, as well as tracking (and making sense of) user queries: future Google cofounders Sergey Brin and Larry Page.

    The research by Brin and Page under these grants became the heart of Google: people using search functions to find precisely what they wanted inside a very large data set. The intelligence community, however, saw a slightly different benefit in their research: Could the network be organized so efficiently that individual users could be uniquely identified and tracked?

    The grants allowed Brin and Page to do their work and contributed to their breakthroughs in web-page ranking and tracking user queries. Brin didn’t work for the intelligence community—or for anyone else. Google had not yet been incorporated. He was just a Stanford researcher taking advantage of the grant provided by the NSA and CIA through the unclassified MDDS program.
    Left out of Google’s story

    The MDDS research effort has never been part of Google’s origin story, even though the principal investigator for the MDDS grant specifically named Google as directly resulting from their research: “Its core technology, which allows it to find pages far more accurately than other search engines, was partially supported by this grant,” he wrote. In a published research paper that includes some of Brin’s pivotal work, the authors also reference the NSF grant that was created by the MDDS program.

    Instead, every Google creation story only mentions just one federal grant: the NSF/DARPA “digital libraries” grant, which was designed to allow Stanford researchers to search the entire World Wide Web stored on the university’s servers at the time. “The development of the Google algorithms was carried on a variety of computers, mainly provided by the NSF-DARPA-NASA-funded Digital Library project at Stanford,” Stanford’s Infolab says of its origin, for example. NSF likewise only references the digital libraries grant, not the MDDS grant as well, in its own history of Google’s origin. In the famous research paper, “The Anatomy of a Large-Scale Hypertextual Web Search Engine,” which describes the creation of Google, Brin and Page thanked the NSF and DARPA for its digital library grant to Stanford. But the grant from the intelligence community’s MDDS program—specifically designed for the breakthrough that Google was built upon—has faded into obscurity.

    Google has said in the past that it was not funded or created by the CIA. For instance, when stories circulated in 2006 that Google had received funding from the intelligence community for years to assist in counter-terrorism efforts, the company told Wired magazine founder John Battelle, “The statements related to Google are completely untrue.”

    Did the CIA directly fund the work of Brin and Page, and therefore create Google? No. But were Brin and Page researching precisely what the NSA, the CIA, and the intelligence community hoped for, assisted by their grants? Absolutely.

    In this way, the collaboration between the intelligence community and big, commercial science and tech companies has been wildly successful. When national security agencies need to identify and track people and groups, they know where to turn – and do so frequently. That was the goal in the beginning. It has succeeded perhaps more than anyone could have imagined at the time.

  • Nous sommes tous des cobayes émotionnels
    http://rue89.nouvelobs.com/2017/01/14/sommes-tous-cobayes-emotionnels-266088

    Il y a presque 15 ans (en novembre 2003), John Battelle publiait sur son blog un billet dans lequel il décrivait la « base de donnée des intentions ». Sept ans plus tard, en 2010, il mettait à jour son analyse dans le billet intitulé : « The Database Of Intentions Is Far Larger Than I Thought ». Donc la base de donnée des intentions c’est - notamment - ça :

    #Affectiva #Apple #Google #Facebook #algorithme #émotions #facial #profiling

  • Ubiquitous Video: Why We Need a Robots.txt For the Real World | John Battelle’s Search Blog
    http://battellemedia.com/archives/2013/11/ubiquitous-video-why-we-need-a-robots-txt-for-the-real-world.php

    Pour gérer les perturbations à venir de la possibilité de surveiller le monde depuis ses seules lunettes, nous avons besoin d’un nouveau contrat social, estime John Battelle. Nous avons besoin d’un robots.txt du monde réel permettant à ceux qui ne le souhaitent pas de ne pas y être indexé ! Tags : internetactu2net internetactu fing #GoogleGlass #vieprivee (...)

    #surveillance