person:eli pariser

  • https://blogs.mediapart.fr/edition/europeennes-des-elections-sous-surveillance/article/110419/devoiler-les-algorithmes-pour-sortir-de-nos-bulles

    Les réseaux sociaux joueront un rôle crucial dans la campagne pour les élections européennes, à la fois comme source d’information et comme arène du débat public.

    Dans cette édition, nous reviendrons à plusieurs reprises sur les difficultés, les biais, les limites que rencontre, à l’heure actuelle, la discussion politique sur les réseaux sociaux. Il s’agit de difficultés d’ordre social, communicatif, sémiologique, sociolinguistique et psycholinguistique qui demandent des actions importantes de sensibilisation et éducation pour que les citoyens puissent se servir de ces outils en tirant pleinement profit de leur potentiel.

    Dans ce billet nous nous focaliserons sur l’effet de ségrégation induit par l’utilisation des plateformes numériques comme lieu d’information et de discussion politique.

    Depuis l’étude d’Eli Pariser sur les bulles de filtrage, nous sommes conscients du fait que Facebook, Twitter, Youtube et les autres plateformes numériques commerciales n’ont pas été conçues avec l’objectif de nous informer, mais plutôt avec l’objectif de capturer notre attention pour nous retenir en ligne et pour nous exposer à des contenus publicitaires susceptibles de nous intéresser. Pour capturer notre attention, ces plateformes nous exposent à des contenus adaptés à notre profil. Ces contenus sont déterminés par de complexes processus algorithmiques, appelés « algorithmes de personnalisation », capables de prendre des décisions complètement automatisées à propos des contenus à privilégier ou à pénaliser pour chaque usager. L’utilisation de ces algorithmes par les plateformes numériques produit l’effet de ségréguer chaque usager dans une « bulle de filtrage » dans laquelle il ne fera qu’être exposé à des contenus qui confirmeront son opinion et sa vision du monde. Qui plus est, ces algorithmes restent secrets.

    Claudio Agosti, Umberto Boschi, Stefania Milan et Federico Sarchi travaillent au projet ALEX (ALgorithms Exposed. Investigating Automated Personalization and Filtering for Research and Activism), qui vise à dévoiler le fonctionnement des algorithmes de personnalisation sur les réseaux sociaux, en analysant d’abord Facebook et Youtube à titre de test.

    Le projet ALEX démarrera à l’occasion des élections européennes avec une expérience conduite à l’échelle continentale dont les motivations et la mise en place sont décrites dans deux articles (ici et là) que nos collègues nous ont gentiment autorisés à synthétiser et traduire (2) pour cette édition.

    Nous leur donnons la parole.

    –----

    Après que la sonnette d’alarme ait été tirée lorsque le scandale de Cambridge Analytica est sorti dans les médias internationaux, la commissaire européenne pour la Justice, Věra Jourová, parlait d’un « signe clair d’avertissement » que les élections européennes à venir pourraient souffrir de la même « désinformation et manipulation par des intérêts privés et étranger » qui avait affecté les élections américaines.

    Une grande partie du succès de cette vague déferlante de la droite populiste serait due au résultat de leur campagne sur les réseaux sociaux. L’algorithme de Facebook évoqué est en fait capable de déterminer le succès ou l’échec d’une campagne spécifique, divisant les candidats entre ceux qui savent mettre à profit ce procédé et ceux qui l’ignorent. Au-delà de la face émergée de l’iceberg, on peut s’attendre à ce que les mécanismes de l’algorithme continuent d’augmenter la polarisation des opinions.

    Eli Pariser, l’auteur de The Filter Bubble, donne un exemple clair du fonctionnement de cette polarisation : deux de ses amis ont recherché « BP » sur Google. « L’un d’entre eux a trouvé un certain nombre de liens sur les opportunités d’investir dans le British Petroleum. L’autre a reçu des informations sur le déversement d’hydrocarbures. » On doit prendre connaissance du fait que les algorithmes influencent de manière significative notre perception du monde et, par conséquent, tout le processus de la prise de décision d’un individu. Souvent, ils empêchent chaque individu de voir non seulement le spectre complet des différentes opinions, mais aussi le spectre complet des faits.
    [•••]

    https://algorithms.exposed
    https://policyreview.info/articles/news/personalisation-algorithms-and-elections-breaking-free-filter-bubble/1385
    https://progressivepost.eu/the-mag/popping-the-bubble

  • « Se priver de Facebook, c’est s’exclure du débat public »
    https://usbeketrica.com/article/eli-pariser-se-priver-de-facebook-exclure-debat-public

    Internet promettait d’ouvrir chacun d’entre nous à une multitude de points de vue. Chaque année, malgré la profusion de contenus, cette promesse semble perdre un peu plus de sa réalité. En 2011, il y a sept ans déjà, Eli Pariser développait un concept maintes fois utilisé depuis, celui de « bulle de filtre ». Des bulles qui, façonnées par les algorithmes, nous enferment de plus en plus dans des univers uniques, personnalisés, pour pénaliser in fine la démocratie. Sept ans plus tard, que reste-t-il du (...)

    #Google #Facebook #algorithme #manipulation #discrimination #RSF

  • Comment les réseaux sociaux accentuent l’enfermement dans ses idées
    http://www.lemonde.fr/pixels/article/2018/04/24/comment-les-reseaux-sociaux-accentuent-l-enfermement-dans-ses-idees_5289874_

    Le poids pris par Facebook, Twitter et les algorithmes de personnalisation renforcent des tendances déjà identifiées par la psychologie sociale, observent des chercheurs. Internet et les réseaux sociaux sont-ils des machines à enfermer les internautes dans leurs propres certitudes ? Cette question, posée dès 2011 par le penseur du Web Eli Pariser dans son ouvrage The Filter Bubble : What The Internet is Hiding from you (Les bulles filtrantes : ce qu’Internet vous cache, non traduit), est (...)

    #Facebook #Twitter #algorithme #manipulation

  • Unlike Us | About
    http://networkcultures.org/unlikeus/about

    Invitation to join the network (a series of events, reader, workshops, online debates, campaigns etc.)

    Concept: Geert Lovink (Institute of Network Cultures/HvA, Amsterdam) and Korinna Patelis (Cyprus University of Technology, Limassol)

    Thanks to Marc Stumpel, Sabine Niederer, Vito Campanelli, Ned Rossiter, Michael Dieter, Oliver Leistert, Taina Bucher, Gabriella Coleman, Ulises Mejias, Anne Helmond, Lonneke van der Velden, Morgan Currie and Eric Kluitenberg for their input.

    Summary
    The aim of Unlike Us is to establish a research network of artists, designers, scholars, activists and programmers who work on ‘alternatives in social media’. Through workshops, conferences, online dialogues and publications, Unlike Us intends to both analyze the economic and cultural aspects of dominant social media platforms and to propagate the further development and proliferation of alternative, decentralized social media software.

    Whether or not we are in the midst of internet bubble 2.0, we can all agree that social media dominate internet and mobile use. The emergence of web-based user to user services, driven by an explosion of informal dialogues, continuous uploads and user generated content have greatly empowered the rise of participatory culture. At the same time, monopoly power, commercialization and commodification are also on the rise with just a handful of social media platforms dominating the social web. These two contradictory processes – both the facilitation of free exchanges and the commercial exploitation of social relationships – seem to lie at the heart of contemporary capitalism.

    On the one hand new media create and expand the social spaces through which we interact, play and even politicize ourselves; on the other hand they are literally owned by three or four companies that have phenomenal power to shape such interaction. Whereas the hegemonic Internet ideology promises open, decentralized systems, why do we, time and again, find ourselves locked into closed corporate environments? Why are individual users so easily charmed by these ‘walled gardens’? Do we understand the long-term costs that society will pay for the ease of use and simple interfaces of their beloved ‘free’ services?

    The accelerated growth and scope of Facebook’s social space, for example, is unheard of. Facebook claims to have 700 million users, ranks in the top two or three first destination sites on the Web worldwide and is valued at 50 billion US dollars. Its users willingly deposit a myriad of snippets of their social life and relationships on a site that invests in an accelerated play of sharing and exchanging information. We all befriend, rank, recommend, create circles, upload photos, videos and update our status. A myriad of (mobile) applications orchestrate this offer of private moments in a virtual public, seamlessly embedding the online world in users’ everyday life.

    Yet despite its massive user base, the phenomena of online social networking remains fragile. Just think of the fate of the majority of social networking sites. Who has ever heard of Friendster? The death of Myspace has been looming on the horizon for quite some time. The disappearance of Twitter and Facebook – and Google, for that matter – is only a masterpiece of software away. This means that the protocological future is not stationary but allows space for us to carve out a variety of techno-political interventions. Unlike Us is developed in the spirit of RSS-inventor and uberblogger Dave Winer whose recent Blork project is presented as an alternative for ‘corporate blogging silos’. But instead of repeating the entrepreneurial-start-up-transforming-into-corporate-behemoth formula, isn’t it time to reinvent the internet as a truly independent public infrastructure that can effectively defend itself against corporate domination and state control?

    Agenda
    Going beyond the culture of complaint about our ignorance and loss of privacy, the proposed network of artists, scholars, activists and media folks will ask fundamental and overarching questions about how to tackle these fast-emerging monopoly powers. Situated within the existing oligopoly of ownership and use, this inquiry will include the support of software alternatives and related artistic practices and the development of a common alternative vision of how the techno-social world might be mediated.

    Without falling into the romantic trap of some harmonious offline life, Unlike Us asks what sort of network architectures could be designed that contribute to ‘the common’, understood as a shared resource and system of collective production that supports new forms of social organizations (such as organized networks) without mining for data to sell. What aesthetic tactics could effectively end the expropriation of subjective and private dimensions that we experience daily in social networks? Why do we ignore networks that refuse the (hyper)growth model and instead seek to strengthen forms of free cooperation? Turning the tables, let’s code and develop other ‘network cultures’ whose protocols are no longer related to the logic of ‘weak ties’. What type of social relations do we want to foster and discover in the 21st century? Imagine dense, diverse networked exchanges between billions of people, outside corporate and state control. Imagine discourses returning subjectivities to their ‘natural’ status as open nodes based on dialogue and an ethics of free exchange.

    To a large degree social media research is still dominated by quantitative and social scientific endeavors. So far the focus has been on moral panics, privacy and security, identity theft, self-representation from Goffman to Foucault and graph-based network theory that focuses on influencers and (news) hubs. What is curiously missing from the discourse is a rigorous discussion of the political economy of these social media monopolies. There is also a substantial research gap in understanding the power relations between the social and the technical in what are essentially software systems and platforms. With this initiative, we want to shift focus away from the obsession with youth and usage to the economic, political, artistic and technical aspects of these online platforms. What we first need to acknowledge is social media’s double nature.

    Dismissing social media as neutral platforms with no power is as implausible as considering social media the bad boys of capitalism. The beauty and depth of social media is that they call for a new understanding of classic dichotomies such as commercial/political, private/public, users/producers, artistic/standardised, original/copy, democratising/ disempowering. Instead of taking these dichotomies as a point of departure, we want to scrutinise the social networking logic. Even if Twitter and Facebook implode overnight, the social networking logic of befriending, liking and ranking will further spread across all aspects of life.

    The proposed research agenda is at once a philosophical, epistemological and theoretical investigation of knowledge artifacts, cultural production and social relations and an empirical investigation of the specific phenomenon of monopoly social media. Methodologically we will use the lessons learned from theoretical research activities to inform practice-oriented research, and vice-versa. Unlike Us is a common initiative of the Institute of Network Cultures (Amsterdam University of Applied Science HvA) and the Cyprus University of Technology in Limassol.

    An online network and a reader connected to a series of events initially in Amsterdam and Cyprus (early 2012) are already in planning. We would explicitly like to invite other partners to come on board who identify with the spirit of this proposal, to organize related conferences, festivals, workshops, temporary media labs and barcamps (where coders come together) with us. The reader (tentatively planned as number 8 in the Reader series published by the INC) will be produced mid-late 2012. The call for contributions to the network, the reader and the event series goes out in July 2011, followed by the publicity for the first events and other initiatives by possible new partners.

    Topics of Investigation
    The events, online platform, reader and other outlets may include the following topics inviting theoretical, empirical, practical and art-based contributions, though not every event or publication might deal with all issues. We anticipate the need for specialized workshops and barcamps.

    1. Political Economy: Social Media Monopolies
    Social media culture is belied in American corporate capitalism, dominated by the logic of start-ups and venture capital, management buyouts, IPOs etc. Three to four companies literally own the Western social media landscape and capitalize on the content produced by millions of people around the world. One thing is evident about the market structure of social media: one-to-many is not giving way to many-to-many without first going through many-to-one. What power do these companies actually have? Is there any evidence that such ownership influences user-generated content? How does this ownership express itself structurally and in technical terms?

    What conflicts arise when a platform like Facebook is appropriated for public or political purposes, while access to the medium can easily be denied by the company? Facebook is worth billions, does that really mean something for the average user? How does data-mining work and what is its economy? What is the role of discourse (PR) in creating and sustaining an image of credibility and trustworthiness, and in which forms does it manifest to oppose that image? The bigger social media platforms form central nodes, such as image upload services and short ulr services. This ecology was once fairly open, with a variety of new Twitter-related services coming into being, but now Twitter takes up these services itself, favoring their own product through default settings; on top of that it is increasingly shutting down access to developers, which shrinks the ecology and makes it less diverse.

    2. The Private in the Public
    The advent of social media has eroded privacy as we know it, giving rise to a culture of self-surveillance made up of myriad voluntary, everyday disclosures. New understandings of private and public are needed to address this phenomenon. What does owning all this user data actually mean? Why are people willing to give up their personal data, and that of others? How should software platforms be regulated?

    Is software like a movie to be given parental guidance? What does it mean that there are different levels of access to data, from partner info brokers and third-party developers to the users? Why is education in social media not in the curriculum of secondary schools? Can social media companies truly adopt a Social Network Users’ Bill of Rights?

    3. Visiting the Belly of the Beast
    The exuberance and joy that defined the dotcom era is cliché by now. IT use is occurring across the board, and new labour conditions can be found everywhere. But this should not keep our eyes away from the power relations inside internet companies. What are the geopolitical lines of distribution that define the organization and outsourcing taking place in global IT companies these days? How is the industry structured and how does its economy work?

    Is there a broader connection to be made with the politics of land expropriation and peasant labour in countries like India, for instance, and how does this analytically converge with the experiences of social media users? How do monopolies deal with their employees’ use of the platforms? What can we learn from other market sectors and perspectives that (critically) reflect on, for example, techniques of sustainability or fair trade?

    4. Artistic Responses to Social Media
    Artists are playing a crucial role in visualizing power relationships and disrupting subliminal daily routines of social media usage. Artistic practice provides an important analytical site in the context of the proposed research agenda, as artists are often first to deconstruct the familiar and to facilitate an alternative lens to understand and critique these media. Is there such a thing as a social ‘web aesthetics’? It is one thing to criticize Twitter and Facebook for their primitive and bland interface designs. How can we imagine the social in different ways? And how can we design and implement new interfaces to provide more creative freedom to cater to our multiple identities? Also, what is the scope of interventions with social media, such as, for example, the ‘dislike button’ add-on for Facebook? And what practices are really needed? Isn’t it time, for example, for a Facebook ‘identity correction’?

    5. Designing culture: representation and software
    Social media offer us the virtual worlds we use every day. From Facebook’s ‘like’ button to blogs’ user interface, these tools empower and delimit our interactions. How do we theorize the plethora of social media features? Are they to be understood as mere technical functions, cultural texts, signifiers, affordances, or all these at once? In what ways do design and functionalities influence the content and expressions produced? And how can we map and critique this influence? What are the cultural assumptions embedded in the design of social media sites and what type of users or communities do they produce?

    To answer the question of structure and design, one route is to trace the genealogy of functionalities, to historicize them and look for discursive silences. How can we make sense of the constant changes occurring both on and beyond the interface? How can we theorize the production and configuration of an ever-increasing algorithmic and protocological culture more generally?

    6. Software Matters: Sociotechnical and Algorithmic Cultures
    One of the important components of social media is software. For all the discourse on sociopolitical power relations governed by corporations such as Facebook and related platforms, one must not forget that social media platforms are thoroughly defined and powered by software. We need critical engagement with Facebook as software. That is, what is the role of software in reconfiguring contemporary social spaces? In what ways does code make a difference in how identities are formed and social relationships performed? How does the software function to interpellate users to its logic? What are the discourses surrounding software?

    One of the core features of Facebook for instance is its news feed, which is algorithmically driven and sorted in its default mode. The EdgeRank algorithm of the news feed governs the logic by which content becomes visible, acting as a modern gatekeeper and editorial voice. Given its 700 million users, it has become imperative to understand the power of EdgeRank and its cultural implications. Another important analytical site for investigation are the ‘application programming interfaces’ (APIs) that to a large extent made the phenomenal growth of social media platforms possible in the first place. How have APIs contributed to the business logic of social media? How can we theorize social media use from the perspective of the programmer?

    7. Genealogies of Social Networking Sites
    Feedback in a closed system is a core characteristic of Facebook; even the most basic and important features, such as ‘friending’, traces back to early cybernetics’ ideas of control. While the word itself became lost in various transitions, the ideas of cybernetics have remained stable in fields such as artificial intelligence, robotics and the biopolitical arena. Both communication and information theories shaped this discourse. How does Facebook relate to such an algorithmic shape of social life? What can Facebook teach us about the powers of systems theory? Would Norbert Wiener and Niklas Luhmann be friends on Facebook?

    8. Is Research Doomed?
    The design of Facebook excludes the third person perspective, as the only way in is through ones own profile. What does this inbuilt ‘me-centricity’ imply for social media research? Does it require us to rethink the so-called objectivity of researchers and the detached view of current social research? Why is it that there are more than 200 papers about the way people use Facebook, but the site is ‘closed’ to true quantitative inquiry? Is the state of art in social media research exemplary of the ‘quantitative turn’ in new media research? Or is there a need to expand and rethink methods of inquiry in social media research? Going beyond the usual methodological approaches of the quantitative and qualitative, we seek to broaden the scope of investigating these media. How can we make sense of the political economy and the socio-technical elements, and with what means? Indeed, what are our toolkits for collective, transdisciplinary modes of knowledge and the politics of refusal?

    9. Researching Unstable Ontologies
    Software destabilizes Facebook as a solid ontology. Software is always in becoming and so by nature ontogenetic. It grows and grows, living off of constant input. Logging on one never encounters the same content, as it changes on an algorithmic level and in terms of the platform itself. What does Facebook’s fluid nature imply for how we make sense of and study it? Facebook for instance willingly complicates research: 1. It is always personalized (see Eli Pariser). Even when creating ‘empty’ research accounts it never gives the same results compared to other people’s empty research accounts. 2. One must often be ‘inside’ social media to study it. Access from the outside is limited, which reinforces the first problem. 3. Outside access is ideally (for Facebook and Twitter) arranged through carefully regulated protocols of APIs and can easily be restricted. Next to social media as a problem for research, there is also the question of social research methods as intervention.

    10. Making Sense of Data: Visualization and Critique
    Data representation is one of the most important battlefields nowadays. Indeed, global corporations build their visions of the world increasingly based on and structured around complex data flows. What is the role of data today and what are the appropriate ways in which to make sense of the burgeoning datasets? As data visualization is becoming a powerful buzzword and social research increasingly uses digital tools to make ‘beautiful’ graphs and visualizations, there is a need to take a step back and question the usefulness of current data visualization tools and to develop novel analytical frameworks through which to critically grasp these often simplified and nontransparent ways of representing data.

    Not only is it important to develop new interpretative and visual methods to engage with data flows, data itself needs to be questioned. We need to ask about data’s ontological and epistemological nature. What is it, who is the producer, for whom, where is it stored? In what ways do social media companies’ terms of service regulate data? Whether alternative social media or monopolistic platforms, how are our data-bodies exactly affected by changes in the software?

    11. Pitfalls of Building Social Media Alternatives
    It is not only important to critique and question existing design and socio-political realities but also to engage with possible futures. The central aim of this project is therefore to contribute and support ‘alternatives in social media’. What would the collective design of alternative protocols and interfaces look like? We should find some comfort in the small explosion of alternative options currently available, but also ask how usable these options are and how real is the danger of fragmentation. How have developers from different initiatives so far collaborated and what might we learn from their successes and failures? Understanding any early failures and successes of these attempts seems crucial.

    A related issue concerns funding difficulties faced by projects. Finally, in what ways does regionalism (United States, Europe, Asia) feed into the way people search for alternatives and use social media.

    12. Showcasing Alternatives in Social Media
    The best way to criticize platform monopolies is to support alternative free and open source software that can be locally installed. There are currently a multitude of decentralized social networks in the making that aspire to facilitate users with greater power to define for themselves with whom share their data. Let us look into the wildly different initiatives from Crabgrass, Appleseed, Diaspora, NoseRub, BuddyCloud, Protonet, StatusNet, GNU Social, Lorea and OneSocialWeb to the distributed Twitter alternative Thimbl.

    In which settings are these initiative developed and what choices are made for their design? Let’s hear from the Spanish activists who have recently made experiences with the n-1.cc platform developed by Lorea. What community does this platform enable? While traditional software focuses on the individual profile and its relation to the network and a public (share with friends, share with friends of friends, share with public), the Lorea software for instance asks you with whom to share an update, picture or video. It finegrains the idea of privacy and sharing settings at the content level, not the user’s profile. At the same time, it requires constant decision making, or else a high level of trust in the community you share your data with. And how do we experience the transition from, or interoperability with, other platforms? Is it useful to make a distinction between corporate competitors and grassroots initiatives? How can these beta alternatives best be supported, both economically and socially? Aren’t we overstating the importance of software and isn’t the availability of capital much bigger in determining the adoption of a platform?

    13. Social Media Activism and the Critique of Liberation Technology
    While the tendency to label any emergent social movement as the latest ‘Twitter revolution’ has passed, a liberal discourse of ‘liberation technology’ (information and communication technologies that empower grassroots movements) continues to influence our ideas about networked participation. This discourse tends to obscure power relations and obstruct critical questioning about the capitalist institutions and superstructures in which these technologies operate. What are the assumptions behind this neo-liberal discourse? What role do ‘developed’ nations play when they promote and subsidize the development of technologies of circumvention and hacktivism for use in ‘underdeveloped’ states, while at the same time allowing social media companies at home to operate in increasingly deregulated environments and collaborating with them in the surveillance of citizens at home and abroad? What role do companies play in determining how their products are used by dissidents or governments abroad? How have their policies and Terms of Use changed as a result?

    14. Social Media in the Middle East and Beyond
    The justified response to downplay the role of Facebook in early 2011 events in Tunisia and Egypt by putting social media in a larger perspective has not taken off the table the question of how to organize social mobilizations. Which specific software do the ‘movements of squares’ need? What happens to social movements when the internet and ICT networks are shut down? How does the interruption of internet services shift the nature of activism? How have repressive and democratic governments responded to the use of ‘liberation technologies’? How do these technologies change the relationship between the state and its citizens? How are governments using the same social media tools for surveillance and propaganda or highjacking Facebook identities, such as happened in Syria? What is Facebook’s own policy when deleting or censoring accounts of its users?

    How can technical infrastructures be supported which are not shutdown upon request? How much does our agency depend on communication technology nowadays? And whom do we exclude with every click? How can we envision ‘organized networks’ that are based on ’strong ties’ yet open enough to grow quickly if the time is right? Which software platforms are best suited for the ‘tactical camping’ movements that occupy squares all over the world?

    15. Data storage: social media and legal cultures
    Data that is voluntarily shared by social media users is not only used for commercial purposes, but is also of interest to governments. This data is stored on servers of companies that are bound to the specific legal culture and country. This material-legal complex is often overlooked. Fore instance, the servers of Facebook and Twitter are located in the US and therefore fall under the US jurisdiction. One famous example is the request for the Twitter accounts of several activists (Gonggrijp, Jónsdóttir, Applebaum) affiliated with Wikileaks projects by the US government. How do activists respond and how do alternative social media platforms deal with this issue?

  • Facebook, faux ami de la démocratie

    http://www.lemonde.fr/actualite-medias/article/2016/11/01/facebook-faux-ami-de-la-democratie_5023701_3236.html

    Quand Susanna Lazarus s’est éveillée, ce vendredi 24 juin, et qu’elle a allumé la télévision, la stupeur l’a envahie. Son pays, le Royaume-Uni, venait de choisir de quitter l’Union européenne, à près de 52 %. Pourtant, dans les jours qui précédaient, cette Londonienne de 27 ans n’avait rien vu venir. Sur Facebook, presque tous ses amis, issus comme elle de la cosmopolite capitale économique du pays, avaient partagé les arguments du « remain ». La campagne adverse, celle du « Leave », était absente de son flux. « Quand je suis allée me coucher, hier soir, je me sentais optimiste, et une grande part de cet espoir venait de l’état d’esprit que je percevais sur mes fils sociaux », a confessé cette journaliste dans un article du magazine Radio Times, au lendemain du vote. Et de conclure, amère : « Hier, mon fil Facebook m’a fait un gros mensonge ».

    Un tel témoignage prêtait bien sûr le flanc à la critique. « Franchement, si vous êtes assez bête pour faire confiance aux réseaux sociaux pour vous informer et vous forger un avis, vous méritez ce genre de surprise », l’a sévèrement tancée Rosemary, de Genève, dans les commentaires. Un autre internaute, David, a pris un peu de hauteur : « Nous avons tous tendance à échanger en priorité avec des gens qui partagent nos points de vue. » Susanna n’avait pas caché vivre dans une espèce de « bulle », entourée de gens qui lui ressemblent. Dans la région de Londres, 40 % des votants ont pourtant choisi le Leave. Mais Susanna comptait sans doute très peu d’entre eux parmi ses « amis numériques ».
    Plus d’un milliard d’utilisateurs

    Facebook nous « ment »-il, comme l’a écrit la jeune Londonienne après son douloureux réveil ? La question est devenue extrêmement sensible, à mesure que le réseau social dominant s’est mué en un lieu d’information et de débat – alors qu’il n’était à l’origine qu’une espèce de répertoire, inspiré des trombinoscopes des facs américaines. Douze ans après sa création par Mark Zuckerberg, The Social Network – pour reprendre le titre du film qui narre ses origines – compte 1,13 milliard d’utilisateurs quotidiens (dont 24 millions de Français). Et parmi eux, 44 % déclarent l’utiliser pour s’informer, selon le Reuters Institute for the Study of Journalism, de l’université d’Oxford (Royaume-Uni).

    Sur le réseau, l’intérêt pour le débat public et la politique est encore plus grand pendant les campagnes électorales, comme actuellement en France ou aux Etats-Unis. De janvier à septembre, 103 millions de personnes – soit la moitié des membres américains de Facebook − ont interagi avec des contenus concernant la présidentielle du 8 novembre. Fin 2015, la plate-forme a même mesuré que l’élection était, aux Etats-Unis, le premier sujet de conversation de ses utilisateurs, devant les attentats ou la crise des réfugiés.

    « Une chose est sûre : le débat public est sur ces plates-formes », résume Axel Calandre, responsable de la campagne numérique de Nicolas Sarkozy. Pour preuve, ces milliers de pages partisanes, outre-Atlantique, dont l’audience cumulée rivalise sur Facebook avec celle de CNN ou du New York Times, selon une enquête du New York Times Magazine. Les grands médias ne sont plus qu’une partie d’un espace public bien plus vaste, au sein duquel le réseau social américain occupe une place de plus en plus centrale.

    Or, quels que soient leurs biais, les médias traditionnels fonctionnent avec des règles qui reflètent celles des sociétés démocratiques : ils font entendre différents points de vue, s’attachent à proposer un équilibre dans les sujets qu’ils abordent, à respecter le principe du contradictoire… Dans certains cas, ils sont même soumis à une régulation, à l’image des radios et télévisions en France, qui se voient imposer par le CSA de respecter le pluralisme et l’équilibre des temps de parole en politique.

    Aucune responsabilité éditoriale

    Autant de principes qui sont étrangers à Facebook. Ce dernier n’a pas été conçu comme un média. C’est « avant tout un service qui vous permet de vous connecter avec vos amis et votre famille », prêche son responsable produit, Chris Cox, proche de Mark Zuckerberg et apôtre de Facebook parcourant le monde entier. Conséquence formulée par sa responsable des relations avec les politiques, Katie Harbath : « Nous sommes agnostiques sur le contenu, nous n’avons pas d’avis éditorial ». Facebook se présente comme « une plate-forme neutre et ouverte », insiste-t-elle.
    Facebook est avant tout une usine à publicité ciblée. Sur mobile, elle rivalise avec Google pour la première place et dégage environ 6 milliards d’euros de revenus… par trimestre.

    Le réseau réfute toute notion de responsabilité éditoriale. En revanche, il exerce bien une forme de sélection des contenus, par le biais d’un algorithme. « Notre but est de montrer à chaque personne le genre d’histoires qu’elle veut le plus voir, d’après nos indications », expose un document de référence publié en juin par Facebook pour expliciter les « valeurs » du fil d’actualité – ce flux de contenus choisis par un algorithme, que chacun voit quand il se connecte au réseau. Et de préciser : « Nous agissons ainsi non seulement parce que nous pensons que c’est la bonne chose à faire, mais aussi parce que c’est bon pour notre business ». Un rappel salutaire : Facebook est avant tout une usine à publicité ciblée. Sur mobile, elle rivalise avec Google pour la première place et dégage environ 6 milliards d’euros de revenus… par trimestre.

    Il y a donc un hiatus entre ce qu’est Facebook et ce pour quoi il est utilisé, en tout cas quand il s’agit d’information. Ce hiatus explique la mésaventure de Susanna Lazarus, et une série de prises de parole récentes pointant des effets de cloisonnement. En France, ce sont les opposants à la loi travail qui sur Facebook voient surtout des contenus confortant leur vision, sans vraie porosité avec les défenseurs du texte. Ou les adversaires du burkini qui échangent en cercle fermé, comme le font, dans le camp opposé, ceux qui dénoncent l’islamophobie. Faute d’une information commune, ces différents groupes risquent de se retrouver dans l’incapacité à débattre ensemble, ce qui est pourtant un fondement de la culture démocratique.

    Ni médiation ni équilibre

    Parfois, la logique communautaire de Facebook épouse les fractures de conflits bien plus terribles. C’est le cas en Syrie, selon le chercheur Yves Gonzalez-Quijano, spécialiste des cultures numériques du monde arabe. A l’origine, pointe-t-il, Facebook est associé à une « mythologie positive », celle des « printemps arabes » de 2011. Mais cette année-là, un faux blog, « A gay girl in Damascus », en fait tenu par un Américain, crée le trouble. Et puis, à mesure que la guerre civile s’intensifie, les fils sociaux deviennent « un cocktail explosif où les discours de haine s’entre-alimentent de vidéos glaçantes de corps en morceaux, de tortures, et autres images invérifiables ». Les clichés et les points de vue défilent, sans médiation, sans notion d’équilibre. D’où le constat posé par cet enseignant-chercheur de l’université Lumière-Lyon-II, dans un entretien à Big browser, un blog du Monde, au printemps 2016 : « On navigue à travers une succession de filtres générés par les gens que l’on “suit” ou que l’on a ajoutés à sa liste d’“amis”. On ne s’ouvre pas à tous les possibles, au contraire, on a accès à des informations filtrées par un réseau coopté. On fonctionne en circuit fermé. »

    A des milliers de kilomètres des affres syriennes, la campagne présidentielle américaine a elle aussi révélé la puissance de ces « filtres ». Aux Etats-Unis, Facebook range ses utilisateurs parmi 98 catégories politiques, afin de pouvoir vendre un ciblage très fin aux annonceurs. En mai, le Wall Street Journal a créé un outil permettant de comparer le fil d’un utilisateur classé comme « très libéral » à celui d’un autre, « très conservateur ». Résultat : deux visions du monde radicalement différentes. Par exemple, sur une question clivante comme celle de l’avortement, le fil « bleu » (libéral) remonte une vidéo des manifestations en Pologne contre son interdiction, tandis que le fil « rouge » (conservateur) renvoie vers une pétition contre le financement public du planning familial.

    Comment Facebook en vient-il à nous montrer des contenus aussi différents ? Avec son algorithme, l’entreprise californienne veut répondre à l’abondance des publications. Il s’agit de les écrémer en détectant, pour chaque utilisateur, les plus pertinentes. Pour cela, le réseau exploite les informations dont il dispose, en temps réel, pour déterminer, parmi toutes les publications des « amis » d’un utilisateur, celles avec lesquels il a la plus grande « affinité » ; mais aussi à quelle place il faut les afficher sur son fil de contenus Facebook. Parmi les milliers de critères utilisés, les plus importants dépendent du comportement individuel de l’utilisateur : ses clics, ses partages, ses likes… Mais les actions de ses amis sont aussi prises en compte. Accepter un ami sur Facebook, c’est donc accepter d’être influencé par ses choix.

    S’il ne dévoile pas le détail de son algorithme, par ailleurs quotidiennement affiné, le réseau n’en cache pas la logique générale : « Les actualités qui s’affichent dans votre fil d’actualité sont sélectionnées en fonction de votre activité et de vos contacts sur Facebook », explique l’une de ses pages d’aide, ajoutant : « Si vous avez l’impression que vous ne voyez pas toutes les actualités ou que vous voyez dans votre fil d’actualité des actualités qui ne vous intéressent pas, vous pouvez régler vos paramètres. »

    Dans les faits, peu d’utilisateurs utilisent cette possibilité. Et selon une étude publiée en 2015 par des chercheurs américains, 63 % des quarante utilisateurs interrogés ignoraient même que leur fil d’actualité était filtré par un algorithme. Ils couraient donc le risque de croire que ce qu’ils voyaient était une vision fiable de l’actualité à un instant T, alors qu’il s’agissait d’une sélection fondée sur leurs actions et celles de leurs amis.

    La création d’une « auto-propagande »

    Activiste politique et homme de médias, l’Américain Eli Pariser a donné un nom à ce phénomène : les « filter bubbles » (bulles de filtres) – titre de son ouvrage paru en 2012 (The Filter Bubble, Penguin, non traduit). Ces bulles créent selon lui une « auto-propagande ». « Vous vous endoctrinez vous-même avec vos propres opinions. Vous ne réalisez pas que ce que vous voyez n’est qu’une partie du tableau, a exposé, dans un entretien au magazine Time, l’activiste cofondateur des sites Upworthy et Avaaz.org. Et cela a des conséquences sur la démocratie : pour être un bon citoyen, il faut que vous puissiez vous mettre à la place des autres et avoir une vision d’ensemble. Si tout ce que vous voyez s’enracine dans votre propre identité, cela devient difficile, voire impossible. »

    Or, Facebook est le réseau social le plus propice aux « filter bubbles ». « Toutes les plates-formes à algorithmes sont concernées, mais Facebook concentre deux effets d’enfermement, analyse Benoît Thieulin, membre du Conseil national du numérique. Le premier effet est lié à sa nature de réseau social symétrique, qui relie des amis qui vous acceptent eux aussi comme amis, à la différence de Twitter, qui est un peu plus ouvert et vous permet de suivre des gens qui ne vous suivent pas. Le second est l’effet de l’enfermement algorithmique. »

    « La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. » Dominique Cardon, chercheur
    Pour contrer ces critiques, le réseau social a fait publier dans la prestigieuse revue Science, en mai 2015, une vaste étude mesurant « l’exposition à une information diverse sur Facebook », fondée sur l’observation de ses utilisateurs se déclarant « conservateurs » ou « libéraux » (soit 9 % des membres de Facebook aux Etats-Unis). Ses résultats confirment une polarisation de la circulation des contenus, mais battent aussi en brèche certaines idées reçues.

    Selon l’étude, s’ils étaient exposés de façon aléatoire aux contenus partagés sur Facebook, les « conservateurs » en verraient 45 % qui ne sont pas majoritairement partagés par les gens de leur bord politique, et les « libéraux » 40 %. Mais comme les membres n’ont accès qu’aux publications partagées par leurs « amis », cette proportion de contenu « différent » tombe à 34 % pour les « conservateurs » et 23 % pour les « libéraux ». Ensuite, la sélection opérée par l’algorithme rabote encore les chiffres à 33 % et 22 %. Enfin, si l’on ne compte que les liens sur lesquels les utilisateurs cliquent finalement, les proportions descendent à 29 % et 20 %.

    Quelles conclusions tirer ? « Sur Facebook, vous êtes exposé à une large diversité de contenus, interprète Katie Harbath. Il n’y a pas que des pro-Clinton et des pro-Trump discutant entre eux. Il y a une zone commune. » Et l’effet de bulle ? « Il est proche de celui qu’on rencontre dans la vraie vie, répond cette ancienne de la campagne présidentielle du républicain Rudy Giuliani. Chacun a des amis qui pensent comme lui mais aussi d’autres qui ont des opinions différentes. »

    « La leçon de l’étude de Facebook, c’est que le filtre est en nous, sourit Dominique Cardon, chercheur au laboratoire des usages d’Orange et auteur de A quoi rêvent les algorithmes ? (Seuil, octobre 2015). La bulle, c’est nous qui la créons. Par un mécanisme typique de reproduction sociale. Le vrai filtre, c’est le choix de nos amis, plus que l’algorithme de Facebook. »

    Une reproduction de la société

    Selon certains travaux, le cercle des amis Facebook, souvent acceptés rapidement et sans engagement, est plus large que celui des gens régulièrement côtoyés dans la vraie vie, et donc plus hétérogène, sauf pour les individus les plus politisés. En revanche, comme l’indique une étude du Pew Research Center parue fin octobre, une majorité d’Américains jugent « stressant et frustrant » le fait de parler de politique, sur les réseaux sociaux, avec des gens d’un autre bord, en raison notamment du ton.

    Historien des médias, Patrick Eveno rappelle que la recherche d’un entre-soi est ancienne : « Le lecteur assidu de L’Humanité dans les années 1950 ne regardait ni Le Figaro, ni Le Monde, ni La Croix ; et réciproquement ». Une différence de taille, toutefois : le cloisonnement entre lecteurs de journaux était un choix actif, une inscription assumée dans une famille de pensée politique. Celui de Facebook est subi et parfois inconscient.

    Les défenseurs du réseau estiment donc qu’il ne fait que reproduire la société : « Cela fait vingt ans que les Etats-Unis se polarisent de plus en plus politiquement », souligne Katie Harbath. Le logiciel ne ferait que refléter un champ démocratique fracturé, composé de différentes tribus antagonistes, comme le Tea Party ou le courant Alt-Right américains.

    Cette fragmentation est accentuée par les effets du marketing politique, devenu intense sur Facebook, même si, pour les groupes qui l’utilisent, il est aussi un moyen de sortir de leur cercle d’habitués. Une partie de la publicité est en effet acquise par des partis, candidats ou lobbies qui « sponsorisent » des billets adressés à des internautes ciblés en fonction de leur âge, leur sexe, leurs centres d’intérêt, leur lieu de résidence, leur profession… Par exemple, dans la campagne française, à droite, Alain Juppé, Nicolas Sarkozy ou François Fillon peuvent faire parvenir leur programme sur la santé à des gens qui ont aimé la page d’une organisation de médecins généralistes, ou la vidéo d’un discours sur l’éducation à des enseignants.

    Massive aux Etats-Unis, cette publicité politique est également généralisée en France, mais interdite dans les six mois qui précèdent une élection – en l’occurrence depuis le 1er octobre pour ce qui concerne la présidentielle de 2017 (dont le premier tour aura lieu le 23 avril). « En période de campagne, Facebook permet surtout d’augmenter la mobilisation au sein d’une bulle, pas forcément de propager ses idées à des poches très variées », estime Elliot Lepers, spécialiste des campagnes en ligne, notamment contre la loi El Khomri ou pour la candidate écologiste Eva Joly. « Avec le jeu des partages, les communautés qu’on peut toucher sont malgré tout plus larges qu’avant l’arrivée des réseaux sociaux », nuance Gautier Guignard, responsable numérique de la campagne de François Fillon, qui comme Alain Juppé a 150 000 fans sur sa page Facebook officielle, Nicolas Sarkozy culminant, lui, à près d’un million.

    L’algorithme n’a pas de « conscience politique »

    En matière politique, la quête d’audience se fait avec les mêmes règles que dans d’autres domaines, et la plate-forme a la réputation de favoriser les contenus les plus simplistes ou les plus tranchés. Un travers lié à la mécanique du share : les contenus déclenchant une émotion chez l’utilisateur sont plus partagés que les autres, et donc mieux traités par l’algorithme. Cette « règle du jeu » a un impact sur la production des médias, mais aussi l’expression des politiques. Jusqu’à l’Elysée, où François Hollande s’est mis depuis l’été à publier, sur Facebook, des messages personnels, rompant avec son registre de communication précédent, plus institutionnel.

    Certains acteurs sont des spécialistes de ces logiques de buzz : les milliers de pages militantes non officielles qui, aux Etats-Unis ou en France, se sont taillé une place centrale sur certains créneaux, par exemple la Manif pour tous ou l’antihollandisme – une page comme « Hollande dégage » rassemblant plus de 800 000 fans. « Sur Facebook, la prime au partage et aux commentaires s’applique aux contenus qui génèrent une joie hors-norme ou une rage profonde, ou qui deviennent viraux, qu’il s’agisse de canulars, de théories du complot, de photos de bébés ou d’informations importantes », a décrit Zeynep Tufekci dans une chronique parue, en mai, dans le New York Times. La professeure assistante à l’université de Caroline du Nord souligne, comme une conséquence, que sur le réseau créé par Mark Zuckerberg, « Donald Trump s’en sort mieux que les autres candidats ».

    « Actuellement, on a l’impression que ceux qui profitent le plus de la situation, c’est Trump et Daech [acronyme arabe de l’organisation Etat islamique] », résume abruptement Benoît Thieulin. En France, a été mise en évidence de longue date l’importance de la « fachosphère », cette nébuleuse d’extrême droite très active en ligne, à laquelle les journalistes Dominique Albertini et David Doucet viennent de consacrer un livre (La Fachosphère, Flammarion, 336 pages, 20,90 euros). Or ceux qui se vivent comme les soldats de ce qu’ils appellent la « réinformation » ont intégré le fait que les algorithmes « n’ont pas de conscience politique » et traitent toutes les opinions sur un pied d’égalité. Avant l’extrême droite, d’autres groupes minoritaires dans les médias, comme les altermondialistes, le camp du « non » au référendum européen de 2005 ou les défenseurs des libertés sur Internet, ont aussi profité des réseaux pour bénéficier de relais qu’ils trouvaient difficilement ailleurs, rappelle Benoît Thieulin, qui, comme les responsables numériques des candidats à la primaire de droite, pointe le « progrès démocratique » d’abord apporté par Facebook.

    Sensible aux pressions

    La radicalité constatée sur les réseaux sociaux est le fruit d’un travail d’occupation mené par des militants s’estimant lésés par les médias traditionnels. Dans cette bataille souterraine, Facebook pose peu de limites et la popularité des contenus prime sur leur véracité – c’est là un autre travers du réseau. Au point qu’est évoquée l’émergence d’une société de la « post-vérité », selon le titre d’une tribune remarquée de Katherine Viner, rédactrice en chef du Guardian. Certes, les fausses informations ne datent pas d’hier, reconnaît-elle dans ce texte écrit après le traumatisme d’une campagne du Brexit pleine de faux-semblants : « Ce qui est nouveau, c’est qu’aujourd’hui, les rumeurs et les mensonges sont autant lus que les faits gravés dans le marbre – et parfois même plus. » La conclusion fait écho à la vérification menée par le site Buzzfeed sur 1 000 publications de six grandes pages Facebook ultra-partisanes américaines : 38 % des contenus étaient « partiellement faux ou trompeurs » sur les pages de droite, 19 % sur celles de gauche.

    En France, un candidat à la primaire de la droite et du centre s’est ouvertement plaint d’être la cible de « fadaises » sur Facebook, notamment : « Les réseaux sociaux sont, en quelque sorte, la poubelle de l’univers, a osé Alain Juppé, dans le Journal du dimanche. A les lire, je serais “Ali Juppé”, je serais “marié avec une musulmane”, je serais “le grand mufti de Bordeaux”, j’aurais construit “la plus grande mosquée d’Europe”… » L’équipe du candidat songe d’ailleurs à lancer une « cellule » de démontage de rumeurs inspirée des rubriques de « fact-checking » de la presse, comme Les Décodeurs du Monde ou Desintox de Libération, explique Eve Zuckerman, la responsable de sa campagne numérique.

    Face aux critiques, Mark Zuckerberg campe jusqu’ici sur ses positions : « Nous sommes une entreprise de technologie, pas un média », a répété le tutélaire fondateur de Facebook, fin août, alors qu’en Allemagne, certains l’accusaient de ne pas combattre assez activement les propos haineux. Mais la question des responsabilités que doit assumer l’entreprise, en contrepartie de son rôle croissant dans l’information et le débat public, est désormais clairement posée. Et malgré son discours invariant, Facebook n’est pas insensible aux pressions : il a fini par assouplir sa ligne en autorisant la circulation de « La petite fille au napalm », célèbre photographie de Nick Ut, symbole de la guerre du Vietnam, après une censure initiale pour cause de nudité. Il s’est aussi lancé avec Google et une large coalition de médias – dont Le Monde – dans le projet Firstdraft, qui vise à combattre les informations manipulées.

    Une « maladie infantile » des réseaux sociaux

    Au-delà, certains réclament une forme de régulation ou de « pondération », des logiciels des plates-formes. « Vos algorithmes doivent donner une place aux opinions opposées et aux informations importantes, pas seulement à ce qui est le plus populaire ou le plus auto-convaincant », avait lancé Eli Pariser aux patrons de Facebook ou Google, lors de sa conférence de 2011. Mais les utilisateurs le veulent-ils ?

    La connaissance du fonctionnement des algorithmes, et donc de Facebook, est pour beaucoup devenu un enjeu démocratique. « Je suis d’avis que les algorithmes doivent être plus transparents afin que les citoyens soient conscients des effets qu’ils peuvent avoir sur leur utilisation des médias », a ainsi tenu à déclarer la chancelière allemande Angela Merkel lors de l’ouverture des journées des médias à Munich, le 25 octobre. « Il faut connaître leur préconception du monde », argumente Bruno Patino, directeur éditorial d’Arte. MM. Thieulin et Cardon, comme d’autres, insistent sur le besoin de développer en France une « culture critique » et une « éducation » aux algorithmes.

    « Après une période où les technologies ont amené un grand progrès dans le débat public, on vit une période de ressac, pense Benoît Thieulin. On a l’impression d’être face à une maladie infantile des réseaux sociaux, avec des débats en temps réel superficiels, du complotisme… On n’a pas encore trouvé comment la soigner. Mais ça ne veut pas dire que les réseaux sont en soi mauvais pour le débat démocratique. »

  • Spotify, ses #algorithmes et la courbure du monde | PrototypeKblog
    https://prototypekblog.wordpress.com/2016/10/11/spotify-ses-algorithmes-et-la-courbure-du-monde

    Soyons clairs : Spotify n’est qu’un exemple. Deezer, YouTube, Apple Music et autres confrères, sont probablement aussi excellents pour faire des suggestions, à quiconque accepte de les laisser surveiller ce qu’elle ou il écoute mois après mois. Les machins algorithmiques deviennent année après année de plus en plus efficaces à cerner des goûts, des sensibilités, des personnalités, en exploitant des volumes suffisamment élevés de données (Big Data pour les intimes).

    Le principe de base de tous ces machins, c’est « More of the same » : « Plus de la même chose ». Depuis les débuts de ce blog, c’est-à-dire presque quatre ans, j’ai plusieurs fois argumenté que le risque de base de tous ces machins, c’est de nous faire « tourner en rond » . More of the same. On tourne en rond. Even more of the same. On tourne en rond. Always more of the same. Never escape. Pas de sortie. The Matrix has you.

    Le constat est de plus en plus partagé : tous ces machins nous enferment dans ce que nous sommes, segmentent les sociétés, compartimentalisent selon les opinions, isolent, empêchent toute exposition à l’autre, à l’imprévu, à l’inattendu, à l’imprudence. Facebook enferme les supporters de Trump avec les supporters de Trump, les supporters de Clinton avec les supporters de Clinton, les amateurs de chats avec les amateurs de chats, les amateurs de chiens avec les amateurs de chiens, etc. More of the same. More of the same.

    Et pourtant, tous les lundis matin, je vérifie que mon engin du diable (mon iPhone, pour les intimes) a bien téléchargé les « Découvertes de la semaine » de Spotify.

    • Bulle de filtres — Wikipédia
      https://fr.wikipedia.org/wiki/Bulle_de_filtres

      La bulle de filtres (anglais : filter bubble) est un concept développé par le militant d’Internet Eli Pariser. Il désigne l’état dans lequel se trouve un internaute lorsque les informations auxquelles il accède sur Internet sont le résultat d’une personnalisation mise en place à son insu. À partir des différentes données collectées sur l’internaute, des algorithmes vont silencieusement sélectionner les contenus qui seront visibles ou non par lui. Le terme de « bulle de filtres » renvoie à l’isolement produit par ce mécanisme : chaque internaute accède à une version différente du web, il reste dans une « bulle » unique et optimisée pour lui.

      #bulle #bulle_de_filtres #filter_bubble #Eli_Pariser #tourner_en_rond

    • Et pourtant, tous les lundis matin, je vérifie que mon engin du diable (mon iPhone, pour les intimes) a bien téléchargé les « Découvertes de la semaine » de Spotify.

      Ouais bah à un moment donné, faut arrêter les conneries SOI-MÊME (comme tout⋅e⋅s celleux qui se mettent à partager des trucs sur les portables, le congo, etc, et qui continuent…). Et retourner sur des BLOGS de gens humains qui te font des suggestions parce qu’ils connaissent et aiment ce dont ils parlent.

    • Il faut utiliser ces fonctionnalités pour ce qu’elles sont : se laisser guider pour écouter des choses similaires à un artiste sans devoir se faire une playlist personnelle.

      Ensuite ça dépend de la fonctionnalité, il y a celle qui renvoie du contenu similaire, et d’autres qui se basent sur des similarités entre utilisateurs, qui ne renvoient pas forcément une similarité de contenu, même si ça revient souvent au même (j’imagine qu’il y a peut être un double filtre pour présenter des similarité d’utilisateurs ET de contenu, pour stimuler des ventes)

  • Qui de moi ou de l’algorithme filtre les posts de mes amis Facebook ? - Rue89.com
    http://alireailleurs.tumblr.com/post/118678285923

    HargittaiClaire Richard pour Rue89 revient sur l’étude publiée dans le magazine Science par trois chercheurs de Facebook, dont Eytan Bakshy, venant remettre en question la “bulle de filtres” d’Eli Pariser que les algorithmes des #réseaux_sociaux favoriseraient. “En examinant les « informations dures » (« hard news », c’est-à-dire la politique, l’économie, etc., par opposition au divertissement ou au sport) partagées par ces utilisateurs ainsi que la couleur politique de ces articles, les chercheurs ont mesuré l’exposition à des contenus « transversaux » (« cross-cutting ») – indice d’une exposition à des contenus variés – et comparé l’influence de trois biais de sélection : l’homophilie, l’algorithme et le comportement des utilisateurs.”

    Selon les chercheurs (qui ont publié leurs données), l’algorithme de Facebook (...)

    #polarisation #sociologie

  • Internet, un outil contre l’#endogamie ?

    How Social Media Reduces Mass Political Polarization.
    Evidence from Germany, Spain, and the U.S.
    https://files.nyu.edu/pba220/public/barbera-polarization-social-media.pdf (PDF)

    Internet a longtemps été accusé de créer un #entre_soi, les #réseaux_sociaux constituant des « bulles » où les internautes n’échangeraient qu’avec des individus aux mêmes centres d’intérêt (d’après le concept de « filter bubble », d’Eli Pariser). Au contraire, une étude citée par le laboratoire de Harvard, le NiemanLab, soutient que Facebook et Twitter seraient la meilleure clé pour s’ouvrir à des opinions politiques variées.
    http://www.niemanlab.org/2014/10/this-study-finds-that-social-media-use-reduces-political-polarization-ins

    #personnalisation #algorithmie #médias_sociaux #selon_une_étude_récente (via la check-list du Monde)

    Et : http://alireailleurs.tumblr.com/post/89237411624

    Question de la polarisation en plusieurs endroits ici :
    http://alireailleurs.tumblr.com/post/102000400425
    http://www.internetactu.net/2014/09/10/les-reseaux-sociaux-polarisent-ils-ou-elargissent-ils-le-debat-public
    http://seenthis.net/messages/232073

    Pour une comparaison états-unienne anciens et nouveaux médias sur le sujet, lire « Délire partisan dans les médias américains » :
    http://www.monde-diplomatique.fr/2014/04/BENSON/50295

  • Comment faire éclater la bulle de filtrage qui nous protège des opinions opposées ? - Technology Review
    http://www.technologyreview.com/view/522111/how-to-burst-the-filter-bubble-that-protects-us-from-opposing-view

    La bulle de filtrage d’Eli Pariser montre que les moteurs de recommandations filtrent l’information qu’ils nous délivrent ce qui a pour effet de diminuer notre horizon informationnel. Si vous recherchez le terme BP, Google va décider pour vous s’il va vous renvoyer plutôt des informations sur la capacité d’investissment de BP ou des informations sur la marée noire... La recherche sociale montre que beaucoup de gens préfèrent recevoir des informations avec la façon dont ils voient le monde, ce que les réseaux sociaux et les moteurs de recommandation favorisent, au risque de tuer l’hétérogénéité et la diversité. Eduardo Graelles de l’université Pompeu Fabra de Barcelone et ses collègues affirment avoir construit un moteur de recommandation qui aide les individus à être exposés à un plus large éventail (...)

    #nudge #moteurderecommandation

  • 6 leçons à tirer d’Upworthy, le média phénomène que tout journaliste devrait connaître
    http://benoitraphael.com/5-leçons-à-tirer-d-upworthy-le-média-phénomène-que-tout-journaliste-d
    Ne pas publier de la merde : l’étonnante clé du succès d’un #média en ligne !

    Le secret d’un tel succès ? Un énorme budget marketing ? Des robots pour les aider à être mieux référencés ? La reprise des buzz ? Des scoops ? Du people et des gros seins ? La production d’articles orignaux ?

    Non. Juste, comme le nom du média l’indique : du contenu qui mérite d’être vu.

    Et d’être partagé.

    Pas forcément du contenu récent.

    C’est le secret d’Upworthy.

    • 3. Le marketing du contenu est plus important que le contenu lui-même

      (...) Upworthy produit peu de contenus, l’éditeur qui ramène le plus de trafic au site ne publie que 6 « articles » par jour. Par contre, pour chaque contenu publié, la rédaction teste plus d’une vingtaine de titres et plusieurs photos.

      Et ils utilisent le « big data » pour appuyer leur marketing. Des techniques comme l’#A-B-testing (on écrit deux titres et on regarde celui qui fait le plus de clics sur le site..
      (...)

      Upworthy a été fondé par un activiste de gauche. Eli Pariser est à l’origine de moveon.org, un site de pétition.
      Il utilise les méthodes de viralisation

  • Eli Pariser: Beware online “filter bubbles” (Video on TED.com)
    http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles.html

    TED Talks As web companies strive to tailor their services (including news and search results) to our personal tastes, there’s a dangerous unintended consequence: We get trapped in a “filter bubble” and don’t get exposed to information that could challenge or broaden our worldview. Eli Pariser argues powerfully that this will ultimately prove to be bad for us and bad for democracy. (...) Source: Video on TED.com

  • Bienvenue dans l’ère post-démagogie « boum box
    http://boumbox.wordpress.com/2011/04/29/bienvenue-dans-lere-post-demagogie

    Fin 2009, Google a en effet généralisé la personnalisation des résultats : désormais, même si vous n’avez pas de compte Google, que vous n’êtes pas loggué, du moment où vous ne faites pas des trucs de parano geek total (ou d’internaute moyen d’il y a cinq ans) comme effacer vos cookies et aller regarder dans les options de Google, vos résultats de recherches seront customisés en fonction de toutes ces choses que Google sait sur vous.

    En fait, cet article est plus ou moins une resucée de la TED conférence d’Eli Pariser : Beware online “filter bubbles”.
    http://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles.html
    (L’article d’Owni reprend même l’exemple frappant de la recherche « Égypte ».)

    http://www.youtube.com/watch?v=B8ofWFx525s

    Il y a également un article intéressant à lire, concernant les « défauts » de Google News, en prenant pour exemple le traitement de la mort de Ben Laden :
    http://searchengineland.com/google-news-osama-death-sample-highlights-news-coverage-woes-76063

    L’article est très imparfait, mais les questions posées sont intéressantes.

    #google #référencement #seo