• La vie n’est pas donnée
    https://www.academia.edu/31846143/La_vie_nest_pas_donn%C3%A9e

    La gouvernementalité algorithmique met en œuvre une nouvelle forme de

    normativité qui semble parfaitement adéquate aux mouvements de la vie. Pourtant elle ne fait qu’immuniser, en temps réel, une actualité calculable contre tout ce qui pourrait la mettre en crise. Elle nous plonge dans un univers continu, lisse, sans accident, indemne. Une normativité proprement humaine consiste à assumer l’inadéquation de nos représentations par rapport au monde, l’irréductibilité de la temporalité humaine au temps (...)

    #algorithme #solutionnisme #éthique #domination

    • Ce n’est pas en tant que « sujets actuels » en tant que « personnes présentes » plus ou moins doués d’entendement et de volonté, ni même comme formes humaines résilientes que nous intéressons les « plateformes » comme Google, Amazon, Facebook, ou les services de renseignement nationaux. C’est seulement en tant qu’émetteurs et agrégats temporaires de données numériques, c’est-à-dire de signaux asignifiants mais calculables en masse à l’échelle industrielle. Ces signaux ne résultent la plupart du temps d’aucune transcription intentionnelle des individus, mais s’apparentent plutôt aux « traces » que laissent les animaux, traces qu’ils ne peuvent ni s’empêcher d’émettre, ni effacer, des « phéromones numériques ». Peut-être même, alors que nous devenons de plus en plus « prévisibles » dans nos choix de consommation, dans nos trajectoires urbaines etc., n’avons-nous jamais, en tant que « personnes » été moins significativement « visibles » et « audibles » que dans ce contexte de gouvernementalité algorithmique qui nous dispense de construire et d’énoncer, pour nous-mêmes et pour autrui, nos désirs, préférences et intentions. Un profil, ce n’est personne, mais ça dispense de devoir se confronter aux personnes.

    • L’espace public, c’est aussi l’espace dans lequel se crée de la consistance sociale en raison de l’exposition à l’incertitude collectivement ressentie. Les big data nous poussent à passer, à cet égard, d’une société actuarielle à une société post-actuarielle. Le calcul actuariel fonctionne avec la notion de probabilité, laquelle ménage (malgré elle) une part irréductible d’incertitude radicale. Le calcul “actuel” prétend épuiser le possible, c’est-à-dire neutraliser toute incertitude par “actualisation” anticipative du possible. Dans la « société actuarielle » ou « assurantielle », la charge de l’aléa, du sort aveugle, de l’excès du possible sur le probable, était répartie entre les membres de collectivités d’assurés ou prise en charge collectivement par l’État. Au lieu de mutualiser la charge de la part irréductible d’incertitude radicale qui résiste à tout calcul de probabilité, comme le ferait une assurance, l’idéologie des big data promet d’assigner à chacun son « coût réel » : les primes d’assurance vie pourraient être « individualisées » non plus en fonction de catégories actuarielles préétablies, mais en fonction du mode de vie individuel, des habitudes alimentaires, des données relatives à l’activité physique collectées grâce aux gadgets de « quantified self », du nombre d’heures quotidiennement passées devant un écran et de quantité d’autres caractéristiques individuelles corrélées sans que l’on sache pourquoi, à un plus ou moins bon état de santé. Cela signifierait, bien entendu, la fin de l’assurance. La rationalité algorithmique signe l’avènement d’une société post-actuarielle, post-assurancielle dans laquelle la notion même de risque disparaît en même temps que l’idée, ou plutôt la tolérance à l’idée qu’existe une part tragique, incompressible, d’incertitude radicale ou d’indécidabilité : celle-là même qui constitue le fond sur quoi le juge doit trancher. Il devient donc possible, dès-lors, de se passer de tout système de solidarité entre individus mis en concurrence à l’échelle quasi-moléculaire de la donnée numérique infra-personnelle. Le tournant algorithmique, on le voit, - sous prétexte d’objectiver les processus décisionnels -, ne se pose pas en rupture par rapport aux politiques néolibérales, mais offre à ces dernières des outils particulièrement puissants, d’autant plus puissants d’ailleurs qu’ils passent inaperçus.

      ping @freakonometrics

    • oui, j’ai l’impression que ca reprend des éléments dont je parlais https://f.hypotheses.org/wp-content/blogs.dir/253/files/2018/11/Risques114_Charpentier.pdf https://freakonometrics.hypotheses.org/files/2018/02/Risques-Charpentier-04.pdf ou encore http://freakonometrics.hypotheses.org/files/2017/11/Risques-Charpentier03.pdf
      sur l’assurance, je suis moins pessimiste car le ratio signal/bruit reste très faible, ce qui laisse une porte largement ouverte à la mutualisation de ce « bruit »

    • suite : le paramétrage de l’aléatoire pour l’échantillonage des bénéficiaires , ayant droits etc , solidarité expérimentale , nouveaux décideurs , la démo de série ( de a à z) , la série qui démontre ; l’agrégation n’est pas heterogène à la rentabilité d’un territoire dont l’immatériel peut cacher la spacialisation