person:hubert guillaud

  • Les ingénieurs de Facebook et Google ont des états d’âme
    https://usbeketrica.com/article/temoignages-ingenieurs-facebook-google-economie-attention-addiction-res

    L’ex-stratège de Google a construit le système qui permet à l’entreprise de mesurer l’impact des publicités vendues dans le monde. Le jeune homme de 35 ans confie au Guardian que l’industrie de la tech est pour lui « la plus importante, la plus standardisée, et la plus centralisée des formes de contrôle de l’#attention de l’histoire de l’humanité ».

    #dissonance_cognitive #médias_sociaux

  • Laurent Alexandre, prophète du QI artificiel Le Comptoir le 22 septembre 2017 - Michel Juffé
    https://comptoir.org/2017/09/22/laurent-alexandre-prophete-du-qi-artificiel

    Les discussions autour de la technologie sont sujettes à de nombreuses spéculations plus ou moins rigoureuses. Le Comptoir vous propose ici une version remaniée d’un texte initialement paru sur le blog technocritique Mais où va le web ?. Plein de bon sens, le philosophe Michel Juffé y questionne les fondements et les errances intellectuelles des interventions-spectacles de Laurent Alexandre, (fut)urologue (spécialiste) de l’intelligence artificielle et fondateur du site Doctissimo dont le “sérieux” n’est plus à prouver. Le philosophe répond notamment à son entretien publié au Figarovox en juin 2017 et qui donne le ton : « “Bienvenue à Gattaca” deviendra la norme ».

    Laurent Alexandre n’hésite pas à déclarer que :

    « L’intelligence dans une société numérique est la clé de tout pouvoir politique et économique. Nous avons créé une société de la connaissance sans réfléchir aux conséquences. Nous avons bâti une économie de la connaissance, sans comprendre que nous allions donner un avantage immense aux gens maîtrisant les données, dotés de plasticité cérébrale leur permettant de changer régulièrement de métier et de se former leur vie durant : toutes qualités qui sont mesurées par le QI [quotient intellectuel, NDLR]. Un point de QI supplémentaire fera de plus en plus la différence dans la société de la connaissance. Il faudrait rebaptiser le QI et l’appeler QCIA, le Quotient de complémentarité avec l’intelligence artificielle, pour lui ôter son caractère stigmatisant. À partir de 2020, le QI minimum pour avoir un emploi va augmenter de l’ordre de cinq à dix points par décennie. »

    Le QI n’a jamais été présenté, par ses inventeurs, comme une mesure de l’intelligence au sens global du terme – qui mesurerait la capacité de discriminer, jugement, esprit d’analyse et de synthèse, créativité, etc. – mais comme une mesure de performances dûment étalonnées, c’est-à-dire, pour grossir le trait, celles qu’on attend d’un élève qui a appris à lire, écrire, compter et dessiner.


    Prenons par exemple un test de QI en ligne (il y a des dizaines de sites du genre, ils sont rarement très sérieux…). On nous dit que : « Ce test de QI en ligne évaluera votre quotient intellectuel ou QI. Ce test QI rapide donne un résultat quantitatif et standardisé lié à l’intelligence abstraite. Nous utilisons la méthode du “QI par rang”. Elle permet à une personne de se comparer à un ensemble d’individus classés par secteur. » En clair, c’est un test comparatif, qui ne peut donner de valeurs absolues. Le QI donne donc un indice de dispersion autour d’une moyenne. En l’occurrence pour le QI standard, la moyenne est fixée à 100 pour des raisons arbitraires et historiques. La dispersion des valeurs de QI se situe généralement entre 60 à 140, sachant que moins de 70 est considéré comme “extrêmement inférieur” et que plus de 130 est “extrêmement supérieur”. À quoi ? Eh bien à la moyenne toujours arbitrairement fixée à 100. On a ainsi pu dire que le QI ne mesure que lui-même !

    Ainsi, quand on lit, par exemple, que le QI moyen des Français est de 98, que celui de la plupart des pays d’Afrique est de 70, et que celui de la Chine est de 105, c’est entièrement faux. N’y voir aucun préjugé racial ! Pour que de tels résultats soient valides, il faudrait placer un échantillon de toute la population mondiale dans un seul lot, un seul “secteur”, lui faire disposer des mêmes éléments culturels, des mêmes conditions de passation du test, et d’une garantie très forte de bonne lecture des résultats. C’est rigoureusement impossible. Ce que révèle l’édification du QI en mesure de l’intelligence ou encore en point de comparaison entre sociétés ou civilisations, c’est surtout une position idéologique très forte. Ce qu’on promeut à travers ce genre de démarche, c’est la correspondance accrue à un certain système de valeurs, à un environnement particulier qui valorise ce genre d’intelligence pour de bonnes ou de mauvaises raisons et avec de bons ou de mauvais effets. Rien ne dit que ces systèmes sont plus “intelligents” que les autres, plus humains, plus sains. L’histoire du QI ne dit pas autre chose : cette mesure a servi à justifier toutes les inégalités sociales, voire à produire des politiques publiques discriminantes.

    « Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. »

    Revenons à notre (fut)urologue et calculons un peu. Selon Laurent Alexandre, dans 50 ans il faudra avoir un QI de 150 pour avoir un emploi, et dans 100 ans un QI de 200. C’est bien embêtant, car, en réalité, la moyenne restera toujours à 100, donc seulement 1/1000 de la population, au plus, aura un emploi. Et on ne pourra pas supprimer les autres, car cela ne servirait plus à rien d’avoir un QI de 200 et plus (faute de base : toujours cette satané moyenne !). Ici, je pense à la reine rouge d’Alice : il faut courir deux fois plus vite pour rester sur place.

    Le QI, ce Graal
    Moderniser l’école, bien sûr. Car à présent les « classes populaires » sont dépassées par « la technologie qui galope ».

    Il faut, nous dit Laurent Alexandre, augmenter les « capacités cognitives de la population, puisque dans le futur la quasi-totalité des inégalités seront liées aux capacités cognitives ». Comme c’est simple ! À concevoir tout au moins. Toujours la même erreur de raisonnement : si tout augmente, rien n’augmente.

    « La bétise, mieux vaut la prévenir, car on ne peut pas la guérir. »

    Peu importe. Le rôle de l’école va devenir « la programmation des prothèses cérébrales ». Sous le contrôle de la CNIL (Commission nationale de l’informatique et des libertés), bien sûr ! On a eu chaud. Imaginons que le rôle de l’école soit d’augmenter la taille des élèves, leur poids ou la longueur de leurs cheveux, ce serait beaucoup plus difficile. Tandis que là, l’école aura seulement à s’occuper de mieux remplir le cerveau des élèves… Ce qu’elle fait déjà depuis 130 ans (avec l’obligation d’instruire toute la population), avec les programmes ministériels et les manuels scolaires. Ce seront toujours des manuels, mais sous forme d’implants cérébraux. La niaiserie, dont Laurent Alexandre accuse l’école, est plutôt celle des adorateurs des “manipulations cérébrales made in Californie” qu’il invoque comme d’autres invoquent les esprits de la forêt ou dansent devant un totem.


    D’où cette mâle proposition : « On ne sauvera pas la démocratie si nous ne réduisons pas les écarts de QI. » Le QI devient ainsi une baguette magique… à mettre entre toutes les mains. Faut-il encore répéter – pour les malcomprenants – que le QI est une mesure de performances standardisées qui n’a de sens que par des écarts, sur une échelle conventionnelle ? Bref, le QI ne mesure pas l’“intelligence” mais des capacités combinatoires, numériques et géométriques, soit une faible partie des capacités intellectuelles, une goutte d’eau dans un océan de complexité. Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. Par ailleurs, même en se plaçant dans un contexte de concurrence mondialisée “inévitable” qui semble être l’unique système de pensée supportant les analyses de Laurent Alexandre, le QI n’offre aucune garantie qu’on s’en tirera vraiment mieux ; puisqu’il ne mesure ni la créativité, ni le talent, qui seront pourtant les “compétences” les plus utiles dans le monde automatisé qui s’annonce.

    Foin de ces raffinements, ce qui compte est d’augmenter le QI, comme l’annonce le Prophète – Elon Musk – qui sait que l’augmentation “massive” du QI aura lieu par implants cérébraux. « La seule solution, avec le développement de colonies sur Mars, pour éviter que l’humanité tout entière soit exterminée d’un coup. » Elles sont quand même fortes ces IA ! Elles pourraient nous exterminer « d’un coup. »

    Vous ne connaissez pas Elon Musk ? Cet homme, dont le QI doit être très élevé, sûrement plus que 260 (le record officiel, de 250, est détenu par un américain – of course !), a 46 ans, est père de jumeaux et de triplés, pèse 17 milliards de dollars, et dirige plusieurs sociétés, grâce auxquelles il va nous transporter à 2 000 km/h par voie terrestre, nous envoyer sur Mars par millions, supprimer les bouchons des grandes villes et fusionner l’IA et le cerveau humain (dès 2021).

    IA, implantation : fusion et confusion
    Rappelons rapidement ce qu’est l’IA. L’intelligence artificielle est « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » (Encyclopédie Larousse). C’est sommaire et un peu tautologique, mais cela nous suffira pour la suite.

    Quelles sont les possibilités d’une IA ? On parle d’IA depuis Turing (1950) mais on se heurte toujours à la question du traitement de données non formalisées, autrement dit des connaissances qualitatives – une grande partie de celles qui nous sont utiles. S’il est vrai que le “deeplearning” est un saut qualitatif en matière d’analyse du signal sonore ou visuel – reconnaissance faciale, reconnaissance vocale, vision par ordinateur, traitement automatisé du langage, par exemple – nous restons dans le connu, le perceptible et le sensible. Je veux dire par là que nous n’apprenons pas à créer par automatisme, et que dès que l’objet reconnu comporte un très grand nombre de dimensions (un corps humain en action par exemple), il devient inanalysable… pour le moment.

    « Durant la transmission électrochimique entre nos neurones, l’ordinateur, même s’il ne fonctionne qu’au ralenti a pu accomplir un million d’opérations, tandis qu’un être humain n’a pu en effectuer une seule. »

    Et s’il est vrai que la dictée orale de textes sur ordinateur est un vrai progrès pour ceux qui écrivent beaucoup, les corrections restent longues et fastidieuses. Quant à la traduction automatique, elle réserve de belles et parfois cocasses surprises. Il s’agit bien d’intelligence artificielle, si intelligere est avant tout discriminer, différencier, trier, comme le suggère l’étymologie latine. Mais la modélisation ne peut pas être illimitée, car quelles que soient la vitesse et l’architecture de traitement de données d’un ordinateur, l’augmentation des dimensions à paramétrer excède assez vite toute possibilité de calcul.

    Ce qui est “profond” est le nombre de couches de traitement de données et non l’apprentissage lui-même, au sens habituel du terme. Et ce qui est important est le service rendu, par exemple à des aveugles pour se diriger et reconnaitre des objets et des personnes. Bref, l’IA ne va pas, par un coup de baguette magique, rendre les gens intelligents, mais elle facilite l’usage de leur intelligence et peut les dispenser des tâches qui requièrent une intelligence répétitive, habituelle, conventionnelle, etc. N’oublions pas, aussi, que l’IA reste opaque pour la plupart des usagers, à commencer par le GPS des voitures et des téléphones mobiles, les moteurs de recherches, et bien d’autres “applis” auxquelles ils ne comprennent rien. D’où non seulement le danger d’une grande fracture numérique mais aussi celui de distorsion et de falsification des informations, aides et renseignements recueillis.

    Il ne faut pas, non plus, surestimer les performances d’une IA. Par exemple, depuis 2016, celle de battre un champion du jeu de Go. Il a bien fallu programmer l’ordinateur – pardon l’IA – pour qu’il combine des successions de coups. Et qui l’a programmé ? Des gens qui savent jouer au Go et ont eu tout leur temps pour bâtir ce programme. Ce qui est nouveau est que les concepteurs ont imité une forme d’intuition, produite par des milliards d’ajustements automatiques dont personne ne comprend la logique.

    Pour le reste, ça n’est qu’une question de vitesse relative : la transmission électrochimique (celle de nos neurones) est au mieux de 100 m/s, donc 1/200 de seconde pour 50 centimètres (entre l’œil et la main, par exemple). Durant cet intervalle, l’ordinateur, même s’il ne fonctionne qu’au ralenti – disons à 10­ 000 km/s – a pu accomplir un million d’opérations, tandis que par ailleurs, un être humain n’a pu en effectuer une seule, car le cerveau ne discrimine que des durées supérieures à 1/25 de seconde.

    L’IA de demain
    Aux dires de 252 experts en apprentissage par ordinateur (les plus qualifiés du monde, bien sûr), l’IA “battra” les humains en traduction des langues (à l’horizon 2024), en rédaction d’essais (2026), en vente (2031), en chirurgie (2050). En ce qui me concerne, encore neuf ans de patience et je pourrai arrêter d’écrire. En revanche rien n’est dit sur la fabrication des tartes aux pommes, où j’excelle, et je vais peut-être pouvoir continuer à en faire jusqu’en 2035 ou plus. Les mêmes prédisent que tous les emplois humains seront remplacés dans 120 ans. Encore une prédiction cocasse : comme on ne sait rien de notre mode de vie dans 120 ans, que peut-on prévoir sur l’emploi ou quoi que ce soit d’autre ? Qui aurait imaginé la machine à laver le linge et la pilule contraceptive au début du XXe siècle ? C’est pourtant ce qui a le plus changé la vie des femmes (donc de l’espèce humaine) durant ce siècle, en incluant les progrès de la chirurgie et de l’imagerie médicale. Personne n’aurait l’idée de parler d’IA à propos de la machine à laver, c’en est pourtant un des plus beaux succès.

    Toujours est-il qu’Elon Musk et ses compétiteurs (car c’est un marché de milliers de milliards de dollars, bien sûr) ne veulent pas que nous soyons dépassés par les IA (au sens fort du terme : machines capables d’apprendre, d’éprouver des émotions, de se reproduire).

    « Pour nous sauver des IA tyranniques, des composants électroniques seraient implantés dans le cerveau “entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs” [sic(k)]. » Laurent Alexandre

    Car, ayant lu trop de science-fiction de médiocre qualité et ayant vu plusieurs fois Terminator I, II et III, ils sont persuadés de la révolte des machines, autrement dit que l’IA va “dépasser” (à droite ou à gauche ?) l’homme, ce qui « nous transformerait en animaux domestiques dans le meilleur des cas. »

    « Elon Musk, nous dit Laurent Alexandre, est très influencé par Nick Bostrom [44 ans, professeur à Oxford], le théoricien des IA hostiles, qui défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente (biologique ou artificielle) dans une région de l’univers. Ayant comme premier objectif sa survie, toute IA forte se protégera en cachant ses intentions agressives et en attaquant préventivement. » Qu’est-ce qu’une espèce intelligente ? Et pourquoi ne pourrait-il y en avoir qu’une dans une région de l’univers ? Et les fourmis, alors ? Et les rats, qui nous parasitent autant qu’ils veulent ? Et les arbres, sans lesquels nous n’existerions même pas ? J’oubliais : toutes ces choses-là (fourmis, rats, arbres) ne peuvent pas passer un test de QI, alors que les IA le peuvent.

    Bref, pour nous sauver des IA tyranniques, des composants électroniques – je suppose de la taille de quelques micromètres (10-6 µm), avec une finesse de gravure de 10 nanomètres (10-8 nm) – seraient implantés dans le cerveau « entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs » (comme il peut y avoir jusqu’à 20 000 synapses par neurone, on ne sait pas très bien où se passera l’entrelaçage). Difficile de rester plus vague : à quoi serviront ces implants ? Faudra-t-il les remplacer ? À quel rythme deviendront-ils obsolètes ? Qui va les réparer ? Eux-mêmes ? Un couple de médecins et d’IA-médecins ? Leur porteur (puisqu’il est devenu très intelligent) ? Un électronicien ? Un plombier ?

    L’idée même de fusion – étape suivante de l’augmentation cérébrale – entre IA et êtres humains, sous des dehors riants (fusionner c’est augmenter, en mieux) est assez mal venue. La fusion est généralement une régression ; l’amour fusionnel diminue les deux partenaires et augmente leur fragilité. Le métal en fusion perd toute forme (mais le forgeron est là pour lui en donner une). Faire fondre quelque chose (du liquide au solide) peut être très utile, faire fusionner deux choses en les rendant liquides pour les mélanger (amalgame dentaire) aussi. La fusion de deux sociétés est quant à elle pleine d’aléas (si ce sont des réseaux ferroviaires, électriques ou bancaires, on en voit les avantages en termes de solidarité et de fiabilité, mais si ce sont des entités industrielles et/ou commerciales très variées, c’est souvent un échec). Mais fusionner deux organismes tels qu’un réseau de composants électroniques et un cerveau humain, si c’est seulement possible, relève d’une erreur d’attribution : ce n’est pas parce qu’on a parlé de réseaux de neurones en IA qu’il s’agit de vrais neurones artificiels. Cette prétendue fusion aboutirait plus probablement à Brendel/mouche/télépode (cf. le film La Mouche) – soit un abominable mélange régressif et non viable. En réalité, il ne s’agit pas de fusion mais de greffe (si la chose implantée s’incorpore à peu près complètement) ou de prothèse (si elle remplace passivement).

    À la question « Quel est le contraire de l’intelligence artificielle ? », Henri Atlan répondit « La bêtise humaine »

    Revenons au futur proche. “L’augmentation cérébrale”, en supposant qu’elle réussisse, serait-elle d’une quelconque utilité ? Si elle affine nos sens, nous permet de mémoriser plus aisément, de réagir plus vite, d’être plus précis dans nos gestes, elle ne sera pas mal venue. Rendra-t-elle plus intelligent ? Oui, si toutes les qualités susnommées nous rendent plus aptes à discerner, à juger, à nuancer, à peser, à imaginer, à choisir. Ce qui n’a rien de sûr, car les hautes performances corporelles ne garantissent en rien la moindre capacité à faire face aux diverses situations sociales, économiques, techniques, écologiques… auxquelles sont confrontés en permanence les êtres humains (comme tous les autres êtres vivants d’ailleurs). En revanche la saturation d’informations, l’implantation d’éléments à très haute vitesse et inaptes à se régénérer risquent d’induire de graves dysfonctionnements et des phénomènes de types cancéreux.

    D’ailleurs, pourquoi les adorateurs de l’IA n’ont-ils pas pensé à quelque chose de bien plus simple : doubler, tripler ou décupler le nombre de neurones, ce qui nous rendrait – forcément – deux, trois ou dix fois plus “intelligents” ? Il suffirait d’augmenter aussi le volume intérieur de la boîte crânienne ou de la remplacer par un casque hémisphérique en tungstène.
    unnamed-file


    Puces RFID implantées dans les mains.

    Revenons à notre ami Laurent Alexandre. Lorsque le journaliste (Vincent Tremolet de Villers) lui dit : « L’homme ne se réduit pas à son cerveau. Il est aussi sensibilité et vie intérieure. Ces deux dimensions sont-elles menacées ? », il a droit à cette réponse digne de figurer dans une anthologie du non-sens : « Vous avez à mon sens tort, l’homme se réduit à son cerveau. Nous sommes notre cerveau. La vie intérieure est une production de notre cerveau. L’Église refuse encore l’idée que l’âme soit produite par nos neurones, mais elle l’acceptera bientôt. »

    À l’appui de cette vérité définitive, Laurent Alexandre cite le révérend Christopher Benek [dont le site “illuminant” vaut le détour], qui souhaite que les machines douées d’intelligence puissent recevoir le baptême si elles en expriment le souhait. Ouf, nous sommes sauvés : c’est bien connu, des machines chrétiennes ne pourront être que des apôtres de l’amour universel et ne chercheront jamais à éliminer l’être humain. Bien mieux que les trois lois de la robotique d’Asimov.

    L’ordre numérique et la loi technologique
    Les élucubrations franchissent un cran dans la mégalomanie, lorsque Laurent Alexandre nous explique que nous, auditeurs moyens, n’avons pas encore compris que les “vrais” maîtres du monde sont les Gafa [Google, Amazon, Facebook, Apple, NDLR] et leurs semblables asiatiques. Ce sont eux qui font la “loi” (on ne sait pas laquelle, mais peu importe) et dictent leur conduite aux gouvernements (NB : avant c’était les Ford, les Rockefeller, etc.). « L’essentiel des règles n’émane plus des parlements mais des plateformes numériques. » Les parlements sont dépassés et même obsolètes, puisqu’ils ne comprennent rien à LA technologie, ne pourraient pas « auditer » les IA (je n’ai pas compris en quel sens Laurent Alexandre emploie le mot “auditer”). Bref, les politiques, comme les éducateurs, vivent dans le passé et feraient bien de se mettre à l’écoute des dirigeants de la révolution numérique, qui vont parvenir, enfin, à créer “l’homme nouveau” dont rêvaient les communistes dans les années 1920.

    « Deux choses sont infinies, l’univers et la bêtise humaine, et pour l’univers je n’en suis pas absolument sûr » citation attribuée à Albert Einstein

    Il est quand même douteux que les politiques y parviennent (à écouter les maîtres du monde) car ils « raisonnent à quinze jours, la Silicon Valley à 1 000 ans », clame Laurent Alexandre (cité par Hubert Guillaud sur le site Internetactu, d’après son discours déjanté à la conférence Unexpected sources of inspiration, centrée sur les enjeux du digital et créée il y a 10 ans ; elle a accueilli 1 800 personnes au Carrousel du Louvre en 2015).

    Quel manque d’ambition de la Silicon Valley (telle que l’imagine Laurent Alexandre). Car, en réalité, ses 6 000 entreprises de haute technologie et ses liens consubstantiels avec l’université de Stanford, une des meilleures du monde, sont capables de réalisations de grande qualité. Des auteurs tels que H.G. Wells, A.E. Van Vogt, A.C. Clarke, I. Asimov, R. Silverberg, etc. anticipent sur des centaines de milliers, des millions et même des milliards d’années (cf. La Cité et les Astres, d’Arthur Clarke, écrit en 1956).

    De plus, ce jugement est faux : les hommes d’État de quelque envergure ont depuis longtemps envisagé le futur sur des centaines d’années ou plus, et ont tout fait pour bâtir pour des millénaires. Il est également faux que tout se passe à la Silicon Valley. Les fabricants de matériel électronique, de systèmes, réseaux et terminaux (tels que les smartphones, par exemple) informatiques, œuvrent dans le monde entier. Et l’inventivité en matière d’usages du “numérique” n’est pas l’apanage de l’Amérique du Nord. Ce qui distingue les Californiens est d’une part une capacité à capitaliser vite et bien, et par suite à monter rapidement de grandes compagnies, d’autre part leur industrie du spectacle (show business) qui en fait les premiers “communicants” (baratineurs et propagandistes) du monde.

    Certes, une branche d’industrie peut vouloir “faire la loi” dans son domaine (comme EDF entre 1945 et 1985), mais ne peut pas voter les lois, et c’est pourquoi le lobbying et la corruption d’élus et de fonctionnaires existent.

    De l’urologie à la futurologie
    Laurent Alexandre est médecin diplômé d’urologie et a suivi les cours de MBA d’HEC, ce qui lui a manifestement réussi puisqu’il a créé Doctissimo – site plusieurs fois dénoncé pour son peu de fiabilité –, qu’il a vendu au groupe Lagardère pour 70 millions d’euros en 2008. Depuis, il a ajouté trois lettres à sa spécialité de départ, « f-u-t » comme dans futé, car il l’est, pour faire avaler de telles énormités. Car ce n’est pas fini : il est aussi généticien, cosmologue et visionnaire à très, très long terme.

    « Contre la stupidité, les dieux eux-mêmes luttent en vain » Friedrich Schiller, La pucelle d’Orléans, 1801

    Pour lui, l’espèce humaine va devenir immortelle… d’ici 1 000 ans au plus. Pour cela, il faudra avoir fusionné avec l’IA. « Le but ultime de la science est de combattre la mort de l’univers, par la création artificielle de nouveaux univers. Après la mort de la mort, la science se consacrerait à combattre la mort de l’univers. La cosmogénèse artificielle mobiliserait toute l’énergie de l’humanité dans les prochaines milliards d’années. »

    Isaac Asimov avait trouvé plus simple de construire un ordinateur, Multivac, qui, après des milliards d’années d’auto-perfectionnement (et suite à la fusion, hors espace-temps, entre ordinateur et être humain), découvrirait enfin, après la disparition de l’univers, la réponse à la question : « Peut-on inverser l’entropie ? » et engendrerait un nouvel univers en disant simplement : « Que la lumière soit ! » (La Dernière Question, 1956). Mais Laurent Alexandre ne cite pas Asimov.

    En revanche, il croit citer Darwin qui aurait “expliqué” que si l’univers mourrait, alors l’aventure humaine n’aurait eu aucun sens. On peut toujours chercher quoi que ce soit qui ressemble à ce genre de réflexion chez Darwin, ce serait en vain, car Darwin comprenait que l’espèce humaine est une espèce parmi d’autres, vouée à disparaître, comme les autres. Il est vrai que Darwin ne savait rien de l’IA. Quel était son QI, au fait ?

    Il prétend aussi citer Teilhard de Chardin, qui aurait introduit en 1922 le terme de “noosphère”, alors que, même s’il y a pensé dans les années 1920, le terme a été d’abord utilisé publiquement par Édouard Leroy au Collège de France en 1927, et diffusé par Vernadski, auteur de La Biosphère (1926) – ouvrage traduit en français en 1929 – qui formule le triptyque suivant : lithosphère, biosphère, noosphère. Teilhard en parle dans Le Phénomène humain, qui n’a paru qu’en 1955, ayant été interdit par l’Église catholique durant près de dix ans. Ce qui est certain, c’est que Laurent Alexandre ne comprend rien à la pensée de Theilhard : « Le monde futur décrit par Teilhard est bien cette fusion neurotechnologique où le corps disparaît progressivement. » Teilhard n’a jamais envisagé ce genre de futur. Il voulait concilier la théorie darwinienne et un Dieu « Moteur, Collecteur et Consolidateur, en avant, de l’Évolution » (La place de l’homme dans la Nature : Le groupe zoologique humain, 1956 ; ce livre fut interdit à la publication durant sept ans).

    Laurent Alexandre est quand même un grand humaniste, porteur d’une nouvelle éthique : « Je suis persuadé que le sauvetage de notre corps constitue l’un des trois piliers essentiels de notre humanité avec le maintien du droit à nous déconnecter de la matrice et le maintien d’une part de hasard génétique. » Comme la vie humaine est simple : tous les autres maux dont nous pouvons souffrir ne sont rien à côté des trois qu’il dénonce !

    Par exemple : les maladies dégénératives, les guerres de religion, les pénuries alimentaires, les pollutions (air, sol, eau), les catastrophes naturelles, les accidents industriels, l’exploitation des enfants, les viols et violences continuels, etc. Laurent Alexandre vit déjà dans un monde virtuel où rien ne compte d’autre que la projection permanente de visions manichéennes (transhumains, tous bons – IA, toutes mauvaises) et d’ennemis imaginaires propres aux délires paranoïaques (au vrai sens du terme : se croire menacé de destruction). À moins qu’il ne fasse semblant, parce que ça peut rapporter encore plus d’argent que Doctissimo.

    #Qi #discriminations #IA #Elon_Musk #Laurent_Alexandre #RFID #stupidité #Urologie #futurologie #Doctissimo #Isaac_Asimov #noosphère

  • J’ai déjà compilé ici les articles sur le thème de la collapsologie, la catastrophe imminente, sa date, ses causes etc. :
    https://seenthis.net/messages/499739
    #effondrement #collapsologie #catastrophe #fin_du_monde #it_has_begun

    En fait c’est plus ou moins une conséquence d’une littérature plus scientifique sur le thème de l’anthropocène, cette nouvelle ère géologique façonnée par l’humain. Si cette théorie, et le lien qu’elle aurait avec la collapsologie, est discutée, un retour sur les premiers articles est nécessaire. En effet, ce terme n’est pas sorti de nulle part et la plupart de ces articles, co-écrits pas de nombreux chercheurs, compilent des quantités impressionnantes de résultats qui pointent toutes dans la même direction : nous allons dans le mur...
    #Anthropocene #Anthropocène

    Paul J. Crutzen and Eugene F. Stoermer "The “Anthropocene”" Global Change Newsletter 41:17-18 (2000)
    http://www.igbp.net/download/18.316f18321323470177580001401/1376383088452/NL41.pdf

    Paul J. Crutzen "Geology of mankind" Nature 415:23 (2002)
    http://www.geo.utexas.edu/courses/387h/PAPERS/Crutzen2002.pdf

    Johan Rockström, Will Steffen, Kevin Noone, Åsa Persson, F. Stuart Chapin, III, Eric F. Lambin, Timothy M. Lenton, Marten Scheffer, Carl Folke, Hans Joachim Schellnhuber, Björn Nykvist, Cynthia A. de Wit, Terry Hughes, Sander van der Leeuw, Henning Rodhe, Sverker Sörlin, Peter K. Snyder, Robert Costanza, Uno Svedin, Malin Falkenmark, Louise Karlberg, Robert W. Corell, Victoria J. Fabry, James Hansen, Brian Walker, Diana Liverman, Katherine Richardson, Paul Crutzen and Jonathan A. Foley "A safe operating space for humanity" Nature 461:472–475 (2009)
    http://pubs.giss.nasa.gov/docs/2009/2009_Rockstrom_ro02010z.pdf

    Will Steffen, Åsa Persson, Lisa Deutsch, Jan Zalasiewicz, Mark Williams, Katherine Richardson, Carole Crumley, Paul Crutzen, Carl Folke, Line Gordon, Mario Molina, Veerabhadran Ramanathan, Johan Rockström, Marten Scheffer, Hans Joachim Schellnhuber, and Uno Svedin "The Anthropocene : from global change to planetary stewardship" AMBIO 40:739–761 (2011).
    http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3357752/pdf/13280_2011_Article_185.pdf

    Jan Zalasiewicz, Mark Williams, Alan Haywood and Michael Ellis The Anthropocene : a new epoch of geological time ? Phil. Trans. R. Soc. A 369:835–841 (2011)
    http://rsta.royalsocietypublishing.org/content/369/1938/835.full.pdf

    Gaia Vince, An Epoch Debate, Science 334:32-37 (2011)
    http://sandpaw.weblogs.anu.edu.au/files/2012/06/An-Epoch-Debate.pdf

    Erle C. Ellis, Anthropogenic transformation of the terrestrial biosphere, Phil. Trans. R. Soc. A 369:1010-1035 (2011)
    http://ecotope.org/People/ellis/papers/ellis_2011.pdf

    Anthony D. Barnosky, Elizabeth A. Hadly, Jordi Bascompte, Eric L. Berlow, James H. Brown, Mikael Fortelius, Wayne M. Getz, John Harte, Alan Hastings, Pablo A. Marquet, Neo D. Martinez, Arne Mooers, Peter Roopnarine, Geerat Vermeij, John W. Williams, Rosemary Gillespie, Justin Kitzes, Charles Marshall, Nicholas Matzke, David P. Mindell, Eloy Revilla and Adam B. Smith « Approaching a state shift in Earth’s biosphere », Nature 486:52-58 (2012)
    http://ib.berkeley.edu/labs/barnosky/Barnoskyetal_nature_v486_n7401.pdf

    Des articles plus récents :

    Richard Monastersky "Anthropocene : The human age", Nature 519:144-147 (2015)
    http://www.nature.com/polopoly_fs/1.17085!/menu/main/topColumns/topLeftColumn/pdf/519144a.pdf

    Simon L. Lewis and Mark A. Maslin "Defining the Anthropocene", Nature 519:171-180 (2015)
    http://anthropoceneinstitute.com/sites/default/files/Nature_Defining%20Anthropocene.pdf

    Colin N. Waters, Jan Zalasiewicz, Colin Summerhayes, Anthony D. Barnosky, Clément Poirier, Agnieszka Gałuszka, Alejandro Cearreta, Matt Edgeworth, Erle C. Ellis, Michael Ellis, Catherine Jeandel, Reinhold Leinfelder, J. R. McNeill, Daniel deB. Richter, Will Steffen, James Syvitski, Davor Vidas, Michael Wagreich, Mark Williams, An Zhisheng, Jacques Grinevald, Eric Odada, Naomi Oreskes and Alexander P. Wolfe "The Anthropocene is functionally and stratigraphically distinct from the Holocene" Science 351 (2016)
    http://faculty.eas.ualberta.ca/wolfe/eprints/Waters_et_al_2016.pdf

    Clive Hamilton "Define the Anthropocene in terms of the whole Earth" Nature 536:251 (2016)
    http://www.nature.com/polopoly_fs/1.20427!/menu/main/topColumns/topLeftColumn/pdf/536251a.pdf

    Autres articles sur le même sujet abordés sur seenthis :

    L’apocalypse et l’anthropocène
    entretien de Joseph Confavreux et Thibault Henneton avec Jean-Baptiste Fressoz, Vacarme, le 4 novembre 2013
    http://www.vacarme.org/article2301.html

    Introduction à l’histoire environnementale
    Jean-Batiste Fressoz, Frédéric Graber, Fabien Locher et Grégory Quenet, La Découverte, Repères, 2014
    https://seenthis.net/messages/514161

    800 000 ans de hausse du taux de CO2 dans l’air
    Audrey Garric, Le Monde, le 9 mai 2014
    https://seenthis.net/messages/255574

    See How Humans Have Reshaped the Globe With This Interactive Atlas
    Esri and Victoria Jaggard, Smithsonian, le 8 octobre 2014
    https://seenthis.net/messages/487592

    L’Homme a fait entrer la Terre dans une nouvelle époque géologique
    Pierre Le Hir, Le Monde, le 16 janvier 2015
    https://seenthis.net/messages/332016

    Anthropocène ou pas ?
    Rémi Sussan, Internet Actu, le 5 mai 2015
    https://seenthis.net/messages/367335

    Avis de tempête sur le climat ? (2/4) : L’anthropocène : par-delà nature et culture
    Adèle Van Reeth et Philippe Descola, France Culture, le 15 septembre 2015
    https://seenthis.net/messages/408840

    Sixteen years of change in the global terrestrial human footprint and implications for biodiversity conservation
    Oscar Venter, Eric W. Sanderson, Ainhoa Magrach, James R. Allan, Jutta Beher, Kendall R. Jones, Hugh P. Possingham, William F. Laurance, Peter Wood, Balázs M. Fekete, Marc A. Levy and James E. M. Watson, Nature Communications 7 (2015)
    https://seenthis.net/messages/519461

    Where in the World Is the Anthropocene ?
    Hannah Waters, Smithsonian, le 30 août 2016
    https://seenthis.net/messages/520441

    The Anthropocene Is Here : Humanity Has Pushed Earth Into a New Epoch
    Deirdre Fulton, Common Dreams, le 30 août 2016
    https://seenthis.net/messages/520010

    L’Anthropocène et l’esthétique du sublime
    Jean-Baptiste Fressoz, Mouvements, le 16 septembre 2016
    https://seenthis.net/messages/527997

    A suivre...

    #recension

  • Le lecteur absent
    http://www.zeroseconde.com/2016/02/le-lecteur-absent

    Depuis la montée du mobile, les contenus en lignes, comme les blogues et autres contenus « artisanaux », ont vu une perte (ou au mieux une stagnation) de leur lectorat. InternetActu, qui offre à tous une réflexion de haut niveau sur les impacts du numérique, a vu son auditoire fléchir. Le constat d’Hubert Guillaud est sans appel : […]

    #Culture

  • Apprendre à apprendre (3/4) : peut-on lutter contre la procrastination ?
    http://www.internetactu.net/2015/09/22/apprendre-a-apprendre-34-peut-on-lutter-contre-la-procrastination

    La procrastination est un problème qui touche beaucoup de domaines, comme les finances, la santé, voire au niveau collectif, la gestion des crises écologiques, comme Hubert Guillaud l’a expliqué dans nos colonnes (voir aussi ici), mais c’est aussi un cauchemar pour l’étudiant ou le lycéen, surtout lorsqu’il est livré à lui-même, tenu de préparer ses examens et rendre ses travaux……

    #éducation #cognition #FuturEduc #psychologie

  • Le progrès est-il un programme #politique - Agir par la culture
    http://alireailleurs.tumblr.com/post/118095934642

    Pour ceux qui l’auraient raté, nous vous invitons à vous plonger dans l’entretien qu’Hubert Guillaud, rédacteur en chef d’InternetActu.net a livré au magazine Agir par la culture (repris par Rue89) où il revient sur les idéologies de la Silicon Valley et pose la question de notre rapport au progrès.“Nous sommes tous victimes d’un manque de discernement face au progrès technique. La raison en est simple. Nous avons tous le désir d’améliorer les choses, de les changer, de les transformer… Pour autant, nous ne pouvons pas confondre la révolution informatique avec la révolution politique. Le seul moyen d’atteindre les objectifs politiques que la gauche poursuit est d’être absolument clair sur ce que sont les finalités. Mettre en place des moyens technologiques pour y parvenir avant de connaître clairement les (...)

    #solutionnisme

  • 2040 : la fin du mariage
    http://www.internetactu.net/2014/12/02/2040-la-fin-du-mariage

    Comme l’a rappelé le débat sur le mariage pour tous, nombre d’entre nous aspirons à un même idéal, partageons une même représentation sociale normative : celle du #couple, de la sacro-sainte famille nucléaire. La plupart d’entre nous aspirent à cet idéal : s’unir à quelqu’un et lui promettre de passer notre vie avec lui. Toutes nos références culturelles nous renvoient…

    #futur #innovation_sociale #politiques_publiques #prospective

    • Effectivement, à titre personnel je suis favorable au mariage civil (i. e. d’État) pour personne. C’est à mon sens une affaire privée dont la l’État n’a pas à se mêler, surtout quand cela devient un instrument de discrimination (sociale, fiscale, légale, etc.). Je ne permets pas à l’État d’avoir un droit de regard sur ma religion, ma sexualité, mes opinions politiques, etc. Je ne vois pas pourquoi je lui permettrais d’en avoir un sur ma vie amoureuse.

      Que la puissance publique souhaite organiser et réguler la démographie, c’est une chose. Que cela aille jusqu’à des politiques de natalité, c’est peut-être nécessaire. Mais je n’ai aucun doute que cela peut être fait sans dicter un ou des modèles de couple.

      Que l’État ait à cœur de garantir l’équité (à défaut d’égalité...) entre les citoyens est fondamental. Historiquement, l’État supplée d’ailleurs à l’Église à la suite de la Révolution pour tenir le registre d’état civil et par sa reconnaissance du mariage il se porte alors garant du respect des droits de chacun des époux (selon un équilibre certes tout à fait relatif, mais néanmoins accordant des droits et devoirs à chacun, en particulier par exemple en cas de divorce). Ces intentions sont louables et sa méthode ne me pose pas de problème tant que c’est la société qui impose son modèle à l’État (avec toutes les nuances qu’apporte Hubert Guillaud dans son article qui permettent de comprendre qu’il s’agit, pour une part plus ou moins large, d’une fiction). Mais lorsque les pratiques évolues radicalement et que c’est l’État qui impose un modèle désuet et minoritaire à la société, alors on atteint la limite.

      Aujourd’hui, il me semble que la seule mesure équitable et progressiste soit de supprimer le mariage civil. La protection des individus doit pouvoir se faire sans. Peut-être en ayant alors recours plus fréquemment à la justice, c’est vrai.

      On peut supposer que le mariage serait alors sans doute largement réapproprié par la société civil : religions, individus, communautés sexuelles, politiques, philosophiques, etc. Il y aurait alors autant de mariage que de convictions à son propos et ça me semblerait une bonne idée.

      Bref, n’importe comment, c’est à mon sens ce débat qui a manqué terriblement lors de l’hystérie « mariage pour tous » et qui me fait penser qu’il s’agit d’une mesure tristement conservatrice ou au mieux obsolète.

  • Pourquoi la longue traîne ne marche pas ?
    http://lafeuille.blog.lemonde.fr/2014/06/24/pourquoi-la-longue-traine-ne-marche-pas

    Si la longue traine ne s’est pas réalisée, ce n’est pas tant que la théorie n’est pas valide, que les conditions économiques pour sa réalisation ne sont pas là. Les monopoles de fait de quelques gros acteurs, les moteurs de recommandation qui fonctionnent tous peu ou prou sur les mêmes critères, l’absence de travail éditorial de mise en avant ou de sélection sur la plupart des plateformes de ventes de livres... sont les facteurs premiers de cette fuite en avant. La bestsellerisation du monde est d’abord le fait des monopoles du numérique, des effets de concentration rendus plus importants.

    Hubert Guillaud un peu défaitiste... Ce serait intéressant d’avoir aussi les chiffres du « vieux » marché numérique qu’est la musique.

    #Best-seller #Longue_traîne #Monopole #Édition_numérique

  • le tiers livre, web & littérature : réflexions pensives sur l’économie du livre
    http://www.tierslivre.net/spip/spip.php?article3894

    le black-out mis sur un fait essentiel : depuis 2 ans, l’effondrement soudain des poches, et d’un facteur frôlant les 20% pour certaines des maisons.

    @fbon revient sur le refus des milieux de l’édition d’ouvrir leurs catalogues au numérique. Et ils se retrouvent piégés aujourd’hui par l’effondrement des poches, qui leur fait les poches, littéralement.

    Il y a 5 ans, 6 ans, on a été nombreux (le « on » étant ceux qui se mouillaient les mains dans le web, et il faut en rendre d’abord hommage à Hubert Guillaud) à alerter : amorcer la mise en place d’une offre numérique large, créative, attractive. On s’est surtout pris des coups de bâton dans la figure, et le bouclier s’est levé de l’ensemble des instances, édition, librairie, presse. J’ai tenté de me frayer chemin dans cette direction avec mon petit labo, beaucoup appris, mais il m’a manqué aussi un maillon essentiel : les auteurs de l’édition imprimée, sauf tout petit noyau. Mais ce qu’on nous rétorquait, à l’époque, c’est précisément que la réticence au numérique c’était pour laisser vivre l’industrie du poche. Cet axiome en France a été un consensus : l’offre numérique s’est constituée, mais toujours commercialisée au-dessus du prix du poche. [...]

    Est-ce que c’est rattrapable aujourd’hui ? Sans doute, les chiffres de l’édition numérique progressent, mais « arithmétiquement ». Des chiffres qui commencent à compter dans le chiffre d’affaire global des éditeurs, mais entre 1,8 et 2,3% (si on s’en tient aux maisons de littérature générale).

    [...]

    — Quelque chose qui bloque dans le monde de l’édition lui-même. L’économie d’Internet (et c’est passionnant de scruter pour cela la musique) est de plus en plus basée sur la recommandation. Amazon n’y est pas grand maître (une fois par mois, ils me proposent régulièrement de lire mes propres livres, remarque c’est peut-être délibéré ?), mais ils ont une longueur d’avance. Ils y parviennent à partir de leurs propres data, commandes, consultations, statistiques. Mais ce qui me semble complètement incroyable, c’est comment le monde de l’édition, en France, reste encore complètement étanche à la notion de big data. Un monde quasi fossile, avec des circuits parallèles gérant eux-mêmes des données extrêmement restreintes, par rapport à celles qu’on peut associer au moindre morceau de musique.[...] Je n’ai pas le droit de donner des exemples concrets, mais ça me semble une sorte de déni suicidaire : vraie caricature à force de refuser la pensée web, et pourtant il y en a, chez eux, des compétences… Un des éditeurs historiques, et des plus dynamiques, de la place parisienne, d’un de nos plus grands groupes sans citer personne, n’a droit qu’à la métadonnée « littérature générale » pour tout son catalogue. Idem les années qu’il a fallu, alors que le Kindle existe depuis 8 ans, pour que la CLIL accepte de se doter d’un système de classement digne de ce nom, et que le classement BISAC est une transposition de valeurs culturelles américaines qui sont risibles par rapport au nôtre.Ce dont aurait besoin le poche pour redevenir l’outil culturel bon marché de qualité, au centre de la transmission et de l’éveil, c’est des outils de recommandation big data qu’a été incapable de prévoir l’appareil industriel de l’édition – là aussi, par ignorance du web, s’en remettre à leur plus gros libraire papier, Amazon, comme ils espèrent s’en remettre à Orange pour le numérique ?

    Corollaire : la bascule majeure qu’est une innovation technologique dans le fil même de l’évolution des techniques d’imprimerie, le Print On Demand. Les mêmes machines qu’on utilise pour les réassorts des best-sellers sont couplées à un système informatique qui peut changer le titre à l’unité, sans rupture de la chaîne d’impression.

    Je n’en met pas plus, courrez le lire, c’est passionnant.
    #édition #print_on_demand #poche #numérique

  • blog.animtic.fr • De l’EPN à l’Espace de Pratiques Numériques en passant par le fablab : Les EPN en bibliothèques
    http://blog.animtic.fr/post/58789455763/de-lepn-a-lespace-de-pratiques-numeriques-en-passant

    De nombreuses bibliothèques possèdent un espace multimédia proposant une offre de formation. Cependant, comme le souligne Hubert Guillaud, l’offre de formation a peu évolué, se limitant au triptyque bureautique, courriel et web, même l’offre jeux en réseau reste un épiphénomène. Dans le même temps les usages évoluent et les espaces mulitmédias peinent à attirer de nouveaux publics.

    Il y a toujours un besoin de formation “basique” qui reste très important notamment aux Ulis où chaque année nous sommes dans l’obligation de refuser du monde malgré nos 4 ateliers hebdomadaires. Mais force est de constater que cette offre d’atelier attire uniquement un public senior qui fréquente déjà la médiathèque.

    Pour attirer de nouveaux publics, montrer aux actifs, aux jeunes que l’espace multimédia n’est pas uniquement synonyme de découverte du bureau Windows. Il est nécessaire de revoir le contenu des ateliers mais aussi s’interroger sur leurs fonctionnement.

    #FabLab #EPN #Educpop #Inspi-4-la-matrice

  • De quels traitements sommes-nous les proies ? | Hubert Guillaud
    http://www.internetactu.net/2013/01/22/de-quels-traitements-sommes-nous-les-proies

    Le Wall Street Journal publiait il y a peu une intéressante enquête sur la tarification algorithmique des sites de commerce en ligne. Les journalistes Jennifer Valentino-Devries, Jeremy Singer-Vine et Ashkan Soltani ont cherché à comprendre comment les prix des produits d’un magasin en ligne tel que Staples, un site de fournitures de bureau américain, variaient pour les utilisateurs. Visiblement, plusieurs…

    #Confiance_et_sécurité #eBusiness #Economie_et_marchés #Opinions #Technologies

  • Eclairage pour le 21e siècle : Internet est-il notre nouveau doudou ? | Hubert Guillaud
    http://www.internetactu.net/2013/01/18/eclairage-pour-le-21e-siecle-internet-est-il-notre-nouveau-doudou

    Lundi 21 janvier à 19h, nous vous convions à une nouvelle séance d’Eclairage pour le XXIe siècle au Centre Pompidou (petite salle, niveau -1). Cette rencontre prendra la forme d’un grand entretien avec le psychologue et psychanalyste Yann Leroux (@yannleroux), auteur de Les jeux vidéos ça rend pas idiot ! et des blogs Psy & Geek et Psychologik mené par…

    #Communiqué

  • Où va l’économie numérique ? (2/3) : robotisation ou monopolisation ? | Hubert Guillaud
    http://www.internetactu.net/2013/01/17/ou-va-leconomie-numerique-23-robotisation-ou-monopolisation

    “C’est peut-être difficile à croire, mais avant la fin de ce siècle, 70 % des emplois d’aujourd’hui sera remplacé par l’automatisation. Oui, cher lecteur, même votre travail vous sera enlevé par des machines. En d’autres termes, votre remplacement par un robot n’est qu’une question de temps”, affirme Kevin Kelly (@kevin2kelly) dans un passionnant article pour Wired intitulé : “meilleurs que…

    #économie #produire_autrement #refaire

  • e-Commerce et commerce : le temps de l’hybridation ? | Hubert Guillaud
    http://www.internetactu.net/2013/01/15/e-commerce-et-commerce-le-temps-de-lhybridation

    Le commerce en ligne se porte bien. En France, il a progressé de 20 % sur l’ensemble de l’année 2012, rapporte le Journal du Net (le chiffre d’affaires a augmenté de 13 % mais le panier moyen est en baisse de 2 euros à 87,56 euros). Mais de plus en plus on perçoit comme une fracture entre le monde du…

    #" ;alléger_la_ville" #économie #citelabo #géolocalisation #hyperlocal #intelligence_des_données #marketing

  • Sommes-nous dans une économie post-industrielle ? | Hubert Guillaud
    http://www.internetactu.net/2013/01/08/sommes-nous-dans-une-economie-post-industrielle

    A l’occasion des Entretiens du Nouveau Monde industriel qui se tenaient au Centre Pompidou les 17 et 18 décembre, ultime retour sur quelques présentations… “Les médias sont entrés dans une économie post-industrielle”, estime Bruno Patino (@BrunoPatino), directeur général délégué au développement numérique et à la stratégie de France Télévisions, directeur de France 5 et de l’école de journalisme de l’Institut…

    #algorithmie #économie #enmi #enmi12

    • #industrie #tech_companies #FAI #infrastructure

      L’accès appartient désormais à un opérateur de téléphonie ou à un fournisseur d’accès. Les contenus appartiennent aux producteurs de contenus. Et l’interface est désormais produite par des algorithmes détenus par les acteurs majeurs de l’internet.

      et à l’inverse

      “Nous ne sommes pas dans une économie post-industrielle” estime Michel Calmejane en répondant à Bruno Patino. “Il y a bien une industrie du numérique, mais il n’y a pas d’économie du numérique. C’est la diffusion du numérique au sein des acteurs traditionnels qui déstabilise et déstructure l’économie traditionnelle. La contribution directe et indirecte d’internet à l’économie globale ne serait que de 3% selon le cabinet d’analyse Greenwich.” Certes, plus le numérique pénètre l’industrie, plus l’industrie est déstabilisée. Et bien souvent, ce sont les sociétés qui sont les plus résistantes au numérique qui s’avèrent les plus fragiles, rappelle Michel Calmejane. Souvenez-vous : en 1994 apparaissait le premier appareil photo numérique commercialisé. C’était le QuickTake d’Apple… mais en fait Apple exploitait un brevet déposé par Kodak , qui n’a pas réussi à prendre elle-même le virage du numérique.

      “Internet n’est pas un monde de réseau, mais un espace réticulaire”, assène l’iconoclaste directeur général de Colt. La fibre optique n’est pas un facteur d’attractivité de la production, insiste le spécialiste. Elle n’est qu’un accélérateur de tendance. Mettre la fibre optique à la Bourse de Paris en 1998 ne l’a pas empêché de déménager à Londres en 2008 !

      Ce que le directeur de Colt résume dans une formule-choc : “Le container a délocalisé la production. La Fibre a délocalisé les services. Le Cloud va délocaliser la consommation.”

      Pour Calmejane, il est plus important de comprendre les éléments constitutifs de la valeur liée au numérique, afin de comprendre ce qui est délocalisable et ce qui ne l’est pas et agir autrement sur les sociétés du numérique. Or, à bien y regarder, la seule chose qui n’est pas délocalisable est les réseaux physiques, qui ne représentent que 20 % de la valeur totale.

      Le problème c’est que la question de la régulation ne cesse de se complexifier ”, estime Michel Calmejane. Avec l’IPv6 et le monde des objets connectés, il ne va plus seulement falloir réguler des acteurs (allant de Google aux individus) mais peut-être va-t-il falloir réguler des actes. Chaque nouvelle adresse IP va créer automatiquement des données et des informations. Mais quel sera le statut de ces données ? Quel sera le statut des actes circulant dans un monde interconnecté ?

      Pour Calmejane nous avons un peu trois choix devant nous. Allons-nous créer un domaine public du numérique ? C’est-à-dire faut-il mettre en place une redevance d’occupation pour accéder aux adresses IP afin que les Etats captent une sorte “d’octroi numérique” ? Allons-nous considérer que les adresses IP sont un bien privé (auquel cas la collecte d’adresses IP comme la pratique l’Hadopi est illégale) ? Ou allons-nous considérer l’#internet comme un bien #commun , un bien auquel tout le monde peut accéder et qu’on gère de manière commune ?

  • De la statistique aux big data : ce qui change dans notre compréhension du monde

    http://www.internetactu.net/2012/12/19/de-la-statistique-aux-big-data-ce-qui-change-dans-notre-comprehension-

    De la statistique aux big data : ce qui change dans notre compréhension du monde

    Par Hubert Guillaud le 19/12/12

    Lors de la dernière édition des Entretiens du Nouveau Monde industriel qui avaient lieu les 17 et 18 décembre 2012 au Centre Pompidou, le sociologue Dominique Cardon a proposé une intéressante matrice pour comprendre à la fois les limites de la réutilisation des données ouvertes et celle des “Big Data“.

    Nous sommes désormais confrontés à un incroyable déluge de données produit par le numérique, reconnaît Dominique Cardon. C’est ce qu’on appelle le Big Data. Les données semblent innombrables, proliférantes… Et vont demain nous en apprendre toujours plus sur nous-mêmes…

    Mais sont-elles nécessaires ? Répondent-elles à des besoins ? Sont-elles critiques ou plutôt nous permettent-elles d’acquérir une perspective critique ?…

    #statistiques #data #bigdata

    • Mouais…

      Je suis toujours sceptique sur cette vision de la donnée brute. Elle me semble relever du fantasme de la « vraie donnée ».

      Pour résumer par un jeu de mot (ok, assez à usage interne ;-) :
      les données ne le sont pas !
      Les données ne sont pas données, elles sont toujours construites. Desrosières insiste énormément (à juste titre) sur la construction des catégories, et, à mon sens, pas assez sur la production de la donnée. C’est à dire la mise en place d’un dispositif de « mesure » (ce qui n’est JAMAIS simple, y compris dans les sciences dures : faire une mesure, c’est respecter le protocole de mesure), de collecte et d’enregistrement.

      De plus, la plupart du temps (et typiquement pour les données exhaustives) le recueil et le stockage d’information ne sont PAS faits pour faire des stats. Exemple archiclassique, la statistique des crimes et délits de l’ONDRP est d’abord une mesure de l’activité policière (et du comportement d’enregistrement cf. http://fr.wikipedia.org/wiki/Théorème_de_Demonque ).

      Enfin, l’apprentissage automatique permet, là aussi, de fantasmer pas mal.

      “On ne va plus faire d’hypothèses ni sur les données, ni sur les corrélations : c’est l’algorithme d’apprentissage qui va trouver lui-même les bons modèles prédictifs ! Il suffit désormais de donner aux données des buts à atteindre pour qu’elles apprennent elles-mêmes de la corrélation des données.”

      Eueueuh, oui… Et il y a quoi dans ledit algorithme d’apprentissage qui permet aux données de s’auto-organiser ? Il est inspiré par le Saint-Esprit ?

      Juste une dernière citation, extraite de WP :
      http://fr.wikipedia.org/wiki/Apprentissage_automatique

      La qualité de l’apprentissage et de l’analyse dépendent du besoin en amont et a priori de la compétence de l’opérateur pour préparer l’analyse. Elle dépend aussi de la complexité du modèle (spécifique ou généraliste), de son adéquation et de son adaptation au sujet à traiter.

      Mais, bon, c’est juste le point de vue d’un statisticien…

    • Et quel point de vue ! tu me fais penser à Freakonometric (Arthur Charpentier). Je ne connaissais pas l’expression « les données ne le sont pas ! », j’aime beaucoup. Je me suis beaucoup imprégné des bouquins de Desrosières, et je soutiens, pour les données d’ailleurs autant que pour la carte elle même, ce point de vue. Nous savons bien à quel point sont abstraites les données que nous utilisons le plus souvent. Le drame est qu’on bâtit des discours assurés sur la base de ce que « disent » ces « données » que l’on considère « vraies »

    • Je ne connaissais pas Arthur Charpentier Freakonometrics, l’article que tu mets en lien un peu plus tard http://seenthis.net/messages/105743 est en effet tout à fait caractéristique de ce qui se passe quand on se coltine à des données brutes. Ici, données administratives, exhaustives, avec changement de convention (c’est toujours comme ça…) Et il évoque, en fin d’article, d’autres sources (tout aussi administrative) et la difficulté de se les procurer (puisqu’appartenant à des sociétés privées et directement liées à leur cœur de métier). On peut ajouter que, s’il les récupère, il devra se coltiner le lien entre les deux sources, puisqu’à tous les coups les unités statistiques seront différentes :
      • les gendarmes comptent des accidents,
      • les compagnies d’assurance comptent des dossiers indemnisés
      Il n’y a aucune raison pour que les deux se recouvrent à 100%. Et j’imagine qu’on aura, chez les assureurs aussi, une rupture de série en 2003, avec la création du FGAO (Fonds de garantie pour les accidents dont les auteurs sont non identifiés ou non assurés).

      Juste un bémol, à son article. Je l’aurais terminé par :

      Bienvenue dans le monde des données !

      #le_vrai_chiffre

  • Notre cerveau à l’heure des nouvelles lectures | Hubert Guillaud
    http://www.internetactu.net/2013/01/04/notre-cerveau-a-lheure-des-nouvelles-lectures

    Maryanne Wolf, directrice du Centre de recherche sur la lecture et le langage de l’université Tufts est l’auteur de Proust et le Calmar (en référence à la façon dont ces animaux développent leurs réseaux de neurones, que nous avions déjà évoqué en 2009). Sur la scène des Entretiens du Nouveau Monde industriel au Centre Pompidou, la spécialiste dans le développement…

    #économie_de_l'attention #cognition #corps #enmi #enmi12 #neurosciences

  • Joyeux Noël et Bonne année ! | Hubert Guillaud
    http://www.internetactu.net/2012/12/24/joyeux-noel-et-bonne-annee-2

    Comme chaque année, l’équipe d’InternetActu.net retourne aider le père Noël le temps des Fêtes de fin d’années. Toutes les équipes de la Fing et de Place de la Toile se joignent à nous pour vous souhaiter de joyeuses Fêtes et vous retrouverons dès début 2013 pour continuer à décrypter les révolutions technologiques et leurs usages. Si l’on vous manque durant…

    #Brèves #Communiqué

  • Joyeux Noël et Bonne année ! | Hubert Guillaud
    http://www.internetactu.net/2012/12/24/joyeux-noel-et-bonne-annee-2

    Comme chaque année, l’équipe d’InternetActu.net retourne aider le père Noël le temps des Fêtes de fin d’années. Toutes les équipes de la Fing et de Place de la Toile se joignent à nous pour vous souhaiter de joyeuses Fêtes et vous retrouverons dès début 2013 pour continuer à décrypter les révolutions technologiques et leurs usages. Si l’on vous manque durant…

    #Brèves #Communiqué

  • De la statistique aux big data : ce qui change dans notre compréhension du monde | Hubert Guillaud
    http://www.internetactu.net/2012/12/19/de-la-statistique-aux-big-data-ce-qui-change-dans-notre-comprehension-

    Lors de la dernière édition des Entretiens du Nouveau Monde industriel qui avaient lieu les 17 et 18 décembre 2012 au Centre Pompidou, le sociologue Dominique Cardon a proposé une intéressante matrice pour comprendre à la fois les limites de la réutilisation des données ouvertes et celle des “Big Data“. Nous sommes désormais confrontés à un incroyable déluge de données…

    #analyse_des_réseaux #big_data #enmi #enmi12 #opendata

  • Quel avenir pour les #EPN ? (3/3) : nouvelles missions | Hubert Guillaud
    http://www.internetactu.net/2012/12/13/quel-avenir-pour-les-epn-33-nouvelles-missions

    “Se limiter à l’apprentissage de l’outil informatique a été trop longtemps un réflexe de protection”, estime Richard de Logu, directeur de l’association Bug à Rennes. “Aujourd’hui, l’un des enjeux des EPN est de s’ouvrir à toute la palette des usages du numérique : la fabrication, les transports, la démocratie, l’économie… parce que tout est devenu un enjeu du numérique. Les…

    #" ;alléger_la_ville" #économie #biens_communs #communauté #dispositifs_créatifs #do_it_yourself #fablab #hyperlocal #intelligence_collective #open_innovation #politiques_publiques #savoir-faire #web_local

  • Quel avenir pour les #EPN ? (2/3) : devenir des structures de développement de projets | Hubert Guillaud
    http://www.internetactu.net/2012/12/12/quel-avenir-pour-les-epn-23-devenir-des-structures-de-developpement-de

    “Les EPN doivent être pensés non pas pour ce qu’ils sont, mais pour ce qu’ils pourraient apporter dans un écosystème, un territoire. Nous avons besoin de contextualiser les services proposés”, explique Didier Paquelin directeur du programme de Recherche Aquitain sur usages et le développement des dispositifs numériques. “Les EPN doivent quitter leur posture d’acculturation du numérique pour devenir les accompagnateurs…

    #hyperlocal #la27eregion #politiques_publiques

  • Quel avenir pour les #EPN ? (1/3) : les usages ont changé | Hubert Guillaud
    http://www.internetactu.net/2012/12/11/quel-avenir-pour-les-epn-13-les-usages-ont-change

    A l’heure où les budgets des collectivités locales se contractent, la question de la pérennité des espaces publics numériques (financés pour 65 % des structures par des collectivités territoriales) se pose. Alors que les usages ont considérablement changé depuis que ces espaces ont vu le jour, nombre d’EPN (sur quelques 4700 en France selon la carte tenue à jour par…

    #" ;alléger_la_ville" #citelabo #coopération #politiques_publiques #web_local

  • La pertinence des algorithmes | Hubert Guillaud
    http://www.internetactu.net/2012/11/29/la-pertinence-des-algorithmes

    Sur l’excellent Culture Digitally, le sociologue Tarleton Gillespie (@TarletonG) vient de publier un court essai (.pdf) sur la “pertinence des algorithmes” pour réfléchir à la place des algorithmes dans la culture et la connaissance (cet essai se veut l’introduction d’une anthologie sur le sujet qui devrait paraître… à l’automne 2013 aux presses du MIT). Tarleton Gillespie s’est longuement intéressé à…

    #algorithmie #économie_de_l'attention #complexité #réseaux #réseaux_sociaux #traçabilité