continent:amérique du nord

  • Facebook prive 1,5 milliard d’utilisateurs du droit européen sur les données
    http://www.lemonde.fr/pixels/article/2018/04/19/facebook-prive-1-5-milliard-d-utilisateurs-du-droit-europeen-sur-les-donnees

    Le réseau social va changer ses conditions : ses utilisateurs hors d’Europe et d’Amérique du Nord vont être dépendants du siège global de la firme dans la Silicon Valley. Facebook, contrairement à ce qu’a laissé entendre son patron, Mark Zuckerberg, ne compte pas appliquer la nouvelle loi européenne sur les données personnelles de manière uniforme dans le monde entier. Au contraire : le réseau social s’apprête – selon des informations de l’agence Reuters de jeudi 19 avril confirmées par l’entreprise – à (...)

    #Facebook #terms #données #BigData #data-mining #Règlement_Général_sur_la_Protection_des_Données_(RGPD)

    ##Règlement_Général_sur_la_Protection_des_Données__RGPD_

  • Facebook n’étendrait pas sa conformité RGPD hors d’Europe et d’Amérique du Nord
    https://www.nextinpact.com/brief/facebook-n-etendrait-pas-sa-conformite-rgpd-hors-d-europe-et-d-amerique-

    Les promesses n’engagent que ceux qui les croient, surtout quand elles sont vagues. Depuis le scandale Cambridge Analytica (voir notre analyse), y compris devant les parlementaires américains, Facebook assure étendre la protection de la vie privée imposée par le Règlement général sur la protection des données hors de l’Union européenne, où il s’appliquera le 25 mai. Pourtant, la société n’a jamais fourni de détails. Elle a même déclaré plusieurs fois adapter ces outils à chaque territoire. En clair, (...)

    #Facebook #terms #Règlement_Général_sur_la_Protection_des_Données_(RGPD)

    ##Règlement_Général_sur_la_Protection_des_Données__RGPD_

  • #Brochure N° 61
    Les IWW : Organisation et pratique du syndicalisme révolutionnaire aux États-Unis
    http://www.cntaittoulouse.lautre.net/spip.php?article226

    Présentation des I.W.W.

    Suivi de :
    – Les Wobblies : Tactique et vision pour un nouveau mouvement ouvrier révolutionnaire.
    Et
    – Guide d’introduction à l’action directe pour les travailleuses et les travailleurs

    Organisation historique, l’I.W.W. (Industrial Workers of the World-Travailleurs Industriels du Monde) est la principale organisation syndicaliste révolutionnaire en Amérique du Nord principalement. Elle est aussi présente en Australie etc. C’est la seule organisation révolutionnaire qui est arrivée à être présente sur l’ensemble du territoire des États-Unis, où elle atteint son apogée dans les années 20. Elle existe toujours, et ses militants les plus connus actuellement se nomment Ursula Le Guinn, Noam Chomsky...

    Les deux premiers textes sont des présentations de leur mode de fonctionnement, qui diffère du syndicalisme européen, et le troisième est un texte célèbre, aussi édité sous le titre « Comment virer son patron ? ».

    http://www.cntaittoulouse.lautre.net/IMG/pdf/061-iww_presentation.pdf

  • Ca fait 5 ans que j’écris dans le mensuel de BD Le #Psikopat des petits textes sans trop de prétention, sauf essayer de vous tirer un sourire, sur des sujets qui me tiennent à coeur et qui, parfois, proviennent de réflexions commencées sur Seenthis.

    J’ai donc décidé de les regrouper ici et, de temps en temps, les ajouter à des conversations où ils auraient leur place... donc #humour #recension et #shameless_autopromo

    Le droit de gérance
    #Dror, Psikopat, mars 2013

    Le calvaire des langoustines (le gaspillage alimentaire)
    Dror, Psikopat, avril 2013

    Armée française : 0 - Otages français : 4
    Dror, Psikopat, juin 2013

    Le syndrome de la douche
    Dror, Psikopat, juin 2013

    Drones sans frontières (dystopie)
    Dror, Psikopat, octobre 2013

    Bratislava 2025 (dystopie : les banques rachètent les Etats)
    Dror, Psikopat, novembre 2013

    Intégration et Communautarisme
    Dror, Psikopat, décembre 2013

    La NSA, la seule agence gouvernementale qui vous écoute vraiment
    Dror, Psikopat, décembre 2013

    Le Rom errant
    Dror, Psikopat, décembre 2013

    La NSA, la seule agence gouvernementale qui vous écoute vraiment (suite)
    Dror, Psikopat, janvier 2014

    Le racisme anti-blanc
    Dror, Psikopat, janvier 2014

    Quelle honte... (les alliances de la France de Hollande)
    Dror, Psikopat, février 2014

    La mode capillaire
    Dror, Psikopat, mai 2014

    Lendemain de cuite (dystopie : l’Europe fonce dans le mur)
    Dror, Psikopat, juillet 2014

    Qui est-ce qu’on va tondre ? (quels chanteurs ont soutenu l’apartheid ?)
    Dror, Psikopat, juillet 2014

    La délocalisation - lettre d’adieu (dystopie : recherche emploi en terrain de guerre)
    Dror, Psikopat, novembre 2014

    Démocratie vs. Aristocratie (la politique économique de François Hollande n’est pas un échec pour tout le monde... et celle d’Evo Morales ?)
    Dror, Psikopat, novembre 2014

    La quintuple pleine (des immigrés en occident)
    Dror, Psikopat, décembre 2014

    Décapitations
    Dror, Psikopat, janvier 2015

    Escalade (la guerre en France n’est-elle pas une conséquence des guerres que la France mène à l’étranger ?)
    Dror, Psikopat, février 2015

    2014 était l’année de la Palestine à l’ONU ! (Une seule solution : le boycott, entre autres, au FIBD d’Angoulême)
    Dror, Psikopat, février 2015

    Le pouvoir sélectionne les salauds (l’ascension d’Obama ou de Valls)
    Dror, Psikopat, mai 2015

    Luft Story (le suicide comme nouvelle arme médiatique)
    Dror, Psikopat, mai 2015

    Tous terroristes, tous fichés
    Dror, Psikopat, mai 2015

    Hypocrites ! (vocabulaire utilisé pour décrire les migrants...)
    Dror, Psikopat, juin 2015

    Obama a tout compris
    Dror, Psikopat, juin 2015

    Lettre au service Régularité de la SNCF
    Dror, Psikopat, juillet 2015

    La paille négrophobe et la poutre raciste (la police française est-elle raciste ?)
    Dror, Psikopat, juillet 2015

    L’Europe est née en Grèce, l’Europe se meurt en Grèce
    Dror, Psikopat, septembre 2015

    Vocabulaire (encore une chronique sur l’utilisation du vocabulaire pour décrire les migrants...)
    Dror, Psikopat, novembre 2015

    Le pire exode depuis 1938 ?
    Dror, Psikopat, novembre 2015

    Vos guerres : nos morts (encore une chronique sur le lien entre la guerre ici et les guerres là bas...)
    Dror, Psikopat, décembre 2015

    Vivons heureux en attendant la mort... (dystopie : la fin du monde est pour 2030)
    Dror, Psikopat, février 2016

    Deux poids, deux mesures (récentes décisions de « justice » en France...)
    Dror, Psikopat, mars 2016

    La Karma Police (La France ressemble à 1984)
    Dror, Le Couac, avril 2016

    Comme les Mayas, vivons inégaux en attendant la mort... (et prédisons la fin du monde)
    Dror, Psikopat, juillet 2016

    Brexit
    Dror, Psikopat, septembre 2016

    La décadence (dystopie)
    Dror, Psikopat, octobre 2016

    La grandeur de la France (dystopie)
    Dror, Psikopat, novembre 2016

    Le testament de 2017 (dystopie)
    Dror, Psikopat, décembre 2016

    Peste, choléra ou brochet (ode à l’abstention)
    Dror, Psikopat, janvier 2017

    Le Cloaque Comportemental (dystopie)
    Dror, Psikopat mars 2017

    La Payola, raciste et sexiste
    Dror, Psikopat avril 2017

    Trump, comme prévu
    Dror, Psikopat avril 2017

    La machine à remonter le temps (vers le fascisme)
    Dror, Psikopat avril 2017

    Le Clitoris en 3D
    Dror, Psikopat mai 2017

    Ordinateurs sans limites ?
    Dror, Psikopat juin 2017

    Grosse bite, mais pas forcément sexiste
    Dror, Psikopat juin 2017

    Petites femmes et grands idiots
    Dror, Psikopat juillet 2017

    Le fin d’internet
    Dror, Psikopat juillet 2017

    C’était mieux avant... (la révolution au temps de la télévision)
    Dror, Psikopat septembre 2017

    C’était mieux encore avant ! (archéologie)
    Dror, Psikopat septembre 2017

    Vivement le futur (dystopie)
    Dror, Psikopat septembre 2017

    Les Luddites du Climat (dystopie)
    Dror, Psikopat, novembre 2017

    A quoi ça sert de bailler ? et de crier pendant l’orgasme ? :
    Dror, Psikopat, décembre 2017

    La vie secrète des milliardaires (dystopie)
    Dror, Psikopat, décembre 2017

    Le bonheur, enfin (après la dystopie)
    Dror, Psikopat, janvier 2018

    Madame Viking conquiert le monde, pendant que monsieur torche les gosses
    Dror, Psikopat, janvier 2018

    Qui sont les surnuméraires ? (dystopie)
    Dror, Psikopat, février 2018

  • Cambridge Analytica : Facebook au coeur d’un nouveau scandale
    https://www.latribune.fr/technos-medias/cambridge-analytica-facebook-au-coeur-d-un-nouveau-scandale-772455.html

    Comment Cambridge Analytica a eu accès aux données de Facebook ?

    C’est le point crucial de l’affaire. Le cabinet d’analyse aurait eu accès aux données personnelles de 50 millions d’utilisateurs Facebook - soit environ un tiers de membres actifs du réseau social en Amérique du Nord et près d’un quart des électeurs américains, précise The Observer. L’entreprise serait passée par un intermédiaire : un certain Aleksandr Kogan.

    Ce chercheur américain, d’origine russe, a développé une application baptisée « thisisyourdigitallife ». Lors de son téléchargement, les utilisateurs concédaient un droit d’accès à leurs données personnelles Facebook.

    "Environ 270.000 personnes ont téléchargé l’application, chiffre Facebook dans un communiqué de presse publié vendredi dernier. En faisant cela, ils donnent leur consentement à Kogan pour avoir accès à des informations comme leur ville d’origine, les contenus "likés"

    Ce n’est pas tout. L’application pouvait également avoir accès aux « amis » des utilisateurs l’ayant téléchargée. En 2014, Kogan aurait transmis ces informations au cabinet Cambridge Analytica, selon les enquêtes du NYT et The Observer. Si l’accès aux données était légal pour le chercheur, leur transmission à un tiers constitue une violation des règles d’utilisation de Facebook.

    « En 2015, nous avons appris que le Dr. Aleksandr Kogan nous avait menti », se défend le réseau social dans son communiqué de presse. Une façon pour Facebook de se dédouaner sur l’usage détourné des données personnelles de ses utilisateurs. « Les gens ont connaissance de fournir ces informations. Aucun système n’a été infiltré, aucun mot de passe ou données sensibles n’ont été volées ou piratées », poursuit Facebook.

    Pourquoi la polémique embarrasse-t-elle Facebook ?

    L’affaire est gênante à plusieurs niveaux. Premièrement, elle touche le cœur même de l’activité de Facebook : la collecte de données - et l’usage potentiellement détourné qui peut en être fait.

    « On est en train d’ouvrir le couvercle de la boîte noire des pratiques de Facebook en matière de données, et le tableau n’est pas joli à voir », souligne auprès de Reuters Frank Pasquale, professeur de droit à l’Université du Maryland et spécialiste de l’utilisation des données par les géants d’Internet.

    Deuxièmement, Facebook se retrouve sous le coup de pressions politiques tous azimuts. Aux États-Unis, plusieurs sénateurs souhaitent entendre les justifications devant le Congrès de Mark Zuckerberg, président et co-fondateur de Facebook. "C’est une brèche énorme sur laquelle il convient d’enquêter. Il est clair que ces plates-formes ne savent pas s’autodiscipliner", a twitté la sénatrice démocrate Amy Klobuchar. Même son de cloche en Europe. Le président du Parlement européen, Antonio Tajani, dénonçait lundi une « une violation inacceptable du droit à la vie privée de nos citoyens ». La commissaire européenne à la Justice, Vera Jourova, prévoit quant à elle d’aborder le sujet avec le réseau social et des responsables du gouvernement américain lors de sa vite aux États-Unis, cette semaine. Sur Internet, une campagne #DeleteFacebook (en français, supprime Facebook) a été lancée.

  • Batailles commerciales pour éclairer l’#Afrique, par Aurélien Bernier (Le Monde diplomatique, février 2018)
    https://www.monde-diplomatique.fr/2018/02/BERNIER/58354

    Derrière les discours généreux...
    Passée relativement inaperçue lors de la #COP21, qui s’est tenue fin 2015, l’Initiative africaine pour les énergies renouvelables (IAER) rassemble les cinquante-quatre pays du continent. L’objectif affiché par cette coalition, pilotée par l’Union africaine, est « d’atteindre au moins 10 gigawatts [GW] de capacité nouvelle et additionnelle de production d’énergie à partir de sources d’énergies renouvelables d’ici à 2020, et de mobiliser le potentiel africain pour produire au moins 300 GW d’ici à 2030 ». Cela reviendrait à multiplier par près de dix la production actuelle d’énergie renouvelable (cette augmentation devant contribuer à 50 % de la croissance totale de la production d’ici à 2040). Et à augmenter, sans recourir aux énergies fossiles, le taux d’électrification du continent (lire « Alimenter l’Europe ? »).

    Le Japon, l’Union européenne et huit pays occidentaux (Allemagne, Canada, États-Unis, France, Italie, Pays-Bas, Royaume-Uni et Suède) ont promis de consacrer 9,4 milliards d’euros d’ici à 2020 au financement de l’Initiative, dont 3 milliards d’euros annoncés par Paris. En dépit de la provenance des fonds, le cadre fondateur de l’#IAER précise que les pays du continent doivent pouvoir choisir les projets financés et en maîtriser la mise en œuvre ; les entreprises africaines doivent être sollicitées en priorité. L’Initiative est dirigée par un conseil d’administration composé de hauts fonctionnaires majoritairement désignés par les États africains.

    Pourtant, au mois de mars 2017, le professeur Youba Sokona, vice-président du Groupe d’experts intergouvernemental sur l’évolution du climat (#GIEC/#IPCC) chargé de l’unité « projets » de l’IAER, démissionne avec fracas. Le scientifique malien estime que les financeurs ont « mis sur pied une stratégie pour imposer aux Africains des projets automatiquement sélectionnés par les Européens ». Et de citer la première vague de dix-neuf dossiers validés malgré les réserves émises par des membres africains du conseil d’administration de l’Initiative. En parallèle, près de deux cents associations africaines signent une lettre ouverte intitulée « Stop au détournement de l’IAER par l’Europe ». Elles accusent plusieurs pays européens, et particulièrement la France, d’imposer des projets favorisant les intérêts directs de leurs multinationales de l’énergie et de leurs bureaux d’études. Dans un rapport présenté le 20 septembre 2016, Mme Ségolène Royal, alors ministre de l’environnement et présidente de la COP21, n’avait-elle pas identifié 240 projets et programmes dans diverses filières : hydraulique, géothermie, solaire, éolien (1) ?

    Pourquoi tant d’initiatives juxtaposées ? Toutes partagent ce constat : la sous-alimentation de l’Afrique en électricité entrave son développement (lire « Des pénuries incessantes »). Elles affichent toutes les mêmes images d’enfants dont le sourire est éclairé par une ampoule électrique. Elles proposent toutes plus ou moins les mêmes outils : des enceintes pour des discussions d’affaires, des fonds d’investissement ou de garantie, des prêts, des expertises… Et surtout, elles insistent toutes sur l’importance cruciale des partenariats public-privé.

    La générosité des textes fondateurs de ces plates-formes cache des intentions souvent très prosaïques. Depuis les années 1980, les pays occidentaux ouvrent leurs marchés électriques à la concurrence, provoquant une intense guerre commerciale entre les grandes entreprises du secteur. Mais les systèmes électriques du Vieux Continent et ceux de l’Amérique du Nord demeurent en surcapacité de production. Dans ces régions, les perspectives de croissance restent donc relativement faibles. Ce qui n’est pas le cas pour des marchés émergents, comme celui de l’Afrique.

    Afin de favoriser leur expansion, les compagnies étrangères bénéficient du processus de libéralisation engagé depuis près de trente ans sur le continent. Au cours du xxe siècle, la plupart des pays avaient créé des entreprises publiques disposant d’un monopole dans la production, le transport et la distribution du courant. Faute de moyens financiers suffisants, ces services nationaux sont souvent exsangues, incapables de garantir un approvisionnement de qualité. Plutôt que de les soutenir, la #Banque_mondiale, le #Fonds_monétaire_international ou encore la #BAD ont encouragé l’adoption de méthodes de gestion issues du privé et une ouverture progressive à la concurrence.

    [...]

    Bon nombre d’entreprises françaises du CAC 40 se ruent sur le secteur. En juin 2017, le Sénégal raccorde ainsi au réseau la centrale solaire de Senergy, à 130 kilomètres au nord de Dakar. Il s’agit du plus gros projet de ce type en Afrique de l’Ouest. Aux côtés du fonds souverain sénégalais Fonsis, les propriétaires de la centrale sont le fonds d’investissement français Meridiam et le constructeur Solairedirect, filiale du groupe Engie. D’autres sociétés françaises interviennent sur le chantier : Schneider Electric, qui fournit les onduleurs et les transformateurs, Eiffage ou encore Vinci.

    Pour rassurer les investisseurs, on peut également compter sur la finance carbone. Le protocole de #Kyoto, adopté en 1997, a posé les bases d’un système d’achat et de vente de « tonnes équivalent carbone » : les industriels qui dépassent un certain niveau d’#émission de #gaz_à_effet_de_serre doivent acheter des #droits_à_émettre ; à l’inverse, des projets peu #émetteurs se voient délivrer des crédits qu’ils peuvent vendre.

    Poussés par les institutions internationales et les entreprises privées, les pays africains adoptent des législations ad hoc permettant le développement du marché du carbone. Le carbon trading commence à se développer, et avec lui des start-up prometteuses. En 2009, un jeune Français diplômé en droit fonde la société Ecosur Afrique. Établie à l’île Maurice, elle exerce trois activités : le conseil, le développement de projets et le négoce de crédits carbone. Aujourd’hui rebaptisée Aera, la société s’est délocalisée à Paris et revendique 263 millions d’euros de crédits carbone échangés depuis sa création. Un début, puisque, selon son fondateur, « l’Afrique est un réservoir de crédits de #carbone presque inutilisé ».

    [...]

    C’est ainsi que s’explique le très controversé #barrage Grand Inga, en République démocratique du Congo (8). Dans un pays qui concentre près de 40 % des ressources hydroélectriques du continent (ce qui lui vaut le surnom de « château d’eau de l’Afrique »), il s’agit de construire un ouvrage deux fois plus imposant que le barrage chinois des Trois-Gorges, le plus grand du monde.

    La Banque mondiale, la BAD et l’Usaid contribuent aux études de faisabilité de ce projet, dont le coût varie, selon les estimations, entre 80 et 100 milliards de dollars. Le G20 l’a inclus dans sa liste des onze grands chantiers structurants pour la « communauté internationale ». Seuls 20 % de la production seraient destinés à alimenter le marché national ; le reste serait exporté. Grand Inga nécessiterait non seulement d’inonder une superficie importante de terres arables (22 000 hectares), mais aussi de construire 15 000 kilomètres de lignes à très haute tension.

    Il existe déjà des barrages dans cette région, mais les installations n’ont jamais fonctionné correctement, faute de suivi dans les investissements. Plusieurs turbines sont à l’arrêt. Deux projets sont en cours : moderniser les installations existantes et construire le gigantesque barrage de Grand Inga. Ses plus gros clients seraient les mines de la province congolaise du Katanga et celles d’Afrique du Sud, Pretoria connaissant depuis de nombreuses années de graves pénuries d’électricité. À la fin des années 1990, le gouvernement sud-africain envisage un temps la privatisation d’Eskom, l’entreprise publique de production et de distribution d’électricité. Malgré les avertissements de la direction, les autorités ne procèdent pas aux investissements nécessaires à la satisfaction d’une demande intérieure croissante. Les coupures se multiplient.

  • Une énergie nucléaire sans danger ni déchets, c’est la promesse, longtemps sabotée par les lobbies de l’énergie et de la défense, que brandissent les partisans du #thorium. Ce combustible alternatif, découvert à la fin du XIXe siècle, représente-t-il une piste sérieuse pour échapper aux dangers et à la pollution induits par l’utilisation du plutonium par l’industrie atomique ?

    https://www.arte.tv/fr/videos/050775-000-A/thorium-la-face-gachee-du-nucleaire
    98 min.
    Disponible du 08/02/2018 au 09/05/2018

    Une énergie nucléaire « verte » ? Au début de la série Occupied, diffusée par ARTE fin 2015, le nouveau chef écologiste du gouvernement norvégien, pour mettre un terme à l’exploitation pétrolière, inaugurait une centrale fonctionnant au thorium. Une hypothèse nullement fictive, selon ce documentaire, qui montre combien ce combustible alternatif, découvert à la fin du XIXe siècle et répandu sur toute la planète, représente une piste sérieuse pour échapper aux dangers et à la pollution induits par l’utilisation du plutonium par l’industrie atomique. Si le #nucléaire n’avait pas été inventé pour bombarder Hiroshima et propulser des flottes militaires, nos centrales fonctionneraient sans doute aujourd’hui avec des réacteurs à sels fondus de thorium. Tchernobyl et Fukushima seraient peut-être restés des points anonymes sur la carte du monde. La surexploitation de l’énergie fossile aurait probablement cessé beaucoup plus tôt, et le changement climatique se révélerait moins alarmant qu’il ne l’est aujourd’hui…

    La Chine à l’avant-garde ?
    Pour réaliser ce scénario, qui semble aujourd’hui utopique, il aurait peut-être suffi de s’intéresser vraiment aux travaux visionnaires du physicien américain Alvin Weinberg qui, après avoir participé à la fabrication de la bombe atomique, a voulu travailler sur une utilisation civile et pacifique de l’atome. Il s’est acharné de 1945 à sa disparition, en 2006, à inventer les conditions d’une #énergie nucléaire propre reposant sur des #réacteurs révolutionnaires et sur l’extraction du thorium. Mais les intérêts liés aux lobbies de l’énergie et de la défense en ont décidé autrement. Les États qui ont opté pour l’énergie atomique ont longtemps cherché à étouffer l’éolien et le solaire, et aucun n’a voulu prendre en compte les problèmes bien connus d’enfouissement des matières fissiles. Aujourd’hui, pourtant, l’idée d’un recours à des combustibles nucléaires liquides et à des réacteurs à sels fondus refait surface, défendue par le monde de la recherche et même par des écologistes combattant l’industrie nucléaire. Le gouvernement chinois a décidé d’investir 350 millions de dollars pour étudier cette filière révolutionnaire. La Fondation de Bill Gates s’y intéresse aussi. L’Europe va-t-elle rester à la traîne ? Un voyage teinté d’espoir vers la face gâchée du nucléaire.

    • Le nucléaire, avec ou sans thorium, implique une production centralisée et commandée, confiée aux états ou à des entreprises dont les conditions d’existence sont garanties par des états et leur police. Cette technique engage les sociétés dans une activité productive non réappropriable, reconduisant la soumission des sociétés à la production (d’énergie) pour la production. L’écologie se résume pas aux becquerels.

    • Le choix d’une production nucléaire centralisée n’est pas une fatalité.
      • au tout début de l’énergie nucléaire, il a été envisagé (brièvement…) des installations au niveau des unités d’habitation (je n’ai pas de référence sous la main)
      • un bon nombre de satellites possèdent des sources d’énergie nucléaires (on n’en entend parler que quand ils retombent sur terre…)
      https://fr.wikipedia.org/wiki/Générateur_thermoélectrique_à_radioisotope

    • Quelques références, en fouillant un peu…

      • à tout seigneur, tout honneur, WP[en] sur le réacteur aqueux homogène
      https://en.wikipedia.org/wiki/Aqueous_homogeneous_reactor


      avec un premier modèle en 1952 à 150 kW électriques

      • une belle image du National Geographic de l’époque (numéro à préciser)

      • en France aussi, des réflexions du CEA en 1958, Idées sur un projet de réacteur homogène
      les dernières figures présentent des schémas d’un réacteur à 80 kW et d’un autre à 500 kW (j’imagine thermiques, on s’arrête à l’extraction de vapeur, donc à diviser par 5 pour l’électrique)
      http://www.iaea.org/inis/collection/NCLCollectionStore/_Public/38/063/38063230.pdf

      • (nettement) plus contemporain, les projets de la NASA pour une nouvelle génération de réacteur pour satellite
      KRUSTY - Wikipedia
      https://en.wikipedia.org/wiki/KRUSTY

      As of September 2017 a test reactor has been constructed. It is designed to produce up to 1 kilowatt of electric power and is about 6.5 feet tall (1.9 meters). The prototype Kilopower uses a solid, cast uranium-235 reactor core, about the size of a paper towel roll. Reactor heat is transferred via passive sodium heat pipes, with the heat being converted to electricity by Stirling engines. Testing to gain TRL 5 started in November 2017 and continued into 2018.

      (TRL5 : entre technologie en développement et technologie en démonstration, quand c’est à TRL9, c’est que c’est déjà en fonctionnement)
      https://fr.wikipedia.org/wiki/Technology_readiness_level
      (ou en anglais)

      • nettement plus prospectif, les technologies dite de #fusion_froide (qui, comme chacun sait, n’est dit de la fusion ni froid…)
      p. ex. tout frais (janvier 2018) la technologie LENR
      https://steemit.com/news/@csulip/nasa-s-cold-fusion-tech-could-put-a-nuclear-reactor-in-every-home-car-and-p

      ou, un peu plus ancien (septembre 2017) annonce de dépôt de brevet sur le sujet par la NASA
      http://e-catworld.com/2017/09/19/lenr-at-nasa-new-patent-application-for-methods-and-apparatus-for-enhanc

    • Lorsque j’avais 12 ans, j’aimais beaucoup la fusion nucléaire pour sa promesse d’abondance infinie et pour ainsi dire gratuite, mais j’en suis revenu.
      La pollution de l’espace d’origine « humaine » peut sans doute être plus nucléarisée, tant que cela amuse du monde qui en a le pouvoir mais je ne vois vraiment pas l’intérêt (sauf pour certains et pour un certain « ordre ») de passer sur terre d’une dépendance séculaire au capitalisme fossile à un développement toujours plus fondé sur le nucléaire, selon une temporalité mesurable cette fois en (dizaine de) millénaires.
      edit : Le réacteur au thorium : une nouvelle impasse
      http://www.sortirdunucleaire.org/Le-reacteur-au-thorium-une-nouvelle-impasse

      Seul, le thorium n’est pas un combustible. L’intérêt est de le transformer en uranium 233. Pour cela, il doit être bombardé de neutrons. Par capture de neutrons, le thorium 232 se transforme après plusieurs étapes en uranium 233, qui est un élément fissile [7] performant, ce qui facilite les réactions en chaîne. [...]
      Le réacteur à sels fondus (RSF) est conçu pour être surgénérateur, c’est-à-dire générer plus d’uranium 233 qu’il n’en consomme. [...]

      Le démarrage du RSF : une difficulté majeure

      Le RSF est conçu pour produire plus d’uranium 233 qu’il n’en consomme. Encore faut-il pouvoir d’abord le charger en quantité suffisante de cet élément. L’uranium 233 n’existant pas à l’état naturel, les chercheurs proposent diverses solutions pour obtenir les 3,6 tonnes [16] nécessaires au démarrage :
      Tapisser le cœur d’un REP d’une couverture de thorium, puis récupérer l’uranium 233 produit. Des dizaines d’années seraient nécessaires pour obtenir la quantité requise au démarrage d’un 1er RSF [17]. Et avec un retraitement de 40 litres de sels par jour (cf. infra), il faudrait 56 ans pour démarrer un 2ème RSF avec l’uranium 233 extrait de ce 1er RSF.
      Ou encore démarrer un RSF où le thorium serait transformé par un mix : plutonium et actinides mineurs des REP, mélangés avec de l’uranium 233 ou avec de l’uranium enrichi à 13 %.
      Il n’est possible d’utiliser ni le plutonium seul (il en faudrait 13 tonnes, quantité non suffisamment soluble dans les sels), ni l’uranium enrichi seul, qui devrait être trop enrichi (à 25 %).

      Le RSF génèrerait d’importants déchets radioactifs

      Le RSF génèrerait d’importants déchets radioactifs qu’il faudrait traiter, stocker, surveiller pendant des centaines d’années, des milliers d’années pour certains.
      Ce seraient des produits de fission, en natures et quantités similaires à celles des réacteurs actuels. Hautement radioactifs pendant des centaines d’années, ces déchets sont classés dans la catégorie des plus dangereux : HAVL, Haute Activité à Vie Longue. Absorbeurs de neutrons, les produits de fission entravent la formation d’uranium 233, d’où la nécessité de les retirer. Gazeux, ils seraient extraits en continu par bullage d’hélium. Pour les autres qui sont solubles, 40 litres de sels seraient pompés chaque jour, d’où ils seraient extraits.
      Les actinides seraient remis dans le cœur sauf 0,1 % qui sortiraient en déchets, n’ayant pu être séparés des produits de fission. Le thorium produit un actinide mineur très radiotoxique, le protactinium 231 (période : 33 000 ans), qui n’existe qu’à l’état de traces dans la nature.
      Peu d’actinides mineurs sortiraient en déchets réguliers, mais le circuit primaire en contiendrait une forte quantité.
      Petit calcul… Un RSF d’une puissance de 1000 MWe requerrait une charge initiale d’environ 3,6 tonnes d’uranium 233 et 26 tonnes de thorium. En fonctionnement, à l’équilibre, il y aurait près d’1 % d’actinides mineurs, soit environ 300 kg. À comparer avec les 960 kg d’actinides mineurs compris dans les combustibles usés déchargés des REP chaque année, soit 17 kg par REP (960/58).
      La présence d’uranium 233 implique celle d’uranium 232 et de ses descendants (cf. supra). D’autres éléments se forment également. Le thorium n’est pas fissile, mais fissible, il peut fissionner sous un flux de neutrons rapides et générer des produits à période radioactive longue, comme le technétium 99 de période 215 000 ans.
      Il est avancé que le RSF nous débarrasserait des déchets nucléaires les plus difficiles à gérer. Mais une grande partie de ceux déjà produits sont vitrifiés et ne sont pas extractibles. En revanche, le RSF créerait des déchets radioactifs supplémentaires.
      De plus, la surgénération n’est possible qu’avec l’uranium et le thorium. Si le RSF était alimenté avec du plutonium ou d’autres actinides produits par le REF, il ne pourrait plus être surgénérateur. [...]

      Un réacteur surfait, qui n’est encore qu’un concept théorique

      Ce n’est que depuis 2008 que le RSF à neutrons rapides fait partie des 6 systèmes retenus par le Forum International Génération IV. Étudié au Laboratoire de Physique Subatomique de Grenoble, ce type de réacteur « n’existe aujourd’hui qu’à l’état de concept théorique » [25]. Les récentes publications du CNRS [26] l’attestent. Aucun réacteur de démonstration de ce type, même de faible puissance, n’a encore fonctionné. Sont ressassées les qualités de ce réacteur… mais technologiquement, le RSF est-il faisable ? Dans quel délai ? À quel coût ?
      Délai – « en partant du principe que la décision de passer au cycle thorium est prise vers 2040 – hypothèse prenant en compte la durée de vie des réacteurs actuels – le MSFR (RSF à neutrons rapides) est introduit à l’échelle industrielle en 2070 » estime Daniel Heuer [27], directeur de recherche au CNRS.
      Coût – « Nous avons l’espoir qu’il soit moins cher qu’un réacteur à eau pressurisée (...) Cela reste à vérifier » poursuit-il [28].
      En France, ni EDF-Areva, ni le Commissariat à l’Énergie Atomique ne semblent beaucoup s’y intéresser. Les premiers souhaitent avant tout rentabiliser les infrastructures industrielles de la filière uranium. Le second développe un prototype de surgénérateur au sodium (Astrid, 600 MWe) qui a bénéficié de 650 millions d’euros dans le cadre du grand emprunt national de 2010. Ce réacteur est l’axe prioritaire de recherche et développement. Est juste assurée « une veille technologique » pour le RSF [29], d’où les faibles crédits alloués à son étude.
      L’Ademe [30] a publié le 22 octobre 2015 le rapport « Vers un mix électrique 100 % renouvelable en 2050 » [31]. Il est montré que le scénario 100 % renouvelable est tout à fait réalisable, pour un coût raisonnable. Le RSF ? Le Réacteur où Se Fourvoyer, encore une impasse.

      #thorium #réacteur_à_sels_fondus #achtung #apologie

    • Au sujet de la fusion nucléaire après celui de la fission. Je me souviens d’un point de vue beaucoup plus optimiste qu’original par un maître de la SF. Monsieur Spinrad , sans boire ses paroles, j’attache plus d’importance à son avis sur ce sujet qu’à celui des scientifiques. ( je crois presque que la SF est une science ). Surement que ce qu’il dit est plus compréhensible et aussi parce que j’aime beaucoup ce que fait ce monsieur.
      Voici ce qu’il dit et pense de "La Crise de Transformation"

      Des hommes qui, au sens biologique, ont a peine plus évolué que les habitants des premières colonies humaines parvenues à maîtriser le feu.
      Et qui maintenant, pour le meilleur ou pour le pire, tiennent la puissance nucléaire entre leurs petites mains fébriles.
      Ce qui nous ramène au point où nous nous trouvons aujourd’hui.
      Tout aussi sûrement que le Big-Bang a impliqué la formation des planètes, tout aussi sûrement que la chimie organique a mené au développement de la vie et tout aussi sûrement que la conscience émerge de l’évolution de la bio-masse, toute espèce sensible qui évolue vers la science et la technologie va inévitablement un jour ou l’autre mettre les mains sur la puissance de l’atome et inévitablement se trouver en possession du moyen de détruire la biosphère qui lui a donné naissance.
      La destruction atomique n’est certainement pas le seul moyen de détruire la vie sur la Terre, mais c’est un moyen suffisant,ce qui veut dire que notre espèce est entrée dans sa Crise de Transformation parvenue à maturité avec les premières explosions nucléaires de 1945.

      Aussi, en fin de compte, I’étape suivante de notre évolution, celle que nous devons franchir si nous voulons traverser la #Crise_de_Transformation qui est la conséquence de ce qui s’est passé auparavant, n’est de nature ni biologique, ni scientifique, ni technologique, ni même politique.
      Nous devons atteindre le niveau de sensibilité morale et de conscience spirituelle indispensable pour parvenir à la viabilité à long terme de notre espèce. Il ne s’agit pas d’un voeu pieux désinvolte, mals d’impératif dur et froid de notre évolution. Toute espèce incapable de l’atteindre se détruira tôt ou tard en même temps que sa biosphère. Celles qui l’atteindront survivront. Il n’y aura pas d’autres survivants.
      Tandis que le progrès technologique capable de mener à une civilisation Transformationnelle stable à long terme se trouve dans l’avenir, c’est dans notre présent qu’existe le pouvoir de détruire notre espèce et notre biosphère.
      Aussi ne pouvons-nous laisser la responsabilité d’accomplir cette indispensable transformation spirituelle et morale à nos hypothétiques descendants.
      Nous sommes les générations de la Crise de Transformation.
      Faisons le travail comme il faut, ou bien nous n’en aurons plus aucun à faire.

      Ce ne sont que deux extraits, le texte entier est disponible avec ce lien : http://generationsf.ucoz.com/index/0-29

      Quelques liens pour aller plus loin avec #Norman_Spinrad
      La Spirale.org un site précieux pour moi et référencé ici sur @seenthis #laspirale
      https://laspirale.org/texte-152-norman-spinrad-pop-culture-chaos.html
      2 autres : http://www.nova.fr/novamag/8283/reve-de-fer-de-norman-spinrad
      https://sitamnesty.wordpress.com/2006/12/05/la-der-des-der-norman-spinrad


      Norman Spinrad qui aujourd’hui est un vieux monsieur a exploré cette question sur la crise transformationnelle de bien des façons. De lire ce texte aujourd’hui me met la larme à l’œil. J’aime vraiment beaucoup ce que vous faites monsieur Spinrad.

    • Je vais dans le sens de ce que dit @colporteur et c’est ce genre de réflexions que pousse @pmo depuis des années que ce soit sur les OGM, les téléphones mobiles, les nanos, Linky, etc : oui il y a très sûrement des problèmes sanitaires, des débats scientifiques, mais ça veut dire une bataille d’experts permanentes entre technocrates : « cette étude montre que c’est dangereux », « mais cette étude montre que non », « mais ensuite cette nouvelle étude montre que si », etc à l’infini. Alors que le débat doit être avant tout politique et social, est-ce que c’est appropriable, est-ce que ça nous rend plus libres, plus autonomes dans une communauté (pas individuellement !). Réflexions issues entre autre d’Illich et Ellul évidemment (pour ce qui concerne PMO).

    • Du côté de la science-fiction ...

      « L’accident, qui n’était que de la routine aux yeux de ceux qui travaillaient à la centrale,
      pouvait apparaître à d’autres personnes comme la preuve irréfutable que tout ce qui avait trait à l’énergie nucléaire était dangereux et que les centrales devaient être exilées le plus loin possible des centres urbains.« 
      Pure journée pour Doc Ferrel, médecin d’entreprise auprès d’une usine nucléaire. La présence d’une commission d’enquête rend les hommes nerveux et favorise les accidents. La peur règne en ville. Et Jorgenson, le plus qualfié des Ingénieurs, le plus irascible aussi, entreprend une réaction qui, mal dirigée, peut conduire au déchaînement de l’isotope R.
      Soudain, c’est la catastrophe...
      Dans ce roman, tiré d’une nouvelle initialement publiée en 1942, Lester del Rey a développé avec une prescience remarquable quelques-uns des problèmes soulevés depuis par l’industrie nucléaire.
      Un dossier concernant drains aspects sociaux de l’électronucléaire vient compléter cette œuvre exceptionnelle qui prend aujourd’hui valeur de document.

      https://www.noosfere.org/livres/niourf.asp?numlivre=355

      Crise, c’est un accident nucléaire dans le futur antérieur, car le roman, écrit en 1956, est issu d’une nouvelle publiée en 1942 dans Astounding #science-fiction. Dans sa préface et dans son article au dossier, Gérard Klein conjugue le nucléaire à la forme interrogative, et c’est une interrogation lucide, profonde et angoissée. Le scénario d’accident d’André-Clément Decouflé (dossier) est naturellement pensé au conditionnel ; mais il est rédigé au présent, avec brio. Georges Morlat représente dans ce débat le Commissariat à l’Energie Atomique et l’Electricité de France, c’est-à-dire peu ou prou le pouvoir. Pour le gouvernement de la France et ses agents, le #nucléaire est un impératif...
      Gérard Klein a écrit pour son dossier Les temps du nucléaire. Il ne s’agit plus ici de temps grammaticaux, mais d’une réflexion sur les temporalités distinctes mises en jeu par le projet #électro-nucléaire. Et c’est certainement la réflexion la plus intelligente et la plus passionnante que j’aie jamais lue sur ce sujet.
      Le livre, dans son ensemble, laisse apparaître nettement les qualités et les défauts de la science-fiction comme moyen d’appréhender la réalité. Négligeons le côté prophétique du roman de Lester del Rey qui est secondaire et, d’ailleurs, peu convaincant. Le récit, intense et captivant de bout en bout, illustre une célèbre réflexion d’André Maurois, que nos techniciens refusent obstinément de prendre en considération : toujours l’inattendu arrive. Et Lester del Rey montre avec précision et ingéniosité comment cet inattendu peut se glisser dans un programme de sécurité très serré.
      L’intégration du temps dans les mentalités, l’aptitude à imaginer l’avenir lointain sont aussi, pour une part, des conquêtes de la science-fiction. Dans le long terme, les spécialistes de science-fiction sont souvent plus convaincants que les futurologues. Et ne parlons pas des gouvernants ! « ... L’électro-nucléaire apparaît comme entrecroisant des temporalités distinctes, parfois contradictoires, et pour la plupart non maîtrisables en l’état actuel des connaissances théoriques et de la pratique, » écrit Gérard Klein page 259 (dossier). Il distingue ainsi le « temps technicien » qui correspond « à la durée nécessaire pour concevoir, réaliser, faire fonctionner et finalement démanteler une installation » ; le temps économique, « haché, imprévisible » ; le temps social, « celui dans lequel évoluent et s’affrontent les classes et catégories sociales », le temps historique qui « introduit l’échelle du siècle et (...) les relations internationales » ; le temps géologique, enfin, mis en cause par la durée de vie de certains produits de #fission (la période du plutonium est de 24000 ans).
      Chaque mot de ce texte est à lire et à peser. S’il fallait en extraire une seule phrase, je choisirais celle-ci : « Nous ne devons jamais rien léguer à nos descendants qui puisse les menacer et les détruire s’ils se retrouvaient ignorants et nus sur la surface de la Terre, » (p. 274). Je n’ai jamais rien entendu, jamais rien lu de plus fort, de plus définitif sur la question.
      Mais c’est une idée de science-fiction que nos descendants puissent se retrouver un jour ignorants et nus, et comme telle absolument inconcevable pour les technarques qui nous mènent. Un père de l’Eglise aurait mieux admis peut-être un monde sans Dieu qui n’eût été pour lui, après tout, que l’enfer. Voici donc un défaut de la science-fiction, qui tient à sa qualité même : ses visions, ses rêves et ses avertissements ne touchent que très peu d’humains, et pour ainsi dire jamais les hommes de pouvoir, rivés au présent.
      Un autre défaut du genre, sensible celui-ci dans le roman, c’est que la science-fiction, par nature et par vocation, fait le plus souvent la demande et la réponse. L’usine atomique de Kimberly, où se sont produits la crise et l’accident que décrit Lester del Rey avec un immense talent, est plus une fabrique d’isotopes « lourds » qu’une centrale nucléaire productrice d’énergie. La nouvelle, à l’origine, avait été classée document secret, et cela souligne le coté prophétique de l’œuvre. Néanmoins ou par conséquent, je ne sais, les problèmes spécifiques de cette #centrale, l’auteur les a, pour une large part, inventés, ce qui lui permet d’inventer du même coup la solution. Une solution technologique, naturellement. Détail romanesque, ce sera un jeune médecin, physicien amateur, qui sauvera l’usine, la ville et peut-être la moitié du continent nord-américain menacés de destruction par le redoutable « isotope R ». Les lecteurs de science-fiction admettront que ces choses-là sont possibles ; qu’il est même probable que l’on rencontre un jour un isotope infiniment dangereux, ou n’importe quoi de ce genre. Ils reconnaîtront que la technologie pourrait dans ce cas juguler la menace créée par elle ; mais ils sauront que ce n’est pas une certitude et que le risque est grand.
      Les #technarques et leurs peu humbles serviteurs s’estimeront non concernés. L’hypothèse sera pour eux méprisable : de la science-fiction.
      Quoi qu’il en soit, le #roman de Lester del Rey est extrêmement intéressant. Le décor est décrit avec une précision hallucinante. Les personnages secondaires sont vivants et vrais, au point de rejeter parfois dans la grisaille le personnage central, le brave docteur Ferrel. Le suspense est maintenu jusqu’à la dernière ligne, ou presque. La conclusion rappelle que le roman a été écrit en 1956 : domestiqué, le méchant isotope R servira à fabriquer un carburant pour les #fusées. Le ciel était au fond de l’enfer.

      Michel JEURY
      Première parution : 1/6/1978 dans Fiction 291

      #anthologie #post_catastrophe


      Mines et Mineurs #anthologie

      Mines, mineurs et géologues

      Chaque année, depuis 1974, les professionnels français de la Science-fiction ont l’occasion de se rencontrer lors de leur convention annuelle. En 2006, celle-ci est organisée à Bellaing, dans le Nord (France) du 24 au 27 août. Les nouvelles rassemblées dans ce volume ont été pour la plupart spécialement écrites par des auteurs participants à la manifestation.
      Tous les auteurs de science fiction ne sont pas des géologues, et toutes les planètes ne seront sans doute pas vouées à l’exploitation minière. Mais il n’empêche que plusieurs auteurs de SF sont ou furent effectivement des géologues (Ivan Efremov, Francis Carsac, etc.), et que le thème minier revient dans de nombreuses œuvres du genre.
      Cela, joint au fait que la convention 2006 se tient à deux pas d’un des derniers sites historiques d’exploitation minière du bassin du Nord-Pas-de-Calais, a fourni à l’organisateur, qui reçut lui-même une formation de géologue, le thème de ce recueil.
      Merci à tous ceux qui auront participé à la convention de Bellaing 2006. à tous ceux qui l’auront rendue possible, à tous ceux qui à un titre ou à un autre, ont donné leur coup de pioche pour que cette mine produise !

      https://www.noosfere.org/livres/niourf.asp?numlivre=2146572818

      Dans le monde diplomatique et ses livres du mois @mdiplo
      "Enquêteurs galactiques et communauté stellaires"
      « 2312 », de Kim Stanley Robinson
      https://www.monde-diplomatique.fr/2018/02/MELAN/58365

  • Lettre ouverte au NPD de la Colombie-Britannique concernant la conduite de Morgane Oger, qui en occupe la vice-présidence
    http://tradfem.wordpress.com/2018/02/12/lettre-ouverte-au-npd-de-la-colombie-britannique-concernant-la-co

    Quelque 140 Canadiennes et Canadiens ont déjà cosigné la lettre ci-dessous exigeant que le NPD de la Colombie-Britannique condamne le comportement de M. Oger. (...)
    Messieurs, Mesdames,

    Nous, les soussigné·e·s, sommes des Canadien·ne·s profondément préoccupé·e·s par les récentes déclarations publiques et comportements de M. Oger, qui occupe la vice-présidence du NPD de la Colombie-Britannique.

    Le 20 janvier dernier, des Marches des femmes ont eu lieu partout en Amérique du Nord. D’abord mises sur pied par indignation face à l’élection de Donald Trump et à ses vantardises d’inconduite sexuelle, ces marches ont été galvanisées cette année partout au monde par la campagne #MeToo, dans un élan de solidarité et d’action. Nous ne pouvons plus nier que les femmes et les filles du monde entier continuent de subir des agressions et du harcèlement dans tous les domaines de la vie, aux mains des hommes.

    Traduction : #Tradfem
    Version originale : http://www.feministcurrent.com/2018/02/10/open-letter-bc-ndp-regarding-conduct-bc-ndp-vice-president-morgane-

    #trans #discours_haineux #Canada #identité_de_genre #NPD #Colombie-Britannique

  • Pour tou.te.s les géographes ici :

    Pour une géographie anarchiste
    Simon Springer
    Traduit de l’anglais par Nicolas Calvé
    Lux Editeur
    Parution en Amérique du Nord : 25 janvier 2018
    Parution en Europe : 15 mars 2018
    http://www.luxediteur.com/catalogue/pour-une-geographie-anarchiste

    Grâce aux ouvrages de David Harvey, Mike Davis ou même Henri Lefebvre, on connaît aujourd’hui la géographie radicale ou critique née dans le contexte des luttes politiques des années 1960 aux États-Unis et qui a, comme le disait Harvey, donné à Marx « la dimension spatiale qui lui manquait ». Dans ce livre, Simon Springer enjoint aux géographes critiques de se radicaliser davantage et appelle à la création d’une géographie insurrectionnelle qui reconnaisse l’aspect kaléidoscopique des espaces et son potentiel émancipateur, révélé à la fin du XIXe siècle par Élisée Reclus et Pierre Kropotkine, notamment.

    L’histoire de l’humanité est une longue suite d’expériences dans et avec l’espace ; or aujourd’hui, la stase qui est imposée à ces mouvements vitaux, principalement par les frontières, menace notre survie. Face au désastre climatique et humain qui nous guette, il est indispensable de revoir les relations que nous entretenons avec le monde et une géographie rebelle comme celle que défend Springer nous libérerait du carcan de l’attentisme. Il faut se défaire une bonne fois pour toutes des géographies hiérarchiques qui nous enchaînent à l’étatisme, au capitalisme, à la discrimination et à l’impérialisme. « La géographie doit devenir belle, se vouer entièrement à l’émancipation. »

    #géographie #anarchisme #Simon_Springer #Lux

  • Francophonie, langue française : lettre ouverte à Emmanuel Macron
    https://bibliobs.nouvelobs.com/actualites/20180115.OBS0631/francophonie-langue-francaise-lettre-ouverte-a-emmanuel-macron.h

    Par Alain Mabanckou

    Qu’est-ce qui a changé de nos jours ? La Francophonie est malheureusement encore perçue comme la continuation de la politique étrangère de la France dans ses anciennes colonies. Repenser la Francophonie ce n’est pas seulement « protéger » la langue française qui, du reste n’est pas du tout menacée comme on a tendance à le proclamer dans un élan d’auto-flagellation propre à la France. La culture et la langue françaises gardent leur prestige sur le plan mondial.

    Les meilleurs spécialistes de la littérature française du Moyen-Âge sont américains. Les étudiants d’Amérique du Nord sont plus sensibilisés aux lettres francophones que leurs camarades français. La plupart des universités américaines créent et financent sans l’aide de la France des départements de littérature française et d’études francophones. Les écrivains qui ne sont pas nés en France et qui écrivent en français sont pour la plupart traduits en anglais : Ahmadou Kourouma, Anna Moï, Boualem Sansal, Tierno Monénembo, Abdourahman Waberi, Ken Bugul, Véronique Tadjo, Tahar Ben Jelloun, Aminata Sow Fall, Mariama Bâ, etc. La littérature française ne peut plus se contenter de la définition étriquée qui, à la longue, a fini par la marginaliser alors même que ses tentacules ne cessent de croître grâce à l’émergence d’un imaginaire-monde en français.

    Tous les deux, nous avions eu à cet effet un échange à la Foire du livre de Francfort en octobre dernier, et je vous avais signifié publiquement mon désaccord quant à votre discours d’ouverture dans lequel vous n’aviez cité aucun auteur d’expression française venu d’ailleurs, vous contentant de porter au pinacle Goethe et Gérard de Nerval et d’affirmer que « l’Allemagne accueillait la France et la Francophonie », comme si la France n’était pas un pays francophone !

    #Francophonie #Alain_Mabanckou

  • Une nouvelle façon de prédire les événements météo extrêmes

    http://www.lemonde.fr/sciences/article/2018/01/11/une-nouvelle-facon-de-predire-les-evenements-meteo-extremes_5240427_1650684.

    Une équipe lyonnaise a mis au point un modèle prometteur pour évaluer les probabilités de survenue de phénomènes rares.

    Les assureurs vont être ­contents. Une méthode mathématique devrait leur permettre d’évaluer les probabilités d’occurrence d’événements météorologiques extrêmes mais, par nature, rares. Et qui coûtent très cher, comme l’ont montré les canicules de l’été 2003 en France ou les passages dévastateurs ­successifs, fin août 2017, des ouragans Harvey et Irma dans l’océan Atlantique.

    Pour estimer les risques et calculer les montants des polices d’assurance, il est nécessaire d’avoir de bonnes estimations du pire à venir. Jusque-là, il n’y avait que deux méthodes, chacune avec leur défaut.

    On peut utiliser les données du passé pour recenser les fortes ­chaleurs, les tempêtes, les pluies diluviennes… Mais souvent, on ne dispose pas de données précises sur plus d’un siècle, ce qui offre un recul insuffisant pour estimer une probabilité sur des cas extrêmes.

    L’autre méthode est de simuler numériquement l’évolution du climat sur plusieurs années dans le futur et de compter combien de fois ces événements extrêmes ont lieu dans ces avenirs numériques. Le défaut est ici que ce genre de calculs est coûteux en temps et qu’il est donc limité pour les périodes dépassant le siècle. Ce qui peut « tromper » les estimations sur les « temps de retour ».

    D’où l’intérêt de la méthode présentée dans les PNAS ,le 20 décembre 2017, par Francesco Ragone, ­Jeroen Wouters et Freddy Bouchet de l’ENS Lyon.

    Ces chercheurs ont évalué les temps de retour de vagues de chaleur d’au moins 90 jours dépassant les normales saisonnières, en étant cent à mille fois plus ­efficaces que les simulations. Autrement dit en réduisant d’autant les temps de calcul. « Cette amélioration permet d’envisager des études impossibles ­jusqu’à présent », indique Freddy Bouchet, directeur de recherche au CNRS, à l’origine du projet. « C’est un progrès technique avec beaucoup de promesses », estime Pascal Yiou, du CEA, qui espère collaborer avec ses collègues lyonnais pour un futur projet.

    Inspiré de la génétique

    L’idée est astucieuse et a été développée depuis une dizaine d’années par des mathématiciens pour des domaines où apparaissent des « cygnes noirs », comme des réactions chimiques, des ­effets magnétiques… « C’est la première fois que c’est appliqué au ­climat », souligne Freddy Bouchet.

    La philosophie s’inspire de la ­sélection génétique. Un modèle climatique est utilisé pour simuler plusieurs évolutions de l’atmosphère, dont un grand nombre, par définition, ne présenteront pas de « dérapages » (forte tempête, chaleur…). Les chercheurs « sélectionnent » parmi les trajectoires celles qui ont le plus de chance de conduire à un extrême. Puis ils recommencent la simulation, pour de nouveau conserver les trajectoires déviantes. Et relancer à nouveau… Bien entendu, ce processus de sélection respecte des contraintes statistiques globales afin de ne pas exagérer la ­probabilité des événements rares.

    Et ça marche. Pour le vérifier, les chercheurs ont comparé leurs ­résultats avec ceux tirés de simulations sur presque mille ans et constaté le bon accord. Mais eux peuvent ensuite pousser leur estimation jusqu’à un million d’années. Ils ont aussi remarqué des corrélations géographiques cohérentes : si des fortes chaleurs s’abattent sur l’Europe, alors l’Amérique du Nord sera aussi touchée. Et la Russie sera frigorifiée.

    Précision à améliorer

    L’une des limites du modèle est cependant qu’à chaque type d’extrême, il faut développer un nouvel algorithme nécessitant de bien saisir le phénomène en jeu. « Ce n’est pas facile. Il faut comprendre le modèle climatique utilisé, savoir comment sélectionner les trajec­toires… », note Freddy Bouchet, qui envisage de tester maintenant la méthode sur les cyclones.

    Une autre limite est que le calcul a été fait à partir de modèles ­climatiques réputés, mais connus pour être moins précis que les meilleurs utilisés, notamment dans les évaluations du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC). Les probabilités de retour trouvées ne sont donc pour l’instant pas utilisables par les assureurs.

    « C’est une preuve de concept et nous allons collaborer avec des spécialistes de ces meilleurs ­modèles pour améliorer la précision », précise Freddy Bouchet, dont le travail a été financé par le fonds pour la recherche de l’assureur Axa.

  • http://www.alaindister.com

    Photographe et écrivain, Alain Dister a été le témoin privilégié de la culture rock, des années 60 à 2008.
    Du Summer of Love de San Francisco aux punks japonais des années 1990, on le trouve constamment sur les scènes émergentes, aux côtés de Jimi Hendrix, Led Zeppelin, Pink Floyd, Frank Zappa...
    Reporter légendaire des premières heures de Rock & Folk, il écrit de nombreux ouvrages sur les musiques, les contre-cultures, leurs grandes figures.
    Son travail photographique, entre documentaire et création, témoigne d’une approche singulière, à la fois tendre et objective, sur plusieurs générations de la Youth Culture.
    Il photographie, raconte les concerts, les rassemblements historiques, mais aussi les groupes backstage.
    Marqué par la Beat Generation, il rencontre souvent ses principaux acteurs comme Ginsberg ou Corso, et traverse pendant quarante ans l’Amérique du Nord en tous sens, captant au passage les routes, paysages, ambiances, bikers, motels, frontières, graffitis.
    Devenu lui-même une icône rock, l’emblème du rock critic, Alain Dister a exposé son travail de photographe dans des musées et galeries du monde entier.

    Né à Lyon, le 25 décembre 1941, Alain Dister est décédé à Paris, le 2 juillet 2008.

    #Alain_Dister #photographie

  • Mondial 2022 : une enquête ouverte sur un virement suspect provenant du Qatar
    http://www.lemonde.fr/sport-et-societe/article/2017/11/27/mondial-2022-une-enquete-ouverte-sur-un-virement-suspect-provenant-du-qatar_

    Nouveau rebondissement dans le scandale de corruption sur l’attribution de la Coupe du monde de football 2022. Dimanche 26 novembre, le site Mediapart rapporte que la justice brésilienne et le FBI enquêtent sur un virement de 22 millions de dollars, effectué par le Qatar.

    Les procureurs brésilien et américain ont décortiqué les relevés bancaires de l’ancien patron de la Fédération brésilienne de football (CBF), Ricardo Teixeira, qui avait ouvert un compte chez Pasche Monaco – un établissement basé en Suisse et contrôlé par le Crédit mutuel jusqu’en 2013.

    Ils ont alors remarqué qu’un versement de 22 millions de dollars, en provenance du groupe qatari Ghanim Bin Saad Al-Saad & Sons Group (CSSG), a été effectué sur ce compte bancaire en janvier 2011, peu de temps après l’attribution par vote du Mondial 2022 au Qatar. Mediapart rappelle alors que le CSSG, « dirigé par l’homme d’affaires Ghanim Bin Saad Al-Saad, est au cœur des soupçons de corruption sur [cette] attribution ».

    Visé par une enquête pour blanchiment d’argent et fraude entre 2009 et 2012, Ricardo Teixeira, patron de la puissante Fédération brésilienne depuis 1989, avait démissionné de ses fonctions en 2012. Il était l’un des membres du comité exécutif de la Fédération internationale de football (FIFA) qui ont participé, en décembre 2010, au vote attribuant les Coupes du monde 2018 et 2022 à la Russie et au Qatar.

    Ricardo Teixeira est alors « suspecté d’avoir pris part au système présumé visant à acheter des votes pour le Qatar parmi les 22 électeurs de la FIFA ». Mais pas seulement pour son vote : « début 2013, plusieurs virements sont, en effet, émis le même jour depuis son compte, à destination de personnes physiques désignées ainsi : “Warner Bros” [Jack Warner était alors président de la Confédération de football d’Amérique du Nord, Amérique centrale et Caraïbes], “Mohammed” [Mohamed Bin Hammam, président de la Confédération de football asiatique] et “Leoz” [Nicolas Leoz, président de la Confédération d’Amérique du Sud] », nous apprend le site d’information. L’ancien patron du foot brésilien fait l’objet d’un mandat d’arrêt international pour corruption émis par le département de la justice.

  • Un siècle de syndicalisme noir à Montréal Le Devoir - Steven High 21 Novembre 2017 _
    http://www.ledevoir.com/societe/actualites-en-societe/513496/un-siecle-de-syndicalisme-noir-a-montreal

    Si le Québec n’a jamais eu de système de pancartes « réservé aux Blancs » comme celui qui avait cours dans le sud des États-Unis durant la période Jim Crow, il a néanmoins connu l’esclavagisme et le racisme généralisé.

    Pendant une bonne partie du XXe siècle, les Montréalais noirs ne savaient jamais s’ils seraient accueillis dans les bars, restaurants, cinémas ou magasins. Les propriétaires avaient le droit de servir qui ils voulaient.


    C’est ainsi qu’en 1936, le résidant de Verdun Fred Christie a éprouvé la vexation de se faire refuser le service dans un bar du Forum. Des années plus tard, durant l’Expo 67, des touristes noirs se sont vu refuser l’hébergement à l’hôtel. Les Noirs subissaient également de la discrimination au travail. Seules quelques rares usines les engageaient avant la Seconde Guerre mondiale.

    Jusqu’aux années 1950, la plupart des hommes noirs de la ville travaillaient pour les compagnies de chemin de fer comme préposés aux voitures-lits ou porteurs, ainsi qu’à certains postes des voitures-restaurants. Seuls des hommes noirs étaient embauchés pour ces emplois. La communauté historique des Noirs anglophones de Montréal s’est donc installée dans ce qui constitue aujourd’hui la Petite-Bourgogne, vu la grande proximité du secteur de la gare Windsor et de l’ancienne gare Bonaventure.

    La tâche des employés des voitures-lits était difficile. Les porteurs étaient tenus à la plus grande courtoisie,malgré le racisme qu’ils essuyaient. Ils étaient donc à la merci des plaintes du public.

    Prise de conscience
    Si les cheminots noirs occupaient les emplois les moins bien rémunérés dans les compagnies de chemin de fer, ils jouissaient en revanche d’un statut social élevé au sein de leur communauté. Souvent très instruits, ces hommes avaient en outre beaucoup voyagé. Leur mobilité offrait des avantages et contribuait à une prise de conscience politique des problèmes auxquels les Noirs faisaient face en Amérique du Nord.

    Des préposés aux voitures-lits et leurs femmes ont participé à la fondation de presque toutes les institutions de la communauté noire à Montréal avant 1950. Par exemple, le Colored Women’s Club a été créé en 1902 par quinze femmes d’employés des voitures-lits. La section locale de l’Universal Negro Improvement Association, établie en 1919, a également été formée par des porteurs. Saviez-vous que Louise Langdon, mère de Malcom X, a déjà milité dans cette association ?

    La Union United Church et le Centre communautaire des Noirs, établis respectivement en 1907 et en 1927, entretenaient eux aussi des liens étroits avec les porteurs. Et même le père du légendaire pianiste de jazz Oscar Peterson exerçait ce métier.

    Au début, les bagagistes noirs ne reçoivent aucune aide de la part des syndicats en place. Au contraire, les syndicats ferroviaires blancs refusent d’admettre les Noirs comme membres. La suprématie de la race blanche est la norme à l’époque. En réaction à ce phénomène, en 1917, il y a 100 ans, les porteurs noirs fondent leur propre syndicat — l’Order of Sleeping

    Longue lutte
    Les syndiqués noirs se heurtent à l’opposition farouche des compagnies de chemin de fer, qui préfèrent voir leurs bagagistes travailler docilement et à bon marché. Si le syndicat parvient à s’établir dans les compagnies de chemins de fer du Grand Tronc et Canadien National, celle du Canadien Pacifique congédie expéditivement ses militants syndicaux noirs.

    L’Order of Sleeping Car Porters dépose une demande d’affiliation auprès du Congrès des métiers et du travail du Canada. La demande est toutefois transmise à la Fraternité canadienne des cheminots — le syndicat de mon père — qui est alors l’autorité compétente en la matière. Ce syndicat est exclusivement canadien, chose rare à l’époque. En outre, il classe les ouvriers par industrie et cherche donc à prendre en charge toutes les catégories de cheminots. Tout le monde, en fait, sauf les porteurs noirs. Pour accepter les porteurs, la Fraternité canadienne des cheminots doit d’abord éliminer sa clause limitant le droit d’adhésion aux hommes de race blanche. La première tentative échoue en 1918, mais un vote ultérieur aboutit. Deux des quatre sections noires du syndicat sont établies dans la Petite-Bourgogne.

    Les préposés aux voitures-lits du Canadien Pacifique se syndiquent enfin pendant la Seconde Guerre mondiale. A. Philip Randolph, future icône des droits civils et président de la Brotherhood of Sleeping Car Porters américaine — syndicat exclusivement noir fondé en 1925 —, séjourne à Montréal en juillet 1939 pour prendre la parole lors d’une grande réunion publique à l’UNIA Hall. Une campagne d’organisation syndicale fructueuse s’ensuit, et un premier contrat est obtenu en mars 1945.

    Après des années de lutte, les cheminots noirs mettent enfin un terme à la ségrégation raciale à bord des trains voyageurs canadiens dans les années 1960. Rappelez-vous cette histoire la prochaine fois que vous monterez dans un train ou que vous passerez par la gare Centrale de Montréal.

    #Canada #Quebec #esclavagisme #racisme #Montréal #Expo_67 #discrimination #Syndicats

  • Black Friday : toutes les bonnes affaires hardware en temps réel
    http://www.tomshardware.fr/articles/black-friday-bonnes-affaires-promo-soldes,2-2574.html#xtor=RSS-100

    C’est la nouvelle coutume annuelle. Les revendeurs organisent de grandes soldes à la suite de Thanksgiving en Amérique du Nord, et l’Europe a désormais repris l’idée pour le plus grand plaisir des consommateurs : c’est le Black Friday.

  • Amérique du Nord / Portfolio : Detroit / In the D : Urbanités

    http://www.revue-urbanites.fr/portfolio-in-the-d

    Magnifique série de photos de #Detroit par Flaminia Paddeu : beau et simple.

    Ces photographies ne sont pas des objets esthétiques, elles reflètent le paysage quotidien de mon terrain de recherche à Detroit, en particulier dans l’East Side, un quartier durement touché par la détérioration de la ville1. En les réalisant au printemps 2012, j’ai essayé de me garder du ruin porn, cette fascination esthétique pour les bâtiments en ruine des villes en déclin. Il est vrai que la tentation de l’exploration des usines et des immeubles abandonnés est forte. Faire l’expérience de l’immense Packard Plant, totalement ravagée sur 300 000 m², est absolument inouï. Le moindre cliché photographique, tant la ville est presque partout dépeuplée et dévastée, flirte avec le ruin porn. Mais moins que la facilité de ces photos de ruines immobiles, le problème du ruin porn, c’est l’absence d’explicitation des mécanismes qui ont conduit à cet état, c’est le risque d’oblitération d’une réflexion systémique sur les problèmes, et de prise en compte de ceux qui les subissent. La décontextualisation – permise par la diffusion de masse des images sur internet – occulte les causalités ; conforte la fascination pour le beau. Elle renforce aussi les clichés d’une ville en déclin – les spécialistes parlent de shrinking city – entièrement vidée de ses habitants.

  • Google Maps, des #frontières à la carte pour ne froisser personne

    https://tempsreel.nouvelobs.com/les-internets/20150602.OBS9998/google-maps-des-frontieres-a-la-carte-pour-ne-froisser-personne

    Classique et connu, mais toujours bon de le rappeller.

    Il y a tout juste une décennie, le 8 février 2005, Google annonçait le lancement d’un service de cartographie maison qui allait vite devenir incontournable, d’abord en Amérique du Nord puis en Europe : « Maps ». Avec des fonctions comme le calcul d’itinéraires, la vision satellite et les vues photographiques à 360° de portions de route (Street View, 2007), sa popularité a vite dépassé le français Mappy ou le britannique participatif OpenStreetMap, avant d’être imité par « Bing Maps » en 2010.

    A l’été 2014, Google Maps a dépassé le milliard de téléchargements sur Android... tout en étant utilisé par un milliard d’internautes par mois. Et ne devrait pas s’arrêter en si bon chemin puisque Google a annoncé il y a quelques jours que l’application serait désormais entièrement utilisable hors-connexion afin de faciliter son expansion dans les pays en voie de développement numérique. Un futur monopole mondial qui inquiète, car le service n’est pas épargné par les critiques.

    #inde #chine #frontières #conflits_frontaliers #pakistan

  • Les lentilles : le remède à la faim dans le monde
    https://www.arte.tv/fr/videos/065803-000-A/les-lentilles-le-remede-a-la-faim-dans-le-monde

    Cette plante modeste, cultivée aussi bien en Inde qu’en Éthiopie ou en Amérique du Nord, suscite d’immenses espoirs. Non seulement cette #légumineuse s’acclimate à merveille aux régions arides, mais elle a également la particularité de capter l’azote de l’air pour le stocker dans ses tubercules – ce qui en fait un fertilisant naturel. La #lentille regorge par ailleurs de #protéines – autour de 25 %, plus que certaines viandes ! –, de #minéraux et d’#oligoéléments. Il suffit de la compléter d’une céréale, comme du riz complet, pour composer un repas équilibré. Variétés plus robustes Misant sur les nombreux atouts de cette plante, des chercheurs du monde entier travaillent à mettre au point des variétés plus robustes, plus productives et plus riches en éléments essentiels, mais aussi à maturité rapide, adaptées à l’alternance des cultures pratiquée par les petits paysans des pays pauvres. Enrichies par croisements en fer ou en zinc, les lentilles pourraient apporter une solution à la « faim invisible » que représentent les carences alimentaires. Détrônant l’Inde, le Canada en est le plus grand producteur mondial. Face à la double urgence du réchauffement climatique et de la croissance démographique, les résultats des recherches en la matière combleront-ils les attentes ?

    #alimentation #agriculture

  • Phytolacca americana L - Phytolacca_americana_L.pdf
    http://www.codeplantesenvahissantes.fr/fileadmin/PEE_Ressources/TELECHARGEMENT/Phytolacca_americana_L.pdf

    Scientific Name(s): Phytolacca americana L. Family: Phytolaccaceae

    Common Name(s): American nightshade , cancer jalap , cancerroot , chongras , coakum , pokeberry , crowberry , garget , inkberry , pigeonberry , poke , red ink plant , scoke

    #raisin_américain

    #saponines

    #Couplan

    #phytothérapie

    Les jeunes pousses peuvent être consommées si elles sont cuites plusieurs fois dans l’eau bouillante. Cet usage était répandu en Amérique du Nord chez les indiens qui la nommaient Pocan, (d’où son nom anglais Pokeweed) (Couplan, 2015). Une chanson d’Elvis Presley intitulée « Polk salad Annie » fait ainsi référence à la plante.

    Le phytolaque est utilisé dans la médecine homéopathique pour soulager un grand nombre de maux, de l’obésité à des pathologies inflammatoires (Ravikiran, 2011). Ces usages médicinaux de la plante sont détaillés dans Schmelzer (2008) qui précise les molécules impliquées : des phytolaccosides et des esculentosides (Schmelzer, 2008). On recense de nombreuses études menées sur les propriétés de ces molécules en raison de leur puissante activité anti-VIH. Le Galliot (2012)
    recense l’état des lieux des connaissances actuelles et rec
    herches en cours sur les propriétés chimiques au sein du genre Phytolacca (Le Gaillot, 2012). Le phytolaque d’Amérique a été utilisé pour teinter les vins (pratique interdite aujourd’hui) ainsi que dans l’industrie textile avant d’être remplacée notamment par la garance (Rubia tinctorum) dont la solidité de la teinture servira pour les uniformes rouges de l’armée française (Hammiche, 2013).

    http://herbierdicietdailleurs.eklablog.com/phytolacca-americana-raisin-d-amerique-a47458794

  • Les racines culturelles de l’#anti-environnementalisme de Trump – La pensée écologique
    http://lapenseeecologique.com/les-racines-culturelles-de-lanti-environnementalisme-de-trump

    La trajectoire culturelle de cette nation commence tôt. Aux yeux des colons européens (ou envahisseurs – à vous de choisir), les #richesses naturelles de l’Amérique du Nord paraissaient incommensurables. Les contraintes économiques sur l’utilisation des #ressources, fondées sur leur #rareté dans le Vieux Monde, ne semblaient guère nécessaires face à une telle #abondance. A mesure que les colons se dispersaient, leurs manières de consommer et d’affecter des terres ont stupéfié leurs visiteurs européens, en raison de leur #gaspillage volontaire. Au dire de l’historien Bill Cronon, « l’abondance écologique et la prodigalité économique allaient de pair » ; « le peuple de l’abondance » dans la Nouvelle-Angleterre coloniale est devenu « un peuple du gaspillage[2]. » Ce que l’historien Daniel Worster a récemment nommé « la théorie du feu vert » guidait la nouvelle culture[3]. Disposant de ressources aussi vastes, pourquoi l’Amérique ne foncerait-elle pas vers l’avenir ?

    Aujourd’hui, cet élément clé de la culture américaine – ce mélange d’abondance apparente, de liberté, d’individualisme et de capitalisme – reste fort, en dépit de cent-cinquante années d’efforts pour le contrer. La technologie et la croissance de la population ont joué des rôles importants dans notre abus de la nature. Mais notre culture est encore plus influente. Nous nous servons de la nature et nous en abusons en raison de nos façons de la percevoir et de la valoriser, en raison de nos manières de penser notre rapport à elle et de nos rapports sociaux, en raison de notre confiance – ébranlée mais toujours significative – dans notre capacité, fondée sur notre prétendu statut moral unique, d’aller de l’avant n’importe comment, en surmontant des pénuries, en nettoyant nos dégâts et en maintenant la nature sous nos talons.

  • Le dégel du permafrost, l’autre menace climatique qui inquiète les chercheurs

    http://www.lemonde.fr/sciences/article/2017/10/09/le-permafrost-l-autre-menace-climatique_5198486_1650684.html

    Le réchauffement climatique entraîne le dégel de ce permafrost, libérant des gaz à effet de serre qui accélèrent le phénomène.

    Naviguer entre les 1 500 îles disséminées dans le delta de la Léna requiert une concentration sans faille, un œil fixé sur le radar du bateau pour éviter les bancs de sable, un autre à l’affût des amers côtiers qui ponctuent cette immensité de terre et d’eau. Avant de se jeter dans la mer de Laptev, au nord de la Sibérie, le fleuve est si large que ses rives dessinent un trait flou sur la ligne d’horizon.

    L’île de Samoïlov est reconnaissable à la cabane en bois, construite près du rivage, où cohabitent quelques scientifiques et les gardes de la réserve naturelle qui couvre l’embouchure du fleuve et les contreforts des monts Karaoulakh. Or une lente et irréversible érosion menace de livrer le petit édifice aux flots de la Léna. A terme, c’est l’île elle-même qui pourrait disparaître. Les fortes crues qui suivent la fonte des glaces, au printemps, fragilisent les côtes de Samoïlov.

    Mais l’îlot de 5 km2 pâtit surtout de la dégradation du permafrost sous l’effet du réchauffement climatique. Appelés aussi pergélisol, ces sols dont la couche supérieure dégèle en saison chaude conservent en profondeur une température en dessous de zéro degré pendant au moins deux ans consécutifs.

    « L’écosystème de Samoïlov fait face à une potentielle extinction », conclut prudemment un article de la revue Biogeosciences consacré à l’étude du site. Pour l’Allemande Julia Boike, qui a coordonné l’étude, et ses collègues de l’Institut Alfred Wegener pour la recherche polaire et marine (AWI), pas question de se résoudre à cette perspective.

    Chaque année, d’avril à septembre, les chercheurs de l’AWI et leurs partenaires russes de l’Institut de recherche sur l’Arctique et l’Antarctique de Saint-Pétersbourg et de l’Institut Melnikov du permafrost de Iakoutsk se relaient sur Samoïlov afin d’y étudier l’altération des sols sédimentaires, les transformations du paysage et les interactions entre réchauffement du climat et dégel du permafrost.


    En mission en septembre sur Kouroungnakh, l’île voisine de Samoïlov, un groupe de scientifiques allemands examinent la dégradation d’un type de permafrost très riche en glace.

    Deux tiers de la superficie russe

    L’île, équipée d’une station de recherche moderne financée par l’Institut Trofimouk du pétrole, de géologie et de géophysique de Novossibirsk, est un poste d’observation privilégié : le pergélisol occupe 95 % du territoire sibérien et les deux tiers de la superficie russe. A plus large échelle, les sols gelés couvrent le quart de l’hémisphère Nord, principalement en Alaska, au Canada, au Groenland, en Russie et en Chine.

    L’Europe occidentale se distingue par un permafrost de type alpin, présent dans plusieurs massifs montagneux. D’une composition et d’une géodynamique différentes de celles de son cousin des hautes latitudes, il est sensible, comme lui, aux variations climatiques. Le 23 août, un glissement de terrain provoqué par le dégel du pergélisol a emporté huit randonneurs près du village suisse de Bondo.

    « Le permafrost sibérien est à certains endroits très ancien, pouvant remonter au pléistocène [– 2,6 millions d’années à – 11 000 ans], avance Julia Boike. Il est très froid, à une température de – 9 °C environ, et il est très profond. On en a trouvé à près de 1 500 mètres de profondeur dans le nord de la Iakoutie. »


    Depuis 1998, des chercheurs allemands se relaient chaque année dans le delta de la Léna pour étudier les sols gelés.

    « A Samoïlov, il a pour autre caractéristique d’être relativement stable et très riche en matières organiques avec la présence de tourbières », ajoute l’enseignante-chercheuse avant d’enfiler d’épaisses bottes en plastique, indispensables pour progresser dans la toundra spongieuse qui domine à la surface de Samoïlov. Les jeunes doctorants qui l’accompagnent, ce matin de septembre, embarquent avec elle pour Kouroungnakh. L’île voisine présente d’imposants complexes de glace et un relief modelé par les thermokarsts, ces affaissements de terrains anciennement gelés.

    Les vallées arpentées six heures durant par les chercheurs de l’AWI ruissellent d’eau. « Nous voulons comprendre si l’eau qui irrigue le terrain provient des précipitations saisonnières ou si elle résulte des blocs de glace qui fondent avec la dégradation des sols », explique la géomorphologue Anne Morgenstern, sac à dos rempli d’échantillons d’eau prélevés tout au long du trajet et carnet de notes à portée de main.

    Une sorte d’immense congélateur

    Le réchauffement du permafrost, en Sibérie comme dans les autres régions où les scientifiques ont déployé leurs instruments de mesures, est avéré. Grâce aux capteurs disposés dans plusieurs puits, forés parfois jusqu’à 100 mètres de profondeur, l’équipe germano-russe de l’expédition Léna a enregistré une augmentation de température de 1,5 à 2 °C depuis 2006.

    « On assiste à une réelle tendance au réchauffement dans le sol et à une hausse des températures atmosphériques hivernales, confirme Julia Boike. Si le gradient thermique change, c’est toute la balance des flux d’énergie, d’eau, de gaz à effet de serre qui s’en trouve modifiée. » Un constat préoccupant alors que l’Arctique contribue à la régulation de toute la machine climatique terrestre.

    « Le permafrost est un immense congélateur, schématise Torsten Sachs, du Centre de recherche allemand pour les géosciences (GFZ), qui entame sa huitième mission sur l’île. Si vous laissez la porte du congélateur ouverte, votre pizza dégèle, votre crème glacée fond et les microbes se nourrissent de ces éléments organiques ! » A défaut de denrées consommables, le pergélisol libère des matières organiques qui, soumises à l’activité microbienne, produisent du CO2 en présence d’oxygène ou du méthane en milieu anaérobique, à l’instar des tourbières de Samoïloov.

    Ces deux gaz à effet de serre (GES) participent à l’élévation de la température qui entretient la destruction du permafrost et le largage de GES. La communauté de la recherche périglaciaire, qui nomme le phénomène « rétroaction liée au carbone du pergélisol », estime que les sols gelés stockeraient 1 500 gigatonnes de carbone, le double de la quantité de carbone dans l’atmosphère.


    Sur une des îles du delta de la Léna, ce forage, qui descend à 100 mètres de profondeur, permet d’étudier l’évolution des températures des sols gelés.

    Réchauffement supplémentaire

    Dans quelle proportion de dioxyde de carbone et de méthane le carbone relâché par les sols en dégel se fait-il ? Sachant que le méthane crée 25 fois plus d’effet de serre sur un siècle que le CO2. « C’est l’un des grands débats à venir », confesse Gerhard Krinner, chercheur CNRS à l’Institut des géosciences de l’environnement de Grenoble.

    L’inquiétude est d’autant plus forte que les modèles pris en compte dans les scénarios de réchauffement du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) n’intégraient pas, jusqu’à présent, ce mécanisme de rétroaction du pergélisol. « Le réchauffement supplémentaire attribuable au dégel du permafrost est de l’ordre de 10 % », avance Gerhard Krinner. Les émissions du permafrost pourraient ainsi faire grimper le thermomètre de 0,3 °C d’ici 2100.

    Dans le laboratoire de la station de recherche, maintenue à une température constante grâce à la centrale thermique alimentée par trois gros générateurs au bruit assourdissant, les chercheurs scrutent les courbes de ces gaz à effet de serre rejetés dans l’atmosphère. Les pics de méthane se répètent en été, mais l’analyse des données reste un exercice délicat dans ces hautes latitudes. La première période de mesure (2002-2012) s’est faite sans les équipements automatisés dont dispose la base moderne, opérationnelle depuis 2013.

    Trois ans plus tôt, lors d’une visite à Samoïlov, le président russe Vladimir Poutine avait estimé que la coopération germano-russe sur le permafrost méritait des infrastructures plus performantes. Jusque-là, les chercheurs de l’AWI – dont la première mission sur l’île remonte à 1998 – devaient se contenter du strict minimum et se trouvaient contraints de dormir sous des tentes de toile, de se chauffer à partir du bois flotté charrié par la Léna et d’utiliser la cabane des gardes de la réserve comme quartier général.


    Le bâtiment principal de la base de recherche russe, sur l’île de Samoïlov, en septembre.

    A quel rythme ?

    L’hivernage était alors inenvisageable. « On ne pouvait tout simplement pas enregistrer de données en hiver, témoigne Torsten Sachs. Il aurait fallu alimenter le générateur extérieur de l’époque tous les trois jours, parfois par – 40 °C, en pleine nuit polaire. » Les autres limites à l’interprétation des données collectées sont plus classiques. Dix ans constitue une période d’étude trop courte pour dégager une tendance de l’évolution des flux gazeux sur le long terme. Il faudrait aussi multiplier les points d’observation, une gageure en Sibérie, dont la superficie équivaut à plus de vingt fois la France.

    A bonne distance de la nouvelle station, peinte aux couleurs du drapeau russe, l’équipe de l’AWI achève l’installation d’un « igloo » qui accueillera en 2018 le matériel informatique et électrique de la nouvelle tour météorologique. Le cocon de fibre de verre devrait offrir des conditions d’enregistrement stables, à l’abri des rafales du vent ou des tempêtes de neige qui sévissent pendant l’hiver sibérien. Comme les autres édifices bâtis sur l’île, l’igloo a un socle sur pilotis afin d’absorber les mouvements du terrain. En un an seulement, le terrain s’est affaissé de 10 cm autour des piliers de la première tour météo.


    A distance de la nouvelle station de recherche russe, opérationnelle depuis 2013, un igloo en fibre de verre est installé pour protéger les équipements des conditions extrêmes des hautes latitudes.

    « Qu’il existe une interaction entre réchauffement du climat et dégel du permafrost, cela ne fait plus aucun doute », affirme Peter Schreiber entre deux séances d’assemblage des panneaux de l’igloo. « La question, désormais, est d’évaluer à quel rythme le permafrost va continuer de se désagréger et comment la nature va réagir à ce processus », considère l’ingénieur chargé de la station météo.

    La nature reste la grande ordonnatrice face aux bouleversements que subit la Sibérie arctique, estime Fédor Selvakhov. Le chef de la station de recherche veut bien admettre certains changements dans l’environnement qui l’entoure : « Il y a vingt ans, par exemple, il n’y avait pas un seul arbre dans la région, juste la végétation rase de la toundra. En me déplaçant dans le delta l’année dernière, j’ai vu des arbres de 2 mètres de haut. »

    Mais ce Iakoute né au bord de la Viliouï, un affluent de la Léna, ne croit pas aux causes anthropiques du changement climatique. « C’est le cycle de la nature. Il faisait chaud ici il y a deux cents ans, puis il a fait plus froid, et on assiste aujourd’hui à une nouvelle période chaude », soutient-il, à son bureau décoré de fossiles découverts dans les environs.

    Défenses de mammouth

    Quant au pergélisol, « il se réchauffe peut-être, mais pas vite ». « Lorsque l’on extrait du sol une défense de mammouth, on se rend compte que l’autre extrémité, celle encore prise dans la terre, est toujours gelée. C’est bien le signe que le permafrost demeure très froid », argumente le responsable. Conséquence inattendue du dégel des sols du Grand Nord, la chasse aux ossements fossilisés prospère en Sibérie.

    Günter Stoof, alias « Molo », comprend la mentalité de ses amis russes. « C’est la nature qui décide, pas l’homme », soutient le technicien de l’AWI qui a séjourné le plus de temps sur Samoïlov. A 65 ans, il jure que cette saison sera la dernière d’une carrière riche de 48 expéditions en Arctique et en Antarctique. Originaire d’Allemagne de l’Est, il a été le plus jeune membre de l’expédition soviétique de près de deux ans (1975-1977) chargée de construire une base en Antarctique. Il a ensuite multiplié les séjours, seul ou en équipe, dans les régions polaires.


    Günter Stoof, spécialiste des régions polaires, est celui qui a séjourné le plus longtemps sur la station sibérienne.

    Au gré du parcours de Molo, une autre histoire s’esquisse, celle de la coopération entre la RDA et l’URSS pendant la guerre froide. Après la chute du mur de Berlin, un comité scientifique avait été chargé de réfléchir au fonctionnement de la recherche de l’Allemagne réunifiée.Il avait recommandé de maintenir cette expertise polaire et de la structurer autour de l’unité de recherche de l’AWI basée à Postdam. « On y a retrouvé des spécialistes comme Molo ou Christine Siegert, qui avaient vingt ans d’expérience sur le permafrost par leur travail en commun avec les Russes », retrace Anne Morgenstern.

    L’étude des sols gelés s’est propagée en Russie dès le début du XXe siècle, accompagnant les choix stratégiques de Moscou. La politique d’extension vers les territoires de l’Est et du Nord, riches en hydrocarbures et en ressources minières, ne pouvait se faire sans la construction du Transsibérien. Mais pour mener à bien ce projet titanesque, il fallait d’abord développer une science de l’ingénierie sur le permafrost, omniprésent dans ces régions.

    Un Institut du permafrost est créé à Moscou à la fin des années 1930, il est déplacé à Iakoutsk en 1960. La grande ville de l’Est sibérien repose intégralement sur des sols gelés. Deux galeries souterraines (à 4 et 12 m de profondeur), creusées sous les fondations de l’institut, offrent un accès « direct » au pergélisol. Les strates sableuses des parois témoignent de l’histoire géologique de la ville, construite sur une terrasse alluviale de la Léna.


    A 12 mètres de profondeur, une galerie a été creusée sous l’Institut Melnakov, à Iakoutsk, pour observer in situ le permafrost.
    Anthrax et vastes cratères

    De lourdes portes maintiennent la température des galeries sous zéro degré. « Le dégel du permafrost constitue un danger pour la planète, mais à l’échelle de la Iakoutie, pour le moment, il reste assez stable », relativise Mikhaïl Grigoriev, l’un des deux vice-présidents de l’institut, avant d’ajouter : « Dans d’autres régions, en revanche, les effets du dégel sont plus visibles, notamment à Iamal. »

    Après un été 2016 anormalement chaud, la péninsule de l’ouest de la Sibérie a subi une épidémie d’anthrax – pour la première fois en Russie depuis 1941, selon l’Institut d’épidémiologie de Moscou – provoquée par le dégel du permafrost dans lequel la bactérie était conservée. Le territoire de la Iamalo-Nénétsie a fait également la « une » des médias russes après la découverte de vastes cratères. Ils résulteraient là encore du réchauffement du permafrost. « La région est riche en gaz. En dégelant, les sols libèrent des bulles gazeuses qui expliquent ces explosions », analyse M. Grigoriev.

    Aucun phénomène de ce type n’a été, pour l’instant, observé à Samoïlov, ni même en Alaska ou dans le Nord canadien. Un réseau mondial, le Global Terrestrial Network for Permafrost (GTN-P), agrège aujourd’hui les informations de plus de 250 sites. Il a pour double objectif de « mutualiser les connaissances mais aussi valider les nouveaux modèles climatiques », résume Hugues Lantuit, chercheur à l’AWI, l’institution référente du réseau.

    Un nouveau pan de recherche se développe par ailleurs sur le permafrost alpin. La prochaine Conférence européenne du permafrost, en juin 2018, à Chamonix, devrait permettre un état des lieux de ces travaux, bien avancés en Suisse mais encore embryonnaires en France.

    L’érosion côtière et ses impacts économico-sociaux devient un autre sujet de préoccupation, le tiers des côtes du monde entier étant situé dans des zones de pergélisol. En mer de Laptev ou en mer de Beaufort (en Amérique du Nord), l’érosion du littoral atteint à certains endroits plus de huit mètres par an et conduit des communautés villageoises à planifier leur relocalisation. A Samoïlov, la cabane en bois construite près du rivage tient toujours debout. Mais pour combien de temps ?

  • Des #pesticides néfastes aux #abeilles présents dans 75% du #miel mondial
    https://fr.news.yahoo.com/pesticides-n%C3%A9fastes-abeilles-pr%C3%A9sents-75-miel-mondial-18305

    Les concentrations relevées dans 198 échantillons de miel produits sur toute la planète ne sont pas considérées comme dangereuses pour l’homme. Elles sont en effet inférieures au plafond autorisé par l’Union européenne, selon l’étude publiée jeudi dans la revue Science.

    [...]

    La fréquence de contamination la plus élevée a concerné les miels d’Amérique du Nord (89%), devant l’Asie (80%) et l’Europe (79%). L’Amérique du Sud a présenté la plus faible (57%).

  • « Monsanto papers », les agences sous l’influence de la firme

    http://www.lemonde.fr/planete/article/2017/10/05/monsanto-papers-les-agences-sous-l-influence-de-la-firme_5196332_3244.html

    Pour contrer le soupçon qui entoure le glyphosate, son produit-phare classé « cancérogène probable », la firme américaine interfère auprès des organismes de réglementation.

    En quatre décennies, la version officielle n’a jamais changé : le glyphosate n’est pas cancérogène. C’est ce que concluent avec constance les expertises des plus grandes agences réglementaires, chargées d’évaluer la dangerosité d’un produit avant et après sa mise sur le marché : l’Agence de protection de l’environnement (EPA) américaine et, sur le Vieux Continent, l’Autorité européenne de sécurité des aliments (EFSA) et l’Agence européenne des produits chimiques (ECHA).

    Il a fallu attendre mars 2015 pour qu’une autre organisation, le Centre international de recherche sur le cancer (CIRC) des Nations unies (ONU), parvienne à la conclusion inverse. Pour cette institution de référence, l’herbicide – produit-phare de Monsanto et pesticide le plus utilisé au monde – est génotoxique, cancérogène pour l’animal et « cancérogène probable » pour l’homme.

    Comment expliquer cette spectaculaire divergence ? La plupart des observateurs invoquent une raison majeure : pour rendre leurs conclusions, les agences se sont largement fondées sur des données confidentielles fournies par… Monsanto, alors que le CIRC, lui, n’a pas eu accès à ces données. En d’autres termes, la décision favorable au glyphosate est essentiellement basée sur les conclusions de l’entreprise qui le fabrique.

    Une expertise « scientifiquement erronée »

    Un toxicologue de renom va bientôt dénoncer cette situation : Christopher Portier, ancien directeur de diverses institutions fédérales de recherche américaines et associé, en 2015, aux travaux du CIRC. Grâce à des eurodéputés écologistes et une ONG qui en ont exigé copie auprès des autorités européennes, il est le seul scientifique indépendant à avoir pu ausculter les fameuses données ultra-secrètes.

    Il s’est alors aperçu que celles-ci recelaient des problèmes passés inaperçus. Le 28 mai 2017, il jette un pavé dans la mare en écrivant à Jean-Claude Juncker, le président de la Commission européenne : pour lui, pas de doute, l’expertise des agences européennes, menée essentiellement sur la base des éléments transmis par Monsanto, est « scientifiquement erronée ». Ces dernières, assure-t-il, seraient passées à côté de huit cas d’augmentation d’incidence de certaines tumeurs, associés au glyphosate. Les agences ont beau réfuter en bloc, la polémique est lancée.

    Qui croire ? Pour tenter de répondre à cette question-clé, Le Monde s’est plongé dans les « Monsanto papers », ces dizaines de milliers de pages de documents internes que la firme a dû rendre publics dans le cadre d’une action collective menée aux Etats-Unis par près de 3 500 plaignants.

    La lecture de ces documents apporte de troublants éléments de réponse. Elle jette une lumière crue sur la manière dont les agences réglementaires tiennent compte des études secrètes – et parfois suspectes – de l’industrie. Elle conduit surtout à s’interroger sur l’intégrité et l’indépendance des expertises officielles sur le glyphosate.

    Une étude « indûment écartée »

    A Bruxelles, certains élus prennent la question au sérieux. En mai 2017, l’eurodéputé tchèque Pavel Poc (Socialistes et Démocrates) organise une réunion publique sur le sujet, sous les ors du Parlement européen.

    Ce jour-là, à la tribune, Peter Clausing, un toxicologue allemand associé à l’ONG Pesticide Action Network (PAN), lâche une bombe : d’après lui, une étude soumise par les industriels, qui montrait une augmentation d’incidences de lymphomes malins chez les souris les plus exposées au glyphosate, a été indûment écartée par l’EFSA, l’Autorité européenne de sécurité des aliments. Considérant que cette étude n’était pas fiable, l’agence n’a pas pris en compte ses résultats, pourtant susceptibles de l’alerter sur les dangers de ce produit.

    Dans son rapport d’expertise de novembre 2015, l’EFSA justifiait ainsi ce choix : « Au cours de la seconde téléconférence d’experts (TC 117), l’étude a été considérée comme non acceptable en raison d’infections virales qui ont pu influencer la survie [des animaux] ainsi que les incidences de tumeurs – en particulier les lymphomes. »

    Certains virus dits « oncogènes » peuvent en effet provoquer des tumeurs chez les animaux de laboratoire. Les souris utilisées pour cette étude dénommée « Kumar, 2001 » auraient contracté un virus de ce type (sans lien avec le glyphosate), brouillant ainsi les résultats.

    « Le gros problème est qu’aucun document ne mentionne le fait qu’une infection de ce genre a effectivement touché les animaux, assure le toxicologue Peter Clausing. Ce qu’on trouve dans les rapports préliminaires d’évaluation du glyphosate, c’est que ce type d’infection est possible, mais pas qu’elle s’est produite. Ce qui est d’abord décrit comme une possibilité devient, à l’issue de la “téléconférence 117”, un fait avéré. »

    Que s’est-il passé lors de cette « téléconférence 117 » ? Le 29 septembre 2015, à quelques semaines de la finalisation de l’expertise européenne, ce grand rendez-vous téléphonique réunit les experts de plusieurs agences. L’objectif est, d’une certaine manière, d’accorder les violons. Parmi les participants, figure un représentant de l’Agence américaine de protection de l’environnement, l’EPA, Jess Rowland. C’est lui qui supervise la réévaluation du glyphosate aux Etats-Unis. Et c’est lui, assure Peter Clausing, qui, au cours de la discussion, fait état d’une infection virale qui invaliderait l’étude « Kumar, 2001 ». Interrogée par Le Monde, l’EFSA confirme. Mais elle assure que « l’information présentée par l’EPA au cours de cette téléconférence a été vérifiée de manière indépendante » par ses propres experts.

    Un article sponsorisé par Monsanto

    Ni une ni deux, l’ONG bruxelloise Corporate Europe Observatory dépose, courant mai, une demande d’accès aux documents internes de l’EFSA pour le vérifier. La réponse tombe le 21 juin : il n’existe aucune trace, dans les archives de l’agence, d’une quelconque vérification des affirmations de Jess Rowland.

    Plus embarrassant, l’Agence européenne des produits chimiques, l’ECHA, écrit dans son propre rapport sur le glyphosate que l’étude « Kumar, 2001 » ne signale « aucune suspicion d’infection virale » des souris et que « le fondement réel de la décision de l’EPA n’est donc pas connu ». Dans une lettre au vitriol adressée le 22 mai à l’agence européenne, Peter Clausing fait un constat plus perturbant encore. « La première spéculation sur une infection virale en lien avec l’étude “Kumar, 2001” provient d’un article de 2015 sponsorisé par Monsanto et signé de Greim et collaborateurs. »

    Reste à savoir si les interventions d’un expert de l’agence américaine ont pu influencer l’expertise européenne. Les « Monsanto papers » montrent en tout cas que la firme est informée presque en temps réel, le lendemain même de la TC 117. « J’ai parlé du gly[phosate] avec l’EPA, écrit l’un de ses cadres dans un texto, à 14 h 38. Ils ont le sentiment d’avoir aligné l’EFSA pendant le coup de fil. »

    Ce n’est pas tout. Au siège de Monsanto, Jess Rowland n’est pas un inconnu : son nom surgit régulièrement dans les « Monsanto papers », en particulier en avril 2015, bien avant la fameuse réunion téléphonique. Alors que le glyphosate vient d’être classé « cancérogène probable » par l’agence de l’ONU (CIRC), et que sa réévaluation est en cours à l’EPA, une autre organisation fédérale américaine, l’Agence des substances toxiques et de l’enregistrement des maladies (ATSDR), vient à son tour d’annoncer avoir enclenché sa propre expertise.

    Le 28 avril 2015, deux cadres de Monsanto échangent des courriels. Le premier raconte avoir reçu un appel inopiné de Jess Rowland au sujet des velléités investigatrices de l’ATSDR. Le cadre le cite en ces termes : « Si je peux dézinguer ça, je mérite une médaille », aurait plastronné M. Rowland au bout du fil. « Mais il ne faut pas trop y compter, poursuit le responsable de la firme à l’adresse de son interlocuteur, je doute que l’EPA et Jess [Rowland] puissent dézinguer ça, mais c’est bon de savoir qu’ils essaient de se coordonner à la suite de notre insistance, et qu’ils partagent notre inquiétude de voir l’ATSDR parvenir aux mêmes conclusions que l’EPA. » « Wow ! C’est très encourageant », réagit son correspondant.

    Promiscuité

    Incidemment, l’échange montre que les employés de la firme sont déjà au courant des conclusions du panel d’experts présidé par Jess Rowland. Celui-ci ne finalisera pourtant son travail que… cinq mois plus tard.

    Les efforts promis par M. Rowland ont-ils payé ? L’évaluation du glyphosate par l’ATSDR a-t-elle été « dézinguée » ? Des informations de la presse américaine l’ont récemment donnée pour morte. Cependant, interrogée par Le Monde, l’agence assure que son évaluation est en cours, mais n’est pas achevée : « Nous prévoyons la finalisation d’un premier jet, soumis aux commentaires du public, d’ici à la fin de l’année. »

    Les « Monsanto papers » prouvent sans ambiguïté que Jess Rowland est considéré par la firme agrochimique comme un atout stratégique au sein de l’EPA. « Jess se mettra en retraite de l’EPA dans cinq à six mois, écrit un employé dans un mémo interne du 3 septembre 2015. Et il pourrait encore nous être utile dans la défense en cours du glyphosate. »

    M. Rowland partira en effet à la retraite début 2016. Une retraite loin d’être oisive. Dans l’action collective en cours aux Etats-Unis, les avocats des plaignants ont bataillé ferme pour obtenir cette information : Jess Rowland exerce désormais une activité de consultant pour l’industrie chimique. Ils n’ont, pour l’heure, pas réussi à connaître les noms de ses employeurs, les conditions de son embauche, la nature de son travail ni le montant de ses émoluments. L’inspecteur général de l’EPA a lancé, fin mai 2017, une enquête interne afin d’éclaircir l’affaire. Sollicité par l’intermédiaire de son avocat, M. Rowland n’a pas donné suite à nos demandes.

    Cette promiscuité entre l’agence américaine et Monsanto remonte à bien plus loin, au début des années 1980. C’est l’Américaine Carey Gillam, ancienne journaliste à l’agence Reuters et désormais directrice de recherche pour l’association U.S. Right to Know, qui a, la première, épluché la correspondance de l’époque entre l’agence et la firme. Elle en a extrait une chronologie plus que significative, qu’elle retrace dans un livre intitulé Whitewash (« Blanchiment »), à paraître en octobre aux Etats-Unis.

    Un expert payé par Monsanto

    De premiers soupçons à l’égard du glyphosate se font jour en 1983. Cette année-là, Monsanto soumet à l’EPA les données d’une étude de toxicité qu’un laboratoire externe a menée pour la firme pendant deux ans sur plus de 400 souris.

    Le toxicologue de l’agence qui les examine en conclut que le glyphosate est « oncogène » : des souris exposées ont développé des adénomes tubuleux aux reins, une forme de tumeurs rarissime. Monsanto conteste énergiquement, avance qu’il s’agit de « faux positifs ». Mais les toxicologues de l’EPA sont catégoriques : « L’argumentation de Monsanto est inacceptable, consignent-ils dans un mémo de février 1985. Le glyphosate est suspect. » Ils décident donc de classifier l’herbicide « oncogène de catégorie C », soit « cancérigène possible pour l’homme ».

    Monsanto décide alors de fournir des données supplémentaires à l’EPA en faisant réexaminer les lames où sont conservés les « carpaccios » de reins de ces 400 souris. Mais cette fois par un expert de son choix, payé par ses soins. « Le Dr Marvin Kuschner passera en revue les sections de rein et présentera son évaluation à l’EPA dans le but de convaincre l’agence que les tumeurs observées n’ont pas de rapport avec le glyphosate », écrit un responsable de la compagnie en interne. A l’en croire, le résultat de cette analyse semble couru d’avance.

    Quelques jours tard, le Dr Marvin Kuschner reçoit les 422 rondelles de petits reins par colis. Et en octobre 1985, il consigne dans son rapport avoir découvert une tumeur, jusqu’ici passée inaperçue, dans le rein de l’une des souris contrôle – non exposée au glyphosate. Armée de cette conclusion, Monsanto bâtit auprès de l’EPA un argumentaire autour d’une « maladie chronique spontanée des reins » qui serait répandue chez les souris de laboratoire et fait basculer les conclusions. Autrement dit, si tumeur il y a, elle n’a rien à voir avec le glyphosate. Exactement comme pour l’étude « Kumar, 2001 », deux décennies plus tard.

    En 1991, le glyphosate disparait du radar

    Si cette seule et unique tumeur est bien réelle, pourquoi n’a-t-elle pas été remarquée auparavant ? Couvertes par le secret commercial, les lames n’ont jamais pu être examinées par des experts indépendants.

    En 2017, les avocats des plaignants réclament que cela soit fait. En attendant, ils relèvent que l’EPA a par la suite fait marche arrière toute, en faisant preuve d’une souplesse de plus en plus flagrante à l’égard du glyphosate.

    Les toxicologues « maison » ne sont pas en cause ; ils étaient unanimes à trouver le produit « suspect ». C’est en fait un panel constitué à la fois d’agents de l’EPA et d’autres agences fédérales qui, en février 1986, rétrograde le glyphosate dans le groupe D – « inclassable quant à sa cancérogénicité pour l’homme ». En 1989, l’agence cesse même de demander de nouvelles données à Monsanto. En 1991, le glyphosate est encore rétrogradé, dans le groupe E cette fois – « preuves de non-cancérogénicité ». Bref, il disparaît du radar.

    Qui sont ces fonctionnaires du panel de l’EPA qui ont initié son déclassement en 1986 ? Leurs parcours révèlent de singuliers points communs, et un talent indéniable pour utiliser leur carnet d’adresses dans le secteur commercial, notamment chez Monsanto.

    Ainsi, trois ans après le revirement de l’agence, le chef du panel, John Moore, prend la présidence d’un « institut pour l’évaluation des risques pour la santé » financé par l’industrie pétrolière, les banques et la grande distribution. Sa successeure, Linda Fischer, deviendra pour sa part l’une des vice-présidentes de Monsanto, dès son départ de l’EPA en 1993. Son adjoint, James Lamb part, lui, en 1988 rejoindre un cabinet d’avocats qui compte Monsanto parmi ses clients. Une demi-douzaine de fonctionnaires fédéraux quitteront également l’EPA pour ce cabinet. Quant à leur chef, le directeur du bureau des programmes pesticides, Steven Schatzow, il sera lui aussi recruté par un cabinet d’avocats pour y représenter des fabricants de… pesticides. David Gaylor, enfin, membre du panel en tant que représentant du Centre national pour la recherche en toxicologie, quittera la fonction publique pour être consultant privé. Lui aussi aura Monsanto comme client.

    Une fraude mortifère

    Reste une question cardinale : pourquoi Monsanto a-t-elle donc entrepris de réaliser cette étude et de la soumettre à l’EPA en 1983 alors que le glyphosate était autorisé sur le marché américain depuis déjà près de dix ans ? Un courrier de Monsanto de 1985 l’explique : cette étude fait partie d’un « programme de remplacement des études de toxicologie d’IBT ».

    IBT ? Pour ceux qui le reconnaissent, ce sigle évoque des visions à vous glacer le sang. L’histoire est connue : aux Etats-Unis, les plus grandes firmes confiaient autrefois les études de toxicologie de leurs produits à Industrial Bio-Test, ou IBT.

    En 1976, des inspecteurs sanitaires fédéraux avaient découvert que le succès de ce prestataire extérieur était fondé sur une fraude mortifère. Ce n’est qu’équipés de masques qu’ils avaient pu explorer le hangar, surnommé le « marais ». Là, des milliers d’animaux de laboratoire infusaient dans une puanteur et une touffeur insoutenables. Des conditions incompatibles avec des études de toxicité.

    Dans les carnets des techniciens, une abréviation récurrente, « TBD », signifiait « Too Badly Decomposed » (« Trop méchamment décomposés ») pour qu’on puisse en tirer quelque donnée que ce soit. Les tests d’IBT parvenaient rarement à des conclusions négatives : elles étaient souvent inventées.

    Des centaines de produits chimiques, dont pas moins de deux cents pesticides, ainsi que l’Aroclor, un PCB redoutablement toxique mis au point par Monsanto, avaient été homologués en Amérique du Nord sur la base des tests « effectués » par IBT. Roundup compris ? Questionnée, Monsanto se contente aujourd’hui de répondre qu’« aucune donnée générée par IBT n’est utilisée pour soutenir une homologation du glyphosate ».

    Le pesticide le plus utilisé dans le monde provoque-t-il le cancer ? L’agence de l’ONU, le CIRC, a-t-elle vu en 2015 ce que l’EPA américaine aurait dû voir il y a quarante ans ? Certains mémos internes de Monsanto suggèrent que ses toxicologues eux-mêmes craignaient de longue date une expertise indépendante de leur best-seller. Comme ce courriel d’une scientifique de la firme qui écrit, en septembre 2014, à un collègue : « Ce que nous redoutions depuis longtemps s’est produit. Le glyphosate doit être évalué par le CIRC en mars 2015. »

    Le 23 octobre, les Etats membres décideront en qui l’Union européenne doit placer sa confiance.

  • Quelle place pour les blancs dans les mouvements antiracistes ? Expériences américaines, réflexions françaises – CONTRETEMPS
    http://www.contretemps.eu/place-blancs-mouvements-antiracistes-experiences-americaines-reflexions-

    L’organisation d’un camp d’été décolonial a défrayé la chronique en 2016, étant attaqué par des députés et des ministres comme incarnation d’un « racisme anti-blanc »[2]. Si les réactions de soutien ont été maigres, y compris à l’extrême-gauche, une tribune de militants et d’universitaires blancs avait néanmoins pris position pour défendre les vertus politiques des espaces non-mixtes temporaires[3]. Cette séquence révélait toutes les difficultés qu’il y a à penser, en France, la place des groupes sociaux majoritaires et privilégiés dans les luttes d’émancipation des minorités racisé.e.s. Sans qu’il faille nécessairement suivre le chemin tracé par l’Amérique du Nord, des militants états-uniens réfléchissent depuis plusieurs décennies à la place que peuvent jouer les blancs dans les luttes d’émancipation des minorités. Depuis le début des années 2000 en particulier, des groupes de blancs s’organisent de façon non-mixte afin de mettre à mal la « suprématie blanche » et se constituer en alliés des mouvements de groupes minorisés, ainsi que l’appelait déjà de ses vœux Stokely Carmichael plusieurs décennies auparavant. Ces mobilisations anti-racistes connaissent un dynamisme important depuis l’émergence du mouvement Black Lives Matter en 2013 et plus encore avec l’avènement de Donald Trump qui pose de façon centrale la question de la déconstruction des privilèges blancs. Ces groupes ont joué un rôle clé ces dernières semaines pour organiser la riposte aux manifestations de l’alt-right et au meurtre perpétré par un militant suprématiste blanc à Charlottesville. Après avoir présenté la philosophie et les modes d’action de ces groupes auxquels j’ai participé pendant plusieurs mois, j’esquisserai quelques pistes sur la façon dont ces expériences peuvent nourrir les réflexions en France.

    #antiracisme #non-mixité

  • Laurent Alexandre, prophète du QI artificiel Le Comptoir le 22 septembre 2017 - Michel Juffé
    https://comptoir.org/2017/09/22/laurent-alexandre-prophete-du-qi-artificiel

    Les discussions autour de la technologie sont sujettes à de nombreuses spéculations plus ou moins rigoureuses. Le Comptoir vous propose ici une version remaniée d’un texte initialement paru sur le blog technocritique Mais où va le web ?. Plein de bon sens, le philosophe Michel Juffé y questionne les fondements et les errances intellectuelles des interventions-spectacles de Laurent Alexandre, (fut)urologue (spécialiste) de l’intelligence artificielle et fondateur du site Doctissimo dont le “sérieux” n’est plus à prouver. Le philosophe répond notamment à son entretien publié au Figarovox en juin 2017 et qui donne le ton : « “Bienvenue à Gattaca” deviendra la norme ».

    Laurent Alexandre n’hésite pas à déclarer que :

    « L’intelligence dans une société numérique est la clé de tout pouvoir politique et économique. Nous avons créé une société de la connaissance sans réfléchir aux conséquences. Nous avons bâti une économie de la connaissance, sans comprendre que nous allions donner un avantage immense aux gens maîtrisant les données, dotés de plasticité cérébrale leur permettant de changer régulièrement de métier et de se former leur vie durant : toutes qualités qui sont mesurées par le QI [quotient intellectuel, NDLR]. Un point de QI supplémentaire fera de plus en plus la différence dans la société de la connaissance. Il faudrait rebaptiser le QI et l’appeler QCIA, le Quotient de complémentarité avec l’intelligence artificielle, pour lui ôter son caractère stigmatisant. À partir de 2020, le QI minimum pour avoir un emploi va augmenter de l’ordre de cinq à dix points par décennie. »

    Le QI n’a jamais été présenté, par ses inventeurs, comme une mesure de l’intelligence au sens global du terme – qui mesurerait la capacité de discriminer, jugement, esprit d’analyse et de synthèse, créativité, etc. – mais comme une mesure de performances dûment étalonnées, c’est-à-dire, pour grossir le trait, celles qu’on attend d’un élève qui a appris à lire, écrire, compter et dessiner.


    Prenons par exemple un test de QI en ligne (il y a des dizaines de sites du genre, ils sont rarement très sérieux…). On nous dit que : « Ce test de QI en ligne évaluera votre quotient intellectuel ou QI. Ce test QI rapide donne un résultat quantitatif et standardisé lié à l’intelligence abstraite. Nous utilisons la méthode du “QI par rang”. Elle permet à une personne de se comparer à un ensemble d’individus classés par secteur. » En clair, c’est un test comparatif, qui ne peut donner de valeurs absolues. Le QI donne donc un indice de dispersion autour d’une moyenne. En l’occurrence pour le QI standard, la moyenne est fixée à 100 pour des raisons arbitraires et historiques. La dispersion des valeurs de QI se situe généralement entre 60 à 140, sachant que moins de 70 est considéré comme “extrêmement inférieur” et que plus de 130 est “extrêmement supérieur”. À quoi ? Eh bien à la moyenne toujours arbitrairement fixée à 100. On a ainsi pu dire que le QI ne mesure que lui-même !

    Ainsi, quand on lit, par exemple, que le QI moyen des Français est de 98, que celui de la plupart des pays d’Afrique est de 70, et que celui de la Chine est de 105, c’est entièrement faux. N’y voir aucun préjugé racial ! Pour que de tels résultats soient valides, il faudrait placer un échantillon de toute la population mondiale dans un seul lot, un seul “secteur”, lui faire disposer des mêmes éléments culturels, des mêmes conditions de passation du test, et d’une garantie très forte de bonne lecture des résultats. C’est rigoureusement impossible. Ce que révèle l’édification du QI en mesure de l’intelligence ou encore en point de comparaison entre sociétés ou civilisations, c’est surtout une position idéologique très forte. Ce qu’on promeut à travers ce genre de démarche, c’est la correspondance accrue à un certain système de valeurs, à un environnement particulier qui valorise ce genre d’intelligence pour de bonnes ou de mauvaises raisons et avec de bons ou de mauvais effets. Rien ne dit que ces systèmes sont plus “intelligents” que les autres, plus humains, plus sains. L’histoire du QI ne dit pas autre chose : cette mesure a servi à justifier toutes les inégalités sociales, voire à produire des politiques publiques discriminantes.

    « Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. »

    Revenons à notre (fut)urologue et calculons un peu. Selon Laurent Alexandre, dans 50 ans il faudra avoir un QI de 150 pour avoir un emploi, et dans 100 ans un QI de 200. C’est bien embêtant, car, en réalité, la moyenne restera toujours à 100, donc seulement 1/1000 de la population, au plus, aura un emploi. Et on ne pourra pas supprimer les autres, car cela ne servirait plus à rien d’avoir un QI de 200 et plus (faute de base : toujours cette satané moyenne !). Ici, je pense à la reine rouge d’Alice : il faut courir deux fois plus vite pour rester sur place.

    Le QI, ce Graal
    Moderniser l’école, bien sûr. Car à présent les « classes populaires » sont dépassées par « la technologie qui galope ».

    Il faut, nous dit Laurent Alexandre, augmenter les « capacités cognitives de la population, puisque dans le futur la quasi-totalité des inégalités seront liées aux capacités cognitives ». Comme c’est simple ! À concevoir tout au moins. Toujours la même erreur de raisonnement : si tout augmente, rien n’augmente.

    « La bétise, mieux vaut la prévenir, car on ne peut pas la guérir. »

    Peu importe. Le rôle de l’école va devenir « la programmation des prothèses cérébrales ». Sous le contrôle de la CNIL (Commission nationale de l’informatique et des libertés), bien sûr ! On a eu chaud. Imaginons que le rôle de l’école soit d’augmenter la taille des élèves, leur poids ou la longueur de leurs cheveux, ce serait beaucoup plus difficile. Tandis que là, l’école aura seulement à s’occuper de mieux remplir le cerveau des élèves… Ce qu’elle fait déjà depuis 130 ans (avec l’obligation d’instruire toute la population), avec les programmes ministériels et les manuels scolaires. Ce seront toujours des manuels, mais sous forme d’implants cérébraux. La niaiserie, dont Laurent Alexandre accuse l’école, est plutôt celle des adorateurs des “manipulations cérébrales made in Californie” qu’il invoque comme d’autres invoquent les esprits de la forêt ou dansent devant un totem.


    D’où cette mâle proposition : « On ne sauvera pas la démocratie si nous ne réduisons pas les écarts de QI. » Le QI devient ainsi une baguette magique… à mettre entre toutes les mains. Faut-il encore répéter – pour les malcomprenants – que le QI est une mesure de performances standardisées qui n’a de sens que par des écarts, sur une échelle conventionnelle ? Bref, le QI ne mesure pas l’“intelligence” mais des capacités combinatoires, numériques et géométriques, soit une faible partie des capacités intellectuelles, une goutte d’eau dans un océan de complexité. Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. Par ailleurs, même en se plaçant dans un contexte de concurrence mondialisée “inévitable” qui semble être l’unique système de pensée supportant les analyses de Laurent Alexandre, le QI n’offre aucune garantie qu’on s’en tirera vraiment mieux ; puisqu’il ne mesure ni la créativité, ni le talent, qui seront pourtant les “compétences” les plus utiles dans le monde automatisé qui s’annonce.

    Foin de ces raffinements, ce qui compte est d’augmenter le QI, comme l’annonce le Prophète – Elon Musk – qui sait que l’augmentation “massive” du QI aura lieu par implants cérébraux. « La seule solution, avec le développement de colonies sur Mars, pour éviter que l’humanité tout entière soit exterminée d’un coup. » Elles sont quand même fortes ces IA ! Elles pourraient nous exterminer « d’un coup. »

    Vous ne connaissez pas Elon Musk ? Cet homme, dont le QI doit être très élevé, sûrement plus que 260 (le record officiel, de 250, est détenu par un américain – of course !), a 46 ans, est père de jumeaux et de triplés, pèse 17 milliards de dollars, et dirige plusieurs sociétés, grâce auxquelles il va nous transporter à 2 000 km/h par voie terrestre, nous envoyer sur Mars par millions, supprimer les bouchons des grandes villes et fusionner l’IA et le cerveau humain (dès 2021).

    IA, implantation : fusion et confusion
    Rappelons rapidement ce qu’est l’IA. L’intelligence artificielle est « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » (Encyclopédie Larousse). C’est sommaire et un peu tautologique, mais cela nous suffira pour la suite.

    Quelles sont les possibilités d’une IA ? On parle d’IA depuis Turing (1950) mais on se heurte toujours à la question du traitement de données non formalisées, autrement dit des connaissances qualitatives – une grande partie de celles qui nous sont utiles. S’il est vrai que le “deeplearning” est un saut qualitatif en matière d’analyse du signal sonore ou visuel – reconnaissance faciale, reconnaissance vocale, vision par ordinateur, traitement automatisé du langage, par exemple – nous restons dans le connu, le perceptible et le sensible. Je veux dire par là que nous n’apprenons pas à créer par automatisme, et que dès que l’objet reconnu comporte un très grand nombre de dimensions (un corps humain en action par exemple), il devient inanalysable… pour le moment.

    « Durant la transmission électrochimique entre nos neurones, l’ordinateur, même s’il ne fonctionne qu’au ralenti a pu accomplir un million d’opérations, tandis qu’un être humain n’a pu en effectuer une seule. »

    Et s’il est vrai que la dictée orale de textes sur ordinateur est un vrai progrès pour ceux qui écrivent beaucoup, les corrections restent longues et fastidieuses. Quant à la traduction automatique, elle réserve de belles et parfois cocasses surprises. Il s’agit bien d’intelligence artificielle, si intelligere est avant tout discriminer, différencier, trier, comme le suggère l’étymologie latine. Mais la modélisation ne peut pas être illimitée, car quelles que soient la vitesse et l’architecture de traitement de données d’un ordinateur, l’augmentation des dimensions à paramétrer excède assez vite toute possibilité de calcul.

    Ce qui est “profond” est le nombre de couches de traitement de données et non l’apprentissage lui-même, au sens habituel du terme. Et ce qui est important est le service rendu, par exemple à des aveugles pour se diriger et reconnaitre des objets et des personnes. Bref, l’IA ne va pas, par un coup de baguette magique, rendre les gens intelligents, mais elle facilite l’usage de leur intelligence et peut les dispenser des tâches qui requièrent une intelligence répétitive, habituelle, conventionnelle, etc. N’oublions pas, aussi, que l’IA reste opaque pour la plupart des usagers, à commencer par le GPS des voitures et des téléphones mobiles, les moteurs de recherches, et bien d’autres “applis” auxquelles ils ne comprennent rien. D’où non seulement le danger d’une grande fracture numérique mais aussi celui de distorsion et de falsification des informations, aides et renseignements recueillis.

    Il ne faut pas, non plus, surestimer les performances d’une IA. Par exemple, depuis 2016, celle de battre un champion du jeu de Go. Il a bien fallu programmer l’ordinateur – pardon l’IA – pour qu’il combine des successions de coups. Et qui l’a programmé ? Des gens qui savent jouer au Go et ont eu tout leur temps pour bâtir ce programme. Ce qui est nouveau est que les concepteurs ont imité une forme d’intuition, produite par des milliards d’ajustements automatiques dont personne ne comprend la logique.

    Pour le reste, ça n’est qu’une question de vitesse relative : la transmission électrochimique (celle de nos neurones) est au mieux de 100 m/s, donc 1/200 de seconde pour 50 centimètres (entre l’œil et la main, par exemple). Durant cet intervalle, l’ordinateur, même s’il ne fonctionne qu’au ralenti – disons à 10­ 000 km/s – a pu accomplir un million d’opérations, tandis que par ailleurs, un être humain n’a pu en effectuer une seule, car le cerveau ne discrimine que des durées supérieures à 1/25 de seconde.

    L’IA de demain
    Aux dires de 252 experts en apprentissage par ordinateur (les plus qualifiés du monde, bien sûr), l’IA “battra” les humains en traduction des langues (à l’horizon 2024), en rédaction d’essais (2026), en vente (2031), en chirurgie (2050). En ce qui me concerne, encore neuf ans de patience et je pourrai arrêter d’écrire. En revanche rien n’est dit sur la fabrication des tartes aux pommes, où j’excelle, et je vais peut-être pouvoir continuer à en faire jusqu’en 2035 ou plus. Les mêmes prédisent que tous les emplois humains seront remplacés dans 120 ans. Encore une prédiction cocasse : comme on ne sait rien de notre mode de vie dans 120 ans, que peut-on prévoir sur l’emploi ou quoi que ce soit d’autre ? Qui aurait imaginé la machine à laver le linge et la pilule contraceptive au début du XXe siècle ? C’est pourtant ce qui a le plus changé la vie des femmes (donc de l’espèce humaine) durant ce siècle, en incluant les progrès de la chirurgie et de l’imagerie médicale. Personne n’aurait l’idée de parler d’IA à propos de la machine à laver, c’en est pourtant un des plus beaux succès.

    Toujours est-il qu’Elon Musk et ses compétiteurs (car c’est un marché de milliers de milliards de dollars, bien sûr) ne veulent pas que nous soyons dépassés par les IA (au sens fort du terme : machines capables d’apprendre, d’éprouver des émotions, de se reproduire).

    « Pour nous sauver des IA tyranniques, des composants électroniques seraient implantés dans le cerveau “entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs” [sic(k)]. » Laurent Alexandre

    Car, ayant lu trop de science-fiction de médiocre qualité et ayant vu plusieurs fois Terminator I, II et III, ils sont persuadés de la révolte des machines, autrement dit que l’IA va “dépasser” (à droite ou à gauche ?) l’homme, ce qui « nous transformerait en animaux domestiques dans le meilleur des cas. »

    « Elon Musk, nous dit Laurent Alexandre, est très influencé par Nick Bostrom [44 ans, professeur à Oxford], le théoricien des IA hostiles, qui défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente (biologique ou artificielle) dans une région de l’univers. Ayant comme premier objectif sa survie, toute IA forte se protégera en cachant ses intentions agressives et en attaquant préventivement. » Qu’est-ce qu’une espèce intelligente ? Et pourquoi ne pourrait-il y en avoir qu’une dans une région de l’univers ? Et les fourmis, alors ? Et les rats, qui nous parasitent autant qu’ils veulent ? Et les arbres, sans lesquels nous n’existerions même pas ? J’oubliais : toutes ces choses-là (fourmis, rats, arbres) ne peuvent pas passer un test de QI, alors que les IA le peuvent.

    Bref, pour nous sauver des IA tyranniques, des composants électroniques – je suppose de la taille de quelques micromètres (10-6 µm), avec une finesse de gravure de 10 nanomètres (10-8 nm) – seraient implantés dans le cerveau « entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs » (comme il peut y avoir jusqu’à 20 000 synapses par neurone, on ne sait pas très bien où se passera l’entrelaçage). Difficile de rester plus vague : à quoi serviront ces implants ? Faudra-t-il les remplacer ? À quel rythme deviendront-ils obsolètes ? Qui va les réparer ? Eux-mêmes ? Un couple de médecins et d’IA-médecins ? Leur porteur (puisqu’il est devenu très intelligent) ? Un électronicien ? Un plombier ?

    L’idée même de fusion – étape suivante de l’augmentation cérébrale – entre IA et êtres humains, sous des dehors riants (fusionner c’est augmenter, en mieux) est assez mal venue. La fusion est généralement une régression ; l’amour fusionnel diminue les deux partenaires et augmente leur fragilité. Le métal en fusion perd toute forme (mais le forgeron est là pour lui en donner une). Faire fondre quelque chose (du liquide au solide) peut être très utile, faire fusionner deux choses en les rendant liquides pour les mélanger (amalgame dentaire) aussi. La fusion de deux sociétés est quant à elle pleine d’aléas (si ce sont des réseaux ferroviaires, électriques ou bancaires, on en voit les avantages en termes de solidarité et de fiabilité, mais si ce sont des entités industrielles et/ou commerciales très variées, c’est souvent un échec). Mais fusionner deux organismes tels qu’un réseau de composants électroniques et un cerveau humain, si c’est seulement possible, relève d’une erreur d’attribution : ce n’est pas parce qu’on a parlé de réseaux de neurones en IA qu’il s’agit de vrais neurones artificiels. Cette prétendue fusion aboutirait plus probablement à Brendel/mouche/télépode (cf. le film La Mouche) – soit un abominable mélange régressif et non viable. En réalité, il ne s’agit pas de fusion mais de greffe (si la chose implantée s’incorpore à peu près complètement) ou de prothèse (si elle remplace passivement).

    À la question « Quel est le contraire de l’intelligence artificielle ? », Henri Atlan répondit « La bêtise humaine »

    Revenons au futur proche. “L’augmentation cérébrale”, en supposant qu’elle réussisse, serait-elle d’une quelconque utilité ? Si elle affine nos sens, nous permet de mémoriser plus aisément, de réagir plus vite, d’être plus précis dans nos gestes, elle ne sera pas mal venue. Rendra-t-elle plus intelligent ? Oui, si toutes les qualités susnommées nous rendent plus aptes à discerner, à juger, à nuancer, à peser, à imaginer, à choisir. Ce qui n’a rien de sûr, car les hautes performances corporelles ne garantissent en rien la moindre capacité à faire face aux diverses situations sociales, économiques, techniques, écologiques… auxquelles sont confrontés en permanence les êtres humains (comme tous les autres êtres vivants d’ailleurs). En revanche la saturation d’informations, l’implantation d’éléments à très haute vitesse et inaptes à se régénérer risquent d’induire de graves dysfonctionnements et des phénomènes de types cancéreux.

    D’ailleurs, pourquoi les adorateurs de l’IA n’ont-ils pas pensé à quelque chose de bien plus simple : doubler, tripler ou décupler le nombre de neurones, ce qui nous rendrait – forcément – deux, trois ou dix fois plus “intelligents” ? Il suffirait d’augmenter aussi le volume intérieur de la boîte crânienne ou de la remplacer par un casque hémisphérique en tungstène.
    unnamed-file


    Puces RFID implantées dans les mains.

    Revenons à notre ami Laurent Alexandre. Lorsque le journaliste (Vincent Tremolet de Villers) lui dit : « L’homme ne se réduit pas à son cerveau. Il est aussi sensibilité et vie intérieure. Ces deux dimensions sont-elles menacées ? », il a droit à cette réponse digne de figurer dans une anthologie du non-sens : « Vous avez à mon sens tort, l’homme se réduit à son cerveau. Nous sommes notre cerveau. La vie intérieure est une production de notre cerveau. L’Église refuse encore l’idée que l’âme soit produite par nos neurones, mais elle l’acceptera bientôt. »

    À l’appui de cette vérité définitive, Laurent Alexandre cite le révérend Christopher Benek [dont le site “illuminant” vaut le détour], qui souhaite que les machines douées d’intelligence puissent recevoir le baptême si elles en expriment le souhait. Ouf, nous sommes sauvés : c’est bien connu, des machines chrétiennes ne pourront être que des apôtres de l’amour universel et ne chercheront jamais à éliminer l’être humain. Bien mieux que les trois lois de la robotique d’Asimov.

    L’ordre numérique et la loi technologique
    Les élucubrations franchissent un cran dans la mégalomanie, lorsque Laurent Alexandre nous explique que nous, auditeurs moyens, n’avons pas encore compris que les “vrais” maîtres du monde sont les Gafa [Google, Amazon, Facebook, Apple, NDLR] et leurs semblables asiatiques. Ce sont eux qui font la “loi” (on ne sait pas laquelle, mais peu importe) et dictent leur conduite aux gouvernements (NB : avant c’était les Ford, les Rockefeller, etc.). « L’essentiel des règles n’émane plus des parlements mais des plateformes numériques. » Les parlements sont dépassés et même obsolètes, puisqu’ils ne comprennent rien à LA technologie, ne pourraient pas « auditer » les IA (je n’ai pas compris en quel sens Laurent Alexandre emploie le mot “auditer”). Bref, les politiques, comme les éducateurs, vivent dans le passé et feraient bien de se mettre à l’écoute des dirigeants de la révolution numérique, qui vont parvenir, enfin, à créer “l’homme nouveau” dont rêvaient les communistes dans les années 1920.

    « Deux choses sont infinies, l’univers et la bêtise humaine, et pour l’univers je n’en suis pas absolument sûr » citation attribuée à Albert Einstein

    Il est quand même douteux que les politiques y parviennent (à écouter les maîtres du monde) car ils « raisonnent à quinze jours, la Silicon Valley à 1 000 ans », clame Laurent Alexandre (cité par Hubert Guillaud sur le site Internetactu, d’après son discours déjanté à la conférence Unexpected sources of inspiration, centrée sur les enjeux du digital et créée il y a 10 ans ; elle a accueilli 1 800 personnes au Carrousel du Louvre en 2015).

    Quel manque d’ambition de la Silicon Valley (telle que l’imagine Laurent Alexandre). Car, en réalité, ses 6 000 entreprises de haute technologie et ses liens consubstantiels avec l’université de Stanford, une des meilleures du monde, sont capables de réalisations de grande qualité. Des auteurs tels que H.G. Wells, A.E. Van Vogt, A.C. Clarke, I. Asimov, R. Silverberg, etc. anticipent sur des centaines de milliers, des millions et même des milliards d’années (cf. La Cité et les Astres, d’Arthur Clarke, écrit en 1956).

    De plus, ce jugement est faux : les hommes d’État de quelque envergure ont depuis longtemps envisagé le futur sur des centaines d’années ou plus, et ont tout fait pour bâtir pour des millénaires. Il est également faux que tout se passe à la Silicon Valley. Les fabricants de matériel électronique, de systèmes, réseaux et terminaux (tels que les smartphones, par exemple) informatiques, œuvrent dans le monde entier. Et l’inventivité en matière d’usages du “numérique” n’est pas l’apanage de l’Amérique du Nord. Ce qui distingue les Californiens est d’une part une capacité à capitaliser vite et bien, et par suite à monter rapidement de grandes compagnies, d’autre part leur industrie du spectacle (show business) qui en fait les premiers “communicants” (baratineurs et propagandistes) du monde.

    Certes, une branche d’industrie peut vouloir “faire la loi” dans son domaine (comme EDF entre 1945 et 1985), mais ne peut pas voter les lois, et c’est pourquoi le lobbying et la corruption d’élus et de fonctionnaires existent.

    De l’urologie à la futurologie
    Laurent Alexandre est médecin diplômé d’urologie et a suivi les cours de MBA d’HEC, ce qui lui a manifestement réussi puisqu’il a créé Doctissimo – site plusieurs fois dénoncé pour son peu de fiabilité –, qu’il a vendu au groupe Lagardère pour 70 millions d’euros en 2008. Depuis, il a ajouté trois lettres à sa spécialité de départ, « f-u-t » comme dans futé, car il l’est, pour faire avaler de telles énormités. Car ce n’est pas fini : il est aussi généticien, cosmologue et visionnaire à très, très long terme.

    « Contre la stupidité, les dieux eux-mêmes luttent en vain » Friedrich Schiller, La pucelle d’Orléans, 1801

    Pour lui, l’espèce humaine va devenir immortelle… d’ici 1 000 ans au plus. Pour cela, il faudra avoir fusionné avec l’IA. « Le but ultime de la science est de combattre la mort de l’univers, par la création artificielle de nouveaux univers. Après la mort de la mort, la science se consacrerait à combattre la mort de l’univers. La cosmogénèse artificielle mobiliserait toute l’énergie de l’humanité dans les prochaines milliards d’années. »

    Isaac Asimov avait trouvé plus simple de construire un ordinateur, Multivac, qui, après des milliards d’années d’auto-perfectionnement (et suite à la fusion, hors espace-temps, entre ordinateur et être humain), découvrirait enfin, après la disparition de l’univers, la réponse à la question : « Peut-on inverser l’entropie ? » et engendrerait un nouvel univers en disant simplement : « Que la lumière soit ! » (La Dernière Question, 1956). Mais Laurent Alexandre ne cite pas Asimov.

    En revanche, il croit citer Darwin qui aurait “expliqué” que si l’univers mourrait, alors l’aventure humaine n’aurait eu aucun sens. On peut toujours chercher quoi que ce soit qui ressemble à ce genre de réflexion chez Darwin, ce serait en vain, car Darwin comprenait que l’espèce humaine est une espèce parmi d’autres, vouée à disparaître, comme les autres. Il est vrai que Darwin ne savait rien de l’IA. Quel était son QI, au fait ?

    Il prétend aussi citer Teilhard de Chardin, qui aurait introduit en 1922 le terme de “noosphère”, alors que, même s’il y a pensé dans les années 1920, le terme a été d’abord utilisé publiquement par Édouard Leroy au Collège de France en 1927, et diffusé par Vernadski, auteur de La Biosphère (1926) – ouvrage traduit en français en 1929 – qui formule le triptyque suivant : lithosphère, biosphère, noosphère. Teilhard en parle dans Le Phénomène humain, qui n’a paru qu’en 1955, ayant été interdit par l’Église catholique durant près de dix ans. Ce qui est certain, c’est que Laurent Alexandre ne comprend rien à la pensée de Theilhard : « Le monde futur décrit par Teilhard est bien cette fusion neurotechnologique où le corps disparaît progressivement. » Teilhard n’a jamais envisagé ce genre de futur. Il voulait concilier la théorie darwinienne et un Dieu « Moteur, Collecteur et Consolidateur, en avant, de l’Évolution » (La place de l’homme dans la Nature : Le groupe zoologique humain, 1956 ; ce livre fut interdit à la publication durant sept ans).

    Laurent Alexandre est quand même un grand humaniste, porteur d’une nouvelle éthique : « Je suis persuadé que le sauvetage de notre corps constitue l’un des trois piliers essentiels de notre humanité avec le maintien du droit à nous déconnecter de la matrice et le maintien d’une part de hasard génétique. » Comme la vie humaine est simple : tous les autres maux dont nous pouvons souffrir ne sont rien à côté des trois qu’il dénonce !

    Par exemple : les maladies dégénératives, les guerres de religion, les pénuries alimentaires, les pollutions (air, sol, eau), les catastrophes naturelles, les accidents industriels, l’exploitation des enfants, les viols et violences continuels, etc. Laurent Alexandre vit déjà dans un monde virtuel où rien ne compte d’autre que la projection permanente de visions manichéennes (transhumains, tous bons – IA, toutes mauvaises) et d’ennemis imaginaires propres aux délires paranoïaques (au vrai sens du terme : se croire menacé de destruction). À moins qu’il ne fasse semblant, parce que ça peut rapporter encore plus d’argent que Doctissimo.

    #Qi #discriminations #IA #Elon_Musk #Laurent_Alexandre #RFID #stupidité #Urologie #futurologie #Doctissimo #Isaac_Asimov #noosphère