• De l’électricité sans réseau ?

    Réflexions sur les possibilités d’une (auto)gestion décentralisée de l’énergie électrique

    mai 2013

    « Le Réseau interconnecté est une simulation de la concurrence parfaite,
    c’est-à-dire que les électriciens sont à la fois des planificateurs et des néo-libéraux absolus
     »

    « La France est le pays – par excellence – de l’interconnexion électrique » 1

    (1) Jacques Lacoste, « Interconnexion des réseaux d’énergie électrique. Raisons et enjeux de l’interconnexion en France 1919-1941 », Cahier / Groupe Réseaux n°4, 1986. pp. 105-141.

    __________________________________________

    Introduction

    Notre époque est paradoxale. Alors que les débats et les réflexions sur l’énergie semblent être amenés à s’étendre, notre situation de consommateur reste banalement inchangée, au sens où nous demeurons radicalement éloignés de conditions qui nous donneraient prise sur une quelconque réalité matérielle. Pourtant, le fait premier est l’étrangeté des infrastructures qui nous pourvoient en énergie. Nous vivons dans un univers étranger aux macro-systèmes techniques dont nous dépendons. Cela vaut d’ailleurs aussi pour les salariés des entreprises qui gèrent ces systèmes, n’ayant qu’une vision localisée de ce que fait leur entreprise.

    Malgré cette situation, il peut être utile d’établir une sorte d’inventaire de ce qui existe, tant au niveau technique qu’au niveau institutionnel, et de replacer ces éléments dans la perspective historique d’une réappropriation – ou de ce qui l’empêche. Dans le cas de l’électricité – qui est l’objet de ce texte – notre approche sera de réfléchir systématiquement à partir du réseau électrique, et de questionner son existence au regard de ce qu’il nous permet de faire, et ce qu’il nous empêche de faire. Pourquoi un tel réseau, qui a pris aujourd’hui une taille continentale, a-t-il été développé, alors même que notre attention demeure focalisée sur les questions de production d’électricité ? Qui sont les acteurs qui gèrent et développent ce réseau ? Est-ce que l’on peut envisager une réappropriation par ses utilisateurs, à l’échelle très locale, de l’énergie électrique via ce réseau ?

    Par ailleurs, ce questionnement général trouve une actualité certaine dans le développement de la production dite "décentralisée" raccordée au réseau, qui lui-même reste dans l’angle mort des débats. Pourtant la structure et la gestion réseau découlent largement de la présence de grosses centrales assurant l’essentiel de la production. En l’état actuel le réseau s’accommoderait très mal d’une situation inversée, où la production serait essentiellement le fait de petits producteurs. L’équilibre du réseau est en effet géré par le « haut », c’est-à-dire en France par RTE au niveau des centres de dispatching commandant à distances les grosses unités de productions et les importations-exportations avec les réseaux des pays voisins européens. Plus localement, le réseau de transport n’est pour l’instant qu’une structure figée arborescente abreuvant les 35 millions de consommateurs, et essentiellement alimentée par le réseau de transport situé en amont.

    Le réseau électrique apparaît en effet comme une boîte noire, une infrastructure sur laquelle on peut compter et sur laquelle il n’y a qu’à brancher des producteurs et des consommateurs. Il nous faut questionner l’évidence de ce réseau pour comprendre ses effets propres. Mais le questionnement n’est pas uniquement technique car l’histoire de ce réseau s’insère pleinement dans une dynamique capitaliste. Celui-ci s’est en effet développé en faisant abstraction des usages, cette abstraction donnant au réseau une souplesse qui lui permet de s’adapter aux différentes étapes historiques de cette dynamique : hier, l’électrification du territoire et la centralisation de la production, aujourd’hui, un marché éclaté en multiples acteurs et techniques de production sollicitant d’avantage le réseau dans ses dimensions propres (gestion de l’équilibre).

    Un réseau, quel réseau ?

    Précisions d’emblée ce que recouvre la notion de réseau dans le cas du réseau électrique. Selon Alain Gras1, l’usage visé de l’énergie au sein d’un macro-système technique (MST) est d’abord une « délocalisation de la puissance », une énergie extraite en un lieu donné et diffusée sur un vaste territoire appréhendé au travers de ce MST. C’est bien en effet comme cela que nous apparaît le réseau électrique, dont le maillage serré innerve l’ensemble des territoires urbains et ruraux, et diffuse une énergie « universelle » prête à l’emploi, indépendante des usages, produite et gérée on ne sait comment.

    Mais l’existence d’un tel système ouvre au moins deux questions. Pourquoi une énergie universelle, et pourquoi pas plutôt des types d’énergie différenciés, pour des usages eux-mêmes différents ? Pourquoi un réseau d’un seul tenant, et pas une multitude de petits réseaux ? Si l’on remonte aux débuts de la constitution du réseau électrique (1870-1890), ces deux aspects n’allaient en effet pas de soi. L’électricité était d’abord une technique d’éclairage et popularisée comme telle. D’autres usages comme les moteurs se développent ensuite, via une électricité autoproduite sur les lieux même de sa consommation. Il peut donc être utile de remonter aux prémisses historiques du réseau électrique, pour se défaire de certaines évidences.

    (2) Alain Gras, Grandeur et dépendance. Sociologie des macro-systèmes techniques, 1993, PUF.

    __________________________________________

    Les débuts historiques du réseau électrique

    Jusque vers 1920, la situation en France est celle où coexistent des réseaux locaux non reliés entre eux, alimentés par une centrale de production unique, dont la gestion incombe à une régie municipale ou est déléguée à une entreprise. En France, les premières interconnexions créées relient les centrales hydroélectriques du Massif central au réseau pour alimenter Paris, en combinaison avec les centrales alimentées par charbon (voir Figure 3).

    Comment s’est constituée l’interconnexion des réseaux électriques locaux, jusqu’à former aujourd’hui un réseau européen continental standardisé ?

    La bataille américaine des courants

    Aux Etats-Unis dans les années 1890, des groupes industriels privés s’opposent agressivement sur un marché naissant. Le réseau électrique est vu comme un « monopole naturel », c’est-à-dire comme une infrastructure matérielle pourvoyeuse de revenus et qui n’a pas vocation à être dupliquée. Deux options techniques s’affrontent, avec leurs avantages et leurs inconvénients. Le réseau électrique étant vu comme monopole naturel, il entraîne aussi que ces deux options sont considérées comme incompatibles l’une avec l’autre.

    La première option est celle du courant électrique continu. L’autre est celui du courant alternatif, technique développée dans un deuxième temps. C’est finalement le courant alternatif qui l’emporte. Mais pourquoi ? Aujourd’hui, la vision de l’histoire est celle du vainqueur. Quand on se demande pourquoi on utilise du courant alternatif, la réponse est que cela permet de l’acheminer sur de plus longues distances, au contraire du courant continu1. Par cette réponse, on présuppose la nécessité de délocaliser la production électrique, donc la nécessité d’un réseau électrique.

    Bien qu’aux Etats-Unis le courant alternatif s’impose rapidement après les années 1890, la situation n’est pas la même en Europe. Notamment en Grande-Bretagne, où le contexte institutionnel est différent. La loi stipule alors que les entreprises auxquelles les municipalités déléguaient la gestion du réseau électrique ne pouvaient pas se regrouper ou coopérer entre elles2. Jusque dans les années 1920, cette pluralité de marchés indépendants les uns des autres permettait de rendre viable économiquement la technique associant courant électrique continu et accumulateurs (pour stocker l’électricité produite et mieux répartir l’alimentation électrique dans le temps), au contraire des Etats-Unis où le processus d’interconnexion en courant alternatif et sans stockage d’énergie était engagé.

    Les raisons de l’interconnexion

    La situation des Etats-Unis en 1890 est donc celle d’une normalisation précoce, au regard de la construction d’un réseau électrique standardisé dans un contexte capitaliste. Ce n’est qu’au regard de cette dynamique capitaliste que la solution technique du courant alternatif s’est substituée complètement à celle du courant continu, et non pas en vertu d’une supériorité intrinsèque du courant alternatif3. Aux Etats-Unis, pendant la période de transition où les deux systèmes coexistaient encore, l’invention du « convertisseur rotatif » a permis de coupler les vieilles centrales à courant continu et leurs réseaux d’alimentation aux nouvelles lignes de transport à longue distance de courant alternatif à haute tension4. Cependant une fois la trajectoire d’interconnexion engagée, la solution des petits réseaux non reliés entre eux n’est plus viable. Plutôt que le stockage et l’autoproduction sur place d’énergie, sous contrôle municipal, c’est la grande taille du réseau qui permet d’équilibrer consommation et production, dans une course aux économies d’échelle qui favorise la construction de grosses usines de production (charbon, hydraulique). Mais cette grande taille nécessite aussi une gestion centralisée (voir plus loin), reléguant les municipalités au seul rôle du développement du réseau électrique, notamment dans les zones rurales, ce réseau étant systématiquement relié et alimenté par le réseau global (ce que l’on appelle le réseau de transport).

    La logique réticulaire permet une croissance continue de la demande et des capacités de production5, en accord avec la dynamique capitaliste se saisissant du concept d’énergie comme marchandise et comme catégorie générale, indifférente aux usages particuliers. Par dynamique capitaliste, il ne faut pas entendre ici le capitalisme au sens restreint d’une mise en concurrence sur un marché, mais bien d’une mise en rapport abstraite et quantitative du travail humain, indifférente au caractère particulier et concret de chacun des travaux. Quand le travail-marchandise devient médiation sociale6, l’énoncé du problème de l’énergie demeure « comment produire le plus possible d’énergie au moindre coût ». Le domaine énergétique induit donc une activité marchande particulièrement pure, du fait d’un soubassement scientifique et technique qui conduit à naturaliser un concept d’énergie indifférente aux usages. De fait, les Etats relaieront les entreprises privées lorsque celles-ci se montreront par trop incapables de poursuivre la dynamique capitaliste, comme ce fut le cas en France dès les années 1930. Le congrès de la CGT de 1937 est une première attaque contre un « patronat malthusien » en vue d’une nationalisation du macro-système électrique. La substitution de l’entreprise publique EDF aux entreprises privées en 1946 intervient comme l’aboutissement logique d’une intervention de plus en plus directe de l’Etat7, notamment dans l’achèvement de l’interconnexion des réseaux entamée dans les années 1920.

    (3) Ce qui est vrai à l’époque, mais pas aujourd’hui. Dans leur cours, Lasne, Gianduzzo et Geoffroy mentionnent que le courant continu devient économiquement avantageux à partir de 800 km de longueur de lignes. On parle aujourd’hui d’HDC (High Voltage Direct Current) ou CCHT (courant continu haute tension) pour désigner le transport de courant continu électrique à grande distance et que l’on trouve sur toutes les installations pharaoniques réalisées (barrage des Trois-Gorges en Chine) ou en projet (DESERTEC, alimenter l’Europe via des centrales solaires thermiques géantes dans les déserts nord-africain).
    (4) Bunn, David, Flux, n°6, 1991, p.41.
    (5) « Il ressort de la lecture des revues techniques et des magazines de l’époque qu’il n’y eut pas un consensus immédiat sur les mérites respectifs des deux sortes de courants. Il y avait des chercheurs et des inventeurs respectés, qui avaient participé aux débuts de l’industrie électrique, qui refusaient de reconnaître la supériorité technique du courant alternatif. Et de fait le courant continu se révéla également susceptible d’améliorations qui à la fois mettaient en valeur ses avantages spécifiques et élargissaient les conditions dans lesquelles il était compétitif. », Bunn, David, Flux, n°6, 1991, p.39.
    (6) Bunn, David, Flux, n°6, 1991
    (7) C’est la même logique qui joue pour Internet, où l’on voit se développer des data centers absoluement gigantesques, comme celui de Google qui compte deux millions d’ordinateurs.
    (8) Postone, 2009, pp.221-235.
    (9) Poupeau, 2004, p.12.

    __________________________________________

    Le courant électrique

    Lorsque l’on consulte des documents publics sensés vulgariser la gestion du réseau électrique, l’électricité est toujours présentée comme une substance, qui se déplace dans des fils et des composants électriques. Ainsi un parle de « chemins de l’électricité », de « flux », d’« embouteillages » etc1. L’électricité serait donc une substance qu’il faut transporter sur de « longues distances » et « distribuer » aux consommateurs.

    Pourtant, le courant électrique présent sur le réseau électrique actuel est alternatif, et si l’on suit la métaphore substantialiste, le courant ne ferait qu’osciller en tout point du réseau, à une fréquence unique et constante (50 Hz en France, soit 50 oscillations par seconde). Le courant électrique alternatif ne se déplace donc pas d’un endroit à un autre du réseau : il se constitue plutôt comme une mise en relation généralisée et universelle des éléments matériels qui constituent le réseau, à une fréquence d’oscillation donnée. Cela explique que les centres de « dispatching », qui gèrent l’équilibre global du réseau électrique, surveillent que la fréquence du réseau reste proche du niveau standard (cf. Figures 3 et 4), une baisse de la fréquence signalant une consommation trop importante.

    (10) Voir par exemple le « Blog du transport de l’électricité » : http://www.audeladeslignes.com/aiguilleurs-electricite-reseau-regional-haute-tres-haute-tension-67

    __________________________________________

    Le réseau électrique actuel

    Les niveaux de tensions HTB, HTA, BT

    Le réseau électrique actuel est divisé selon un schéma arborescent, des plus hautes tensions vers les plus faibles.

    Au niveau le plus élevé correspond le réseau de transport, géré en France par RTE (8 500 salariés). La gamme des tensions se nomme HTB, elle varie de 63 000 V à 400 000 V. 628 centrales de production sont connectées à cette partie du réseau.

    La partie « avale » du réseau est le réseau de distribution, géré en France par ERDF (36 000 salariés) pour l’essentiel, et pour 5% du réseau par 26 autres entreprises, dites ELD (entreprise locale de distribution). Entre le réseau de transport et le réseau de distribution se trouvent les postes sources, transformant le niveau de tension HTB en HTA (20 000 V, 15 000 V). Le courant HTA est ensuite transformé en basse tension, BT (400V1), par des postes de transformation pour alimenter quelque 35 millions de clients. Pour donner une idée, un poste HTA/BT peut alimenter une centaine de maisons individuelles.

    Il est important de bien distinguer le réseau de transport et le réseau de distribution car ils ne sont gérés de la même façon. La raison est que la production électrique est très fortement centralisée, avec un petit nombre d’unités de production qui alimente le réseau de transport. Cette différence est amenée à être remise en question avec le développement d’unités de production plus petites reliées au réseau de distribution. Dans l’optique d’une réappropriation du réseau électrique, c’est évidemment le réseau de distribution (en particulier BT) qui est le plus intéressant. Cependant, ce réseau dans son fonctionnement actuel est tout à fait dépendant du réseau de transport, ce qui oblige à l’étudier lui aussi.

    Les éléments du réseau

    Le réseau électrique est essentiellement constitué de transformateurs et d’organes de coupure, reliés par des lignes électriques, aériennes ou souterraines.

    Au niveau le plus local du réseau (réseau BT), les transformateurs HTA/BT sont enfermés dans des postes électriques de type divers (au pied d’un immeuble, dans un abri en parpaing, souterrain, fixé à un poteau…). Ils sont alimentés par le réseau HTA ou bien dans quelques rares cas par un producteur HTA, et transforment le courant HTA en courant BT, distribués aux consommateurs BT via plusieurs départs BT.

    Les organes de coupures fonctionnement comme des interrupteurs, ils permettent d’isoler manuellement ou automatiquement une portion du réseau. Certains d’entre eux sont télécommandables à distance, via un réseau telecom ou hertzien, par un centre de téléconduite (ou dispatching), ce qui permet donc de brancher ou débrancher certaines portions du réseau et leurs consommateurs. Les organes de coupures peuvent être dans des postes ou isolés sur le réseau.

    Les activités du gestionnaire du réseau

    Pour se représenter ce que fait un gestionnaire de réseau, on peut citer les différents types d’activité que l’on trouve chez ERDF :
    • L’exploitation du réseau : il s’agit du personnel intervenant physiquement sur le réseau pour son entretien.
    • Le développement du réseau : il s’agit de bureaux d’étude dessinant l’évolution du réseau (nouveaux postes, nouvelles lignes, enfouissement des réseaux aériens etc.) et du personnel supervisant ou réalisant les chantiers de construction.
    • Le raccordement du réseau : relation avec les clients dans leur raccordement physique au réseau électrique.
    • La conduite du réseau : il s’agit du personnel présent dans les centres de dispatching agissant à distance sur le réseau, via un système de télécommunication ouvrant ou fermant des interrupteurs.

    La conduite du réseau est intéressante à explorer. Bien que n’occupant qu’une minorité du personnel de l’entreprise, elle permet de comprendre le fonctionnement du réseau à travers sa fonction essentiel : la gestion de l’équilibre permanent entre production et consommation de l’électricité transitant sur le réseau.

    (11) Le courant électrique est triphasé, c’est-à-dire porté par 3 fils différents. En BT, 400V correspond à la tension composée efficace (tension entre deux fils), ce qui correspond à 230V =400*racine(3) de tension simple efficace (tension entre le fil de phase et le neutre, celle utilisée par le consommateur BT, c’est-à-dire nous).

    __________________________________________

    La gestion de l’équilibre production-consommation

    Avant d’entrer dans le descriptif des techniques de gestion de l’équilibre entre consommateurs et producteurs électriques du réseau, imaginons une installation autonome sans réseau, réunissant à portée de main la production d’énergie électrique et l’outillage électrique à alimenter avec cette production. Si je veux faire fonctionner un appareil électrique (mon lave-linge), je ne vais pas me contenter d’appuyer sur le bouton "On", mais je vais d’abord vérifier si la puissance et une autonomie électrique suffisante sont disponibles. C’est précisément en réalisant cette opération "sur un coin de table", celle consistant à m’assurer que j’ai les moyens électriques des mes ambitions du moment, que je me passe du réseau électrique. Le réseau électrique n’est rien d’autre qu’une infrastructure géante à qui je délègue ces opérations.

    Les automatismes de protection

    L’équilibre du réseau est appréhendé au travers de deux paramètres électriques : fréquence et tension du courant électrique. La fréquence est unique dans tout le réseau et doit rester autour de 50Hz1. La tension elle aussi doit être fixe (400V en BT). Si le courant électrique s’écarte de la fréquence et de la tension prévus, cela endommage ou réduit la durée de vie tous nos appareils électriques dont le fonctionnement présuppose que ces niveaux prévus sont respectés2. C’est pourquoi le réseau électrique comporte de nombreux automatiques détectant les écarts, et déconnectant producteurs et consommateurs à partir de certains seuils. Ces systèmes de délestage automatiques, indispensables pour protéger les appareils, sont aussi responsables de réactions en chaînes qui peuvent se propager sur l’ensemble du réseau, très rapidement3 et de manière parfois innatendue.

    Les automatismes de réglage

    A tout moment, nous dit-on, la quantité d’électricité consommées doit être égale à la quantité produites. Et cela parce que l’électricité "ne se stocke pas". On nous dit aussi que, du fait de cette absence de stockage, c’est l’interconnexion généralisée qui permet l’équilibre global entre consommation et production, puisque les variations de chaque unité (production ou consommation) sont noyées dans la masse, compenser par l’action de toutes les autres. Le réseau est alors vu comme la mutualisation rationnelle des moyens de production, se soutenant les uns les autres en cas d’incidents.

    Remarquons que même avec le stockage d’énergie, cette contrainte de l’équilibre demeure. Quant à l’interconnexion généralisée, elle ne résout pas vraiment le problème de l’équilibre entre consommation et production. Par ailleurs, la structure du réseau est largement figée. Par structure, il faut entendre la topologie (les liens électriques entre les différents éléments) et les caractéristiques électriques (comme la quantité maximum d’électricité qui peut transiter dans telle lignes) qui sont autant de contraintes matérielles fixées au moment de la construction du réseau.

    En fait, la plupart des éléments de l’équilibre sont donnés dès le départ, et choisis par les ingénieurs à partir des hypothèses qu’ils peuvent faire sur la consommation d’une part, la production d’autre part. Cette planification est cruciale pour l’équilibre du réseau. Au jour le jour, la gestion de l’équilibre-production ne peut se faire qu’à partir d’un nombre relativement restreints de paramètres : activation des réserves de production dans certaines centrales et ouverture d’interrupteurs pour déconnecter les consommateurs.

    Sur le réseau de transport

    Le réseau électrique est principalement alimenté par de gros centres de production connectés au réseau de transport4. Dès lors, le réglage de la fréquence et de la tension est principalement assuré par ces centrales de production.
    Une partie du réglage est automatique est réalisé au niveau même de ces producteurs (réglages primaire et secondaire). Toute variation de vitesse de rotation de l’alternateur de la centrale provoque la même variation de la fréquence du courant électrique du réseau connecté à la centrale. Ainsi le régime (vitesse de rotation) de l’alternateur est détecté et régulé par un mécanisme modifiant la puissance débitée, par exemple en agissant sur l’ouverture de la vanne dans le cas d’une centrale hydraulique.

    Si ces automatismes de suffisent pas à régler la fréquence, il faudra l’ajuster « manuellement » en agissant plus directement sur les centrales. Par ailleurs, la planification de l’équilibre production-consommation est réalisée par le gestionnaire du réseau de transport.

    Le réglage de la tension a lieu aussi plus localement, au niveau des transformateurs. Dans les postes sources HTB/HTA, interfaces entre le réseau de distribution et le réseau de transport, les transformateurs sont équipés de « régleur en charge », qui est un automatisme ajoutant ou supprimant des spires sur les enroulements du transformateur, de façon à compenser les petites variations de tensions sur le réseau autour d’une valeur fixée (la consigne). Mais au-delà de ce réglage, la valeur de la consigne étant fixée, c’est bien le réseau de transport qui gouverne l’équilibre du réseau HTA.

    Sur le réseau de distribution

    La puissance du transformateur est choisie en fonction des puissances appelées (i.e. consommées) par le réseau qu’il alimente.
    Pour le réseau BT, on peut dire que les possibilités d’ajustements en temps réel entre la consommation et la production sont inexistantes : dans les postes HTA/BT, les transformateurs sont réglés manuellement et hors tension5, pour délivrer tel niveau de tension. C’est dire si le réseau BT est dépendant du réseau amont à l’heure actuelle.

    (12) La fréquence du réseau européen est lisible en temps réel sur le site de l’ENTSO-E (European network of transmission system operator for electricity) : https://www.entsoe.eu/system-operations/the-frequency
    (13) La notion d’équilibre entre consommation et production n’a pas de sens hors de de l’existence de telles normes de fonctionnement des appareils électriques. Sur un plan strictement physique, production et consommation s’équilibrent de toute façon. La nature de la norme est que c’est l’appareil le plus contraignant qui impose tel seuil. Dans la perspective d’une déconnexion ou d’une relation plus lâche au réseau, il faudrait donc préciser ce qui, par delà les normes, relève effectivement d’un risque pour tel ou tel type d’appareil.
    (14) "(...) compte tenu de l’inertie mécanique relativement faible de certains composants des systèmes électriques (groupes de production et moteurs) et de la grande vitesse de propagation des phénomènes, les réseaux THT créent un couplage dynamique très fort entre les moyens de production, d’une part, et les charges (consommation), d’autre part. Du fait des interconnexions internationales, une perturbation importante en Europe du Nord peut être ressentie quelques secondes plus tard en Europe du Sud.", G. Testud, P. Bornad, M. Pavart, Réseau d’interconnexion et de transport : fonctionnement, 2005, Ed. de l’Ingénieur.
    (15) En 2004 en France, 95% de la production d’électricité est injectée sur le réseau de transport. Source : JL Fraisse, La production décentralisée raccordée au réseau public de distribution, présentation 02/12/2004.
    (16) Par la prise à vide transformateur.

    __________________________________________

    Le réseau et la marchandise

    Réseau et dynamique capitaliste

    Comme la gestion de l’équilibre électrique est réalisé au niveau global et que l’électricité est une marchandise, le système tend à s’étendre du moment que le client paie l’électricité qu’il consomme. La gestion de l’équilibre consiste à toujours fournir l’électricité qui est consommée. Le « métier » d’un gestionnaire de réseau est de s’adapter aux nouveaux usages de l’électricité, et plus exactement de savoir faire payer suffisamment ces usages pour délivrer un service capable de les satisfaire. Chaque extension du domaine des usages (par exemple, les véhicules électriques) est l’occasion d’une mobilisation d’une ingénierie qui doit répondre à ces « besoins », avec les proclamations habituelles en forme de « défis » qui vont la joie des nouveaux projets.

    On reconnait dans ce mouvement la structure de la forme marchande dans sa dynamique à deux faces :
    • Une face abstraite qui représente la dimension permanente d’un ressort qui s’apparente à un automatisme : ici, acheminer de l’énergie du moment qu’elle soit payée
    • Une face concrète constituée par les activités humaines répondant au coup par coup aux contraintes imposées par le pôle abstrait de la dynamique : ici, construire et organiser une gigantesque infrastructure technique imparfaitement résumée par une métaphore, « le réseau ».

    Impact de la production décentralisée sur le réseau

    La production décentralisée sollicite la gestion du réseau de distribution sur un domaine qu’il n’a pas l’habitude (ni les moyens techniques) de gérer : la gestion de l’équilibre du réseau à travers le réglage de la fréquence et de la tension. La difficulté réside moins dans le caractère décentralisée de la production que de son caractère intermittent, du fait de l’origine des énergies primaires : vent, soleil. Dans un premier temps la présence d’une production décentralisée oblige à revoir le genre d’étude de raccordement que l’on faisait auparavant (et ce que l’on appelle le « plan de tension » c’est-à-dire les règles que l’on se donne pour assurer la tension constante 400 V à délivrer sur le réseau BT). Dans un deuxième temps, il se pose un problème de conduite dans la mesure où la production électrique en un point donné n’est plus constante.

    Malgré l’éventail des solutions possibles, on s’oriente néanmoins vers une complexification croissante du réseau électrique « local », l’installation de nouveaux matériels en nombre gigantesque (des millions de nouveaux compteurs et concentrateurs). Une nouvelle étape dans l’informatisation de cette gestion s’amorce ainsi (smart grid), à la grande satisfaction des acteurs économiques du domaine. Le qualificatif d’« intelligent » masque le fait que l’on déjà répondu à une question avant même de l’avoir posée : comment gérer l’équilibre du réseau ? Les « smart grid » sont en fait la réponse toute faite à cette question en continuité avec les exigences de la dynamique marchande : produire un environnement tel que l’électricité peut demeurer une marchandise, en dépit de toutes les complications que cela oblige à générer. Loin de remettre en cause la forme marchande de l’énergie, les motifs écologiques de la production décentralisée viennent alimenter un nouvel espace marchand à construire. Un des éléments techniques essentiels dans cette construction est le compteur communicant (aussi appelée « compteur intelligent », en France le fameux « Linky » « proposé » par ERDF).

    Les compteurs intelligents : le rationnement piloté à distance

    Une expérimentation en Bretagne peut aider à comprendre à quoi serviront les nouveaux compteurs (Linky). La Bretagne produit moins de 10% de l’électricité qu’elle consomme17 et un des enjeux du gestionnaire de réseau est de « sécuriser » l’approvisionnement en électricité, c’est-à-dire de limiter les coupures et les désagréments ressentis par les consommateurs finaux. L’expérimentation a lieu sur les deux îles Houat et Hoedic, alimentées par un unique câble de 20 kV. Les consommateurs sont équipés des compteurs commandés par l’agence de conduite de Rennes, via des concentrateurs situés dans chaque poste HTA/BT alimentant les consommateurs. L’agence a la capacité de réduire la charge électrique (c’est-à-dire l’électricité consommée) de façon répartie, de façon à ce que chaque consommateur ait un minimum d’électricité disponible, au lieu de procéder aux délestages habituels fonctionnant en mode « tout ou rien » (on déconnecte une grappe de consommateurs le temps que la production ne revienne à niveau qui permet de les réalimenter). L’agence de conduite agit également de façon coordonnée sur un groupe électrogène situé sur l’île et sur un ensemble de sites de productions photovoltaïques.

    (17) On peut dire qu’une des raisons principales est que le projet du site nucléaire de Plogoff est le seul que le mouvement anti-nucléaire a réussi à faire échouer.

    #réseau_électrique #critique_du_capitalisme #postone

  • Céline Pessis & Sara Angeli Aguiton, Les petites morts de la critique radicale des sciences, 2015
    https://sniadecki.wordpress.com/2022/06/19/pessis-aguiton-critique-sciences

    Si la critique (et l’autocritique) des sciences a une histoire articulée à celle de l’écologie politique, son héritage est aujourd’hui invisible. Comment expliquer l’absence de transmission, entre générations de chercheurs comme au sein de la mouvance écologiste, de la mémoire de ce mouvement de critique radicale des sciences des années 1970 ? Après avoir éclairé les formes de l’engagement critique des scientifiques durant l’entre-deux-mai (1968-1981), cet article propose quelques pistes afin de rendre compte des reconfigurations sociales, politiques et institutionnelles qui ont produit une telle occultation. L’étude de deux moments est privilégiée : la reprise en main politico-industrielle de la recherche au tournant des années 1980, qui vient offrir aux chercheurs un nouvel ethos scientifique mêlant vulgarisation et innovation ; et le tournant réformiste « sciences-société » des années 2000, qui, tout en poursuivant une régulation libérale des innovations technocapitalistes, entend gérer le renouveau contestataire par l’inclusion de la société civile.

    #critique_techno #science #scientisme #Grothendieck #Serge_Moscovici #Histoire

    • Les conflits environnementaux et les nouvelles mobilisations ont grandement préoccupé les institutions européennes et nationales, qui raffinent leurs techniques de gouvernement pour les gérer. À l’échelle européenne, un arsenal d’instruments est alors développé afin de mesurer l’opinion publique concernant ces technologies et d’organiser le « public understanding of science » par des campagnes de communication et de médiation scientifique qui visent à redorer l’image des technosciences. En France, les CCSTI, les musées des sciences et de l’industrie ainsi que les initiatives de médiations scientifiques deviennent les bras armés de ces politiques. Ce mouvement politique, enclenché à la fin des années 1990, est très descendant et repose sur l’idée que les mobilisations sociales remettant en cause le dogme du progrès seraient le produit d’un manque de confiance lié à un manque de connaissance scientifique (conception que l’on nomme « modèle du déficit »).

      #acceptabilité #médiation

  • Les Chimpanzés du futur à Lille : le film et la conférence
    https://www.piecesetmaindoeuvre.com/spip.php?article1696

    Pièces et main d’œuvre était invité le 5 juin 2022 à Lille par le festival Elnorpadcado, pour une causerie « Technologie | Technocratie | Transhumanisme ». Causerie suivie d’une intrusion, avec les Chimpanzés du futur, à l’exposition transhumaniste « Novacène » à la Gare Saint-Sauveur (lire ici). Voici le film des Chimpanzés du futur, ainsi que des extraits sonores de la causerie, divisée en six chapitres. La première partie répond à l’interdiction de cette conférence par le cinéma L’Univers, où elle devait se tenir initialement. La dernière répond aux accusations qui, depuis Le Nouvel ordre écologique (Luc Ferry, 1992), associent (les défenseurs de) la nature à la réaction, sinon à l’extrême droite. * Les Chimpanzés du futur à l’expo Novacène.mp4 from Chimpanzés du futur on Vimeo. * Extraits de la (...)

    #Nécrotechnologies

  • Bertrand Louart, Réappropriation, jalons pour sortir de l’impasse industrielle, 2022
    https://sniadecki.wordpress.com/2022/05/30/louart-reappropriation

    Or, en cernant les conditions qui transforment ces savoir-faire au point d’en être « réduits à n’être plus que des suites d’opérations matérielles des plus vulgaires », il m’est apparu que le problème était non pas que la production soit industrielle, mais qu’actuellement toute production tend à devenir industrielle au détriment des capacités de production autonome des individus et des communautés. Plutôt que de « critique anti-industrielle » (dénomination qui s’attirait le reproche peu subtil : « Vous êtes contre toutes les machines ! »), il me se semblait plus intéressant d’approfondir la critique du capitalisme industriel.

    Depuis, ces brochures ont fait leur chemin, dans les infokiosques et ailleurs. Surtout, la multiplication des oppositions aux projets d’aménagement du territoire et d’extraction des ressources minières en France et en Europe (ZaD et autres) a mis en avant dans une fraction de la jeunesse engagée une critique de la société industrielle qui, sur les lieux et territoires occupés, s’articule à une reconquête de l’autonomie matérielle. Il me semble aujourd’hui nécessaire d’étoffer et d’actualiser cette brochure et ces propositions pour les mettre plus en phase avec leur temps, exposer les banalités de base de la critique du capitalisme industriel et de la démarche de réappropriation des savoir-faire qui est son pendant nécessaire.

    #livre #subsistance #réappropriation #capitalisme #anti-industriel #critique_techno

  • La Russie veut interdire aux étrangers de recourir à ses mères porteuses La Tribune - Reuters
    https://www.latribune.fr/depeches/reuters/KCN2NA1U7/la-russie-veut-interdire-aux-etrangers-de-recourir-a-ses-meres-porteuses.h

    Les députés russes ont approuvé mardi en première lecture un texte de loi visant à interdire aux étrangers de recourir aux mères porteuses en Russie, un projet visant implicitement les Occidentaux sur fond de guerre en Ukraine.

    Le recours à des mères porteuses rémunérées est légal en Russie même si cette pratique est critiquée par des organisations religieuses qui la considèrent comme une commercialisation de la procréation.

    L’un des rédacteurs du texte, adopté à la quasi-unanimité en première lecture, a déclaré qu’une telle législation était nécessaire pour mettre les enfants nés en Russie à l’abri du danger.


    (Crédits photo : Pavel Mikheyev)
    Elu de Russie unie, le parti majoritaire soutenant le président Vladimir Poutine, Vassili Piskariov a déclaré qu’en l’état actuel de la loi, « nous ne pouvons pas suivre le destin d’un seul bébé ».

    « Nous ne savons pas qui sont leurs parents, leurs prétendus ’père’ et ’mère’ ni pourquoi ils achètent un bébé », a déclaré l’élu à la Douma, estimant qu’environ 40.000 enfants nés en Russie de mères porteuses avaient quitté le pays pour être élevés par des étrangers.

    « Pourquoi devrions-nous dépenser notre argent pour résoudre les problèmes démographiques d’autres pays ? » a-t-il ajouté, proposant que les bébés nés de mères porteuses en Russie obtiennent automatiquement la nationalité russe « afin de pouvoir connaître leur destin ».

    Pour entrer en vigueur, le texte doit encore être adopté à l’issue de deux autres lectures à la Douma, puis être examiné par le Conseil de la Fédération, la chambre haute du Parlement, et être promulgué par Vladimir Poutine.

     #gpa #fric #pma #femmes #reproduction #critique_techno #marchandisation #nécrotechnologies #gestation_pour_autrui #libéralisme #maternité #exploitation #marchandise

  • Identité numérique : prouve que tu existes
    https://www.piecesetmaindoeuvre.com/spip.php?article1685

    La Commission européenne prépare son « portefeuille européen d’identité numérique ». Rome et Bologne adoptent le « crédit social numérique » à la chinoise. La digitalisation de l’État et son corollaire, l’identification numérique, progressent dans l’indifférence des Smartiens, à la faveur des phases aigües de la Crise (épidémie, guerre, effondrement écologique). Il aura fallu moins de vingt ans pour que se réalisent nos pires anticipations sur la société de contrainte. Pour les nouveaux venus et les nostalgiques, on a ressorti quelques archives. Te souviens-tu de Libertys ? (Pour lire le texte, ouvrir le document ci-dessous.)

    Lire aussi : – Libertys – Carte d’identité électronique : ce n’est pas du canular – Aujourd’hui le nanomonde #10 – Après l’occupation de la CNIL – Au doigt et à l’œil (...)

    #Nécrotechnologies
    https://www.piecesetmaindoeuvre.com/IMG/pdf/prouve_que_tu_existes.pdf

  • Règne de la valeur et destruction du monde, Éditorial du n°4 de la revue Jaggernaut par Sandrine Aumercier, Benoît Bohy-Bunel et Clément Homs (Avril 2022) - Critique de la valeur-dissociation. Repenser une théorie critique du capitalisme
    http://www.palim-psao.fr/2022/05/regne-de-la-valeur-et-destruction-du-monde-editorial-du-n-4-de-la-revue-j

    (Belle illustration)

    Mais si « l’époque géologique dominée par l’homme » conduit à une situation dans laquelle l’existence de l’humain pourrait être compromise, il y a quelque chose de très problématique dans la vision de cette domination de la nature réduite à un « substrat dominé ». Après tout, il doit y avoir quelque chose d’inhumain ou « d’objectivant » dans cette sorte de domination par « l’être humain » dont l’issue pourrait justement être l’extinction des humains. L’anthropocène se révèle finalement après coup comme une rupture non planifiée, non intentionnelle, non contrôlée, comme l’effet secondaire d’un « métabolisme social avec la nature » (Marx) enclenché par le capitalisme industriel et devenu hors de contrôle. Cela peut facilement être illustré par des exemples. La combustion des énergies fossiles utilisées comme carburant pour les systèmes industriels et de transport devait immanquablement provoquer la perturbation du cycle du carbone. L’extraction massive du charbon a commencé en Angleterre pendant la révolution industrielle si bien qu’avec cette nouvelle source d’énergie mobile, les industries ont pu se déplacer des barrages vers les villes où se trouvait une main-d’œuvre à bon marché.

    […]

    Personne ne l’a consciemment planifié, pas plus que l’eutrophisation des lacs ou l’effondrement des écosystèmes. La même histoire se déroule avec la perte de biodiversité, la perturbation du cycle du phosphore ou l’acidification des océans. À cet égard, « l’époque géologique dominée par l’homme » ressemble beaucoup plus à un produit du hasard et de l’inconscience qu’au développement d’une habileté à maîtriser les cycles planétaires bio-géophysiques, en dépit de la référence de Crutzen à Vernadsky et à Teilhard de Chardin, lequel visait à « accroître la conscience et la pensée » et « le monde de la pensée » (la noosphère). « Ils ne savent pas ce qu’ils font, mais ils le font » – c’est ce que dit Marx au sujet de l’activité sociale fétichisée médiée par les marchandises, dans laquelle il convient de voir la clé d’une compréhension critique de l’anthropocène.

    Néanmoins parler de hasard et d’inconscience ne signifie pas dédouaner la question des responsabilités. Qui est cet anthropos, cet être humain des discours sur l’anthropocène ? S’agit-il de l’espèce humaine en général, de manière indifférenciée, de l’humanité non seulement prise comme un tout (qui n’existe pas), mais aussi abstraite de toutes déterminations historiques concrètes ? Cet immense flou conceptuel permet notamment de justifier la géo-ingénierie climatique – prônée par Paul Crutzen – ou encore les idéologies du développement durable, de l’économie circulaire faisant la chasse au gaspillage particulier ou du néomalthusianisme qui voit la cause du problème dans la démographie des pays de la périphérie. De la sorte, anthropos reste celui qui détruit mais aussi celui qui répare, et on conserve la double figure du progrès, à la fois prométhéenne et démoniaque, héritée de la première époque industrielle et des Lumières.

    Noyant la responsabilité dans une humanité en réalité inégalement responsable et inégalement impactée, la notion d’anthropocène met manifestement mal à l’aise et suscite de nombreuses discussions sur les « seuils » historiques et de nombreuses négociations terminologiques, chacun y allant de sa propre tentative de nommer l’agent et le patient du désastre. Donna Haraway lui substitue par exemple le terme de plantacionocène pour viser la colonisation des Amériques comme marqueur de cette nouvelle époque et, plus récemment, celui de chtulucène pour nous inviter à « habiter le trouble », c’est-à-dire à investir les ruines : « nous sommes tous du compost », affirme Haraway. On ne saurait mieux esthétiser la catastrophe et diluer la responsabilité de cette situation récente dans la grande histoire bactérienne de la planète Terre.

    Toutes ces tentatives conceptuelles ratent l’occasion de problématiser l’origine logique de cette transformation ainsi que le sujet qui la porte. En va-t-il autrement avec le terme de « capitalocène » proposé par Andréas Malm ou Jason Moore pour essayer de rendre compte des limites de la notion d’anthropocène ? La notion de « capital fossile » développée par Malm à partir de matériaux historiques montrant la coïncidence historique de l’essor du capitalisme industriel avec celui des énergies fossiles aboutit à la curieuse figure d’un anthropocène dont l’agent serait les énergies fossiles et dont les responsables seraient ceux qui, encore aujourd’hui, continuent de défendre et mettre en œuvre ces énergies. Il faudrait donc évidemment les mettre hors d’état de nuire. De manière générale, une partie du marxisme exsangue s’est recyclée depuis une vingtaine d’année dans un écosocialisme qui n’a rien lâché du dogme du « développement des forces productives » : mais il faut maintenant se jeter à corps perdu dans la production de panneaux solaires et d’éoliennes et en arracher la propriété aux griffes des capitalistes cramponnés à leur cheminées à charbon et leurs puits et pipelines de pétroles. Il s’ensuit une conception pas seulement « léniniste » mais aussi lénifiante des « énergies renouvelables ». C’est d’elles en effet que Malm et les écosocialistes attendent maintenant le salut écologique – en parfaite congruence avec les discours officiels qui promettent un avenir vert et durable sans rien dire de l’intensification extractiviste et de la multiplication des ravages miniers qu’elle suppose. Pendant ce temps, Total Energies joue sur les deux tableaux, vert et fossile, tandis que Joe Biden, célébré notamment pour sa promesse de réintégrer les Accords de Paris, signe en l’espace d’un an davantage de permis de forages pétroliers que Donald Trump en quatre ans. Il est ainsi de mieux en mieux documenté à quel point non seulement les énergies renouvelables sont à l’origine d’un véritable ravage, mais à quel point aussi elles ne font que s’ajouter à la trajectoire globale sans l’infléchir le moins du monde.

    […]

    C’est ainsi qu’avec l’avancée de la crise écologique, l’angoisse s’empare aussi de ceux qui, il y a peu, niaient encore la réalité du changement climatique : tout le spectre politique est désormais entiché de « l’urgence climatique » devant un électorat aux abois. Il n’est pas jusqu’à l’extrême-droite qui n’ait commencé à accommoder l’écologie à ses thèmes favoris. Néomalthusianisme, darwinisme social, défense armée des territoires et de l’identité nationale, survivalisme, actes de terrorisme à vocation écologique : ces tendances montantes signalent la néo-fascisation d’une frange de la société qui n’est que la pointe avancée des tendances politiques transversales. L’érection de murs et l’abandon à leur sort de populations superflues ne méritent d’ailleurs même plus de justification au niveau mondial et se banalisent dans l’indifférence.

    Pendant ce temps, quelques-uns s’égosillent à prêcher des valeurs humanistes et à militer pour la reconnaissance du crime d’écocide ou des « droits » accordés aux entités naturelles dans le cadre de la forme juridique bourgeoise. Le biocentrisme qui caractérisait davantage l’écologie profonde jusqu’à récemment est devenu en quelques années le fonds de commerce d’une écologie antispéciste, parfois associée au véganisme, éprise de conservation et de restauration de la nature. Une nature transformée en spectacle dont les occupants indigènes sont évacués ou harcelés ; une nature souvent très mal connue de ses promoteurs, comme le montrent entre autres Charles Stepanoff et Guillaume Blanc dans leurs ouvrages récents.

    […]

    Le concept moderne de « nature » est entièrement modelé par la forme-marchandise et par la forme-sujet bourgeoise. Les sciences naturelles modernes, à la suite de Emmanuel Kant, ont présupposé un sujet purement formel, identique à lui-même, susceptible de synthétiser le divers de l’intuition sensible. Ce sujet abstrait restait indépendant de l’empirie, et il posait la nature comme extériorité radicale qu’il s’agissait de soumettre à la question. Cette subjectivation moderne institue une dualité sujet-objet et une nature purement séparée qui ne sont pas indépendantes du procès de valorisation de la valeur. Elle institue également un temps abstrait et un espace homogène qu’il s’agit de quantifier en vue de sa maîtrise.

    […]

    La critique de la destruction du vivant suppose donc aujourd’hui la critique radicale des sciences positives et des techniques modernes, mais aussi la compréhension d’une connexion intime entre crises écologique, sociale, économique. Elle suppose également la critique du patriarcat producteur de marchandises et d’un racisme structurel, naturalisant. Aujourd’hui, les spécialisations et compartimentations empêchent d’apercevoir ces phénomènes multidimensionnels. Ces spécialisations théoriques sont à l’image de la division capitaliste du travail, et elles sont en elles-mêmes aliénées.

    #capitalisme #critique_techno #anti-industriel #énergie #écologie #naturalisme #critique_de_la_valeur #wertkritik

  • La machine est ton seigneur et ton maître - Agone
    https://agone.org/livres/la-machine-est-ton-seigneur-et-ton-maitre
    Deuxième édition actualisée et augmentée, postface et traduction de l’anglais par Celia Izoard.

    Sous le titre « Les ombres chinoises de la Silicon Valley », la réactualisation de la postface que donne Celia Izoard analyse l’écueil des fantasmagories de l’« économie immatérielle » auxquelles succède le quadrillage électronique de nos vies, tandis que la pandémie de Covid-19 « accomplit l’organisation légiférée de la séparation physique des individus pour leur vendre les moyens de communication leur permettant de ”rester en contact” ». Ce projet paradoxal, qu’ambitionnaient depuis longtemps les entreprises technologiques — remplacer les relations humaines incarnées par des transactions électroniques –, étant en prime auréolé d’une vision d’un nouvel humanisme fait de sécurité, de solidarité et d’hygiène.

    Un autre #livre à paraître prochainement aux éditions Divergence :
    L’automatisation et le futur du travail - Aaron Benanav
    https://www.editionsdivergences.com/livre/lautomatisation-et-le-futur-du-travail

    Intelligence artificielle, robots, big data, machine learning : l’automatisation semble sur le point de changer la face du monde et de mettre fin au travail humain. C’est du moins ce que s’entendent à dire les techno-futuristes de la Silicon Valley et les technophobes les plus critiques. Aaron Benanav pense au contraire que nous donnons trop de poids à l’automatisation dans nos discours par rapport à son influence réelle. Selon lui, la crise de l’emploi ne s’explique pas en vertu de l’automatisation de l’économie, mais par le ralentissement de la croissance mondiale. S’il n’y a pas lieu d’attendre des #technologies qu’elles nous libèrent du #travail et de la misère, où donc placer nos espoirs ? Contre les propositions de revenu universel qui auraient vocation à entretenir une humanité devenant tendanciellement inutile, Benanav fait le rêve audacieux d’une société d’abondance, fondée sur la conquête de l’appareil productif et le partage du travail nécessaire.

  • Les Calanques, c’est fini
    https://www.piecesetmaindoeuvre.com/spip.php?article1671

    Nous avons reçu du Platane une enquête sur la clôture électronique des Calanques. Le Platane, c’est le nom qu’ils se sont donné parce que c’est là qu’ils se réunissent, à Marseille. On peut résumer l’affaire en trois mots : on ne pourra plus, désormais, aller se promener à sa guise dans les calanques, il faudra au préalable obtenir un QR code de l’administration du Parc. On peut aussi la détailler : la technocratie dirigeante organise « l’attractivité du territoire », le TGV arrive à Marseille, 100 millions de touristes visitent la France chaque année, et pourquoi voudriez-vous qu’une partie d’entre eux ne transforme pas les calanques en dépôt d’ordures, ravagé de temps à autre par un incendie. Ayant organisé la catastrophe, il ne reste plus qu’à organiser le Parc pour en gérer les nuisances. D’où le (...)

    #Faits_divers
    https://www.piecesetmaindoeuvre.com/IMG/pdf/l_e_cologie_des_gestionnaires_-_une_impasse_-_le_cas_des_calanq

  • Le paysan impossible - Yannick Ogor - Organisation Communiste Libertaire
    https://oclibertaire.lautre.net/spip.php?article3107

    Ce que j’ai vécu en Bretagne, en étant à la fois salarié de la Confédération et, après, en tant que paysan, c’est la manière dont la mise en place de la gestion par les normes sanitaires et environnementales a, en quelques années, éliminé tous les petits paysans, en particulier en production avicole et porcine et, dans des petites structures de moins de 100 truies. A partir des années 80, tous ces éleveurs ont disparu, car ces mises aux normes étaient extrêmement coûteuses ; malgré les subventions, il restait un reliquat que la plupart ont considéré comme inassumable et ils ont donc arrêté. Les seuls qui sont restés se sont partagé le magot des subventions. Aujourd’hui, les élevages de cochons comportent au moins 500 truies et sont tous des usines entièrement subventionnées par l’Etat, si accompagnées d’arguments environnementaux. Ce qui a conduit leurs propriétaires à bénéficier de nouvelles subventions (arrivées depuis les années 2000) à la transition énergétique. Ainsi ces usines-là sont non seulement censées être aux normes environnementales par rapport aux excédents de lisier et d’azote mais encore elles sont à la « pointe de la transition énergétique », ayant à peu près toutes installé des panneaux solaires sur leurs toits, des éoliennes dans leurs champs ou, mieux encore, des méthaniseurs pour faire de l’énergie avec la merde de cochon. Tout cela généreusement accompagné donc de subventions publiques. Des milliards dilapidés pour conforter le modèle industriel.
    Il est affligeant de voir à quel point l’écologisme est le moteur décisif de la modernisation aujourd’hui et comment il n’y a plus de réaction véritable en face.

    #agriculture #écologisme #paysans

  • La convivialité selon Ivan Illich
    https://topophile.net/savoir/la-convivialite-selon-ivan-illich

    La convivialité est sur toutes les lèvres et dans tous les vœux. Tout le monde pense la connaître. Et pourtant, ce goût, ce caractère, cet état est bien plus subversif qu’il n’y paraît. Thierry Paquot explore cette notion ô combien existentielle, de Brillat-Savarin à Ivan Illich. À la différence de la commensalité, « La convivialité n’homogénéise... Voir l’article

    • La radicalité du changement qu’exige la société conviviale effraie certainement de nombreuses personnes attirées par une alternative « douce », se contentant d’une ambiance « bon enfant » et hésitant à rompre définitivement avec le monde enchanté de la marchandise. Il y a donc deux convivialités, l’une qui se veut « sympathique » et l’autre, plus exigeante, qui réclame un « art de vivre » caractérisé par la survie, l’équité et l’autonomie créatrice, trois attitudes qui, réunies, dépassent largement ce que chacune promet. Là, le « monopole radical » (l’école pour apprendre, l’hôpital pour se soigner, les transports publics pour se déplacer…) et les « professions mutilantes » s’effacent, laissant la place à l’auto-organisation décentralisée de petits groupes.

      […]

      Il annonce d’emblée qu’il a choisi le terme de « convivialité » en opposition à celui de « productivité ». « Je veux dire par là, précise-t-il, des rapports autonomes et créateurs entre les personnes d’une part et des rapports entre les personnes et leur environnement d’autre part. Ceci s’oppose à la réponse conditionnée et efficace des personnes aux exigences de leur entourage et de leur cadre de vie. Je considère que la convivialité, c’est la liberté individuelle réalisée dans une interdépendance mutuelle et personnelle, et ayant, comme telle, une valeur éthique intrinsèque. Je crois que sans convivialité la vie perd son sens et les hommes dépérissent. »

      […]

      « J’entends par convivialité l’inverse de la productivité industrielle. Chacun de nous se définit par sa relation à autrui et au milieu et par la structure profonde des outils qu’il utilise. Ces outils peuvent se ranger en une série continue avec, aux deux extrêmes, l’outil dominant et l’outil convivial. Le passage de la productivité à la convivialité est le passage de la répétition du manque à la spontanéité du don. » Ivan Illich dénonce également celles et ceux qui, sans récuser la productivité, en appellent à des droits des consommateurs, qui à ses yeux, sont des droits à détruire l’environnement et surtout à s’autodétruire.

      […]

      « En 1971, quand j’ai commencé à écrire La Convivialité et à parler de seuils multidimensionnels au-delà desquels l’humain s’efforce de devenir destructeur du mode de vie, je me suis effondré. C’était la première fois de ma vie que je me trouvais dans cet état que l’on appelle ‘dépression’. Je ne crois pas que j’aurais continué à écrire si j’avais tenu un fils de ma propre chair dans mes bras. (…) Je pense qu’il est indispensable, pour pouvoir penser et réfléchir, pour avoir des idées claires et précises et les exprimer avec des mots significatifs et sensuels, de savoir que nous n’avons pas de futur. »

      Cette conscience de l’impossibilité d’orienter le cours des choses, du fait de la toute-puissance du « système technique », explique l’absence de « mesures politiques » que beaucoup de ses lecteurs attendaient. L’ampleur de ce qu’il découvre le désole : l’être humain n’aurait-il plus d’autonomie ? Serait-il condamné à obéir volontairement à des institutions qui le dépossèdent de toute initiative émancipatrice ? Il admet ne pas rejoindre « ceux qui dansent la danse de la pluie », ces écologistes qui croient en « la responsabilité », tel Hans Jonas, qu’Ivan Illich traite d’« illusionniste ».

      La question « Que faire ? », lui semble déplacée : « Nous sommes foncièrement impuissants et nous ne discutons que parce que nous essayons de trouver des moyens de renforcer nos amitiés naissantes avec des personnes qui pourraient, avec nous, comprendre leur propre impuissance et l’impuissance collective. »

      […]

      C’est dans de nouveaux entretiens en 1997 et 1999 qu’Ivan Illich confirme à David Cayley le passage à l’échelle mondiale de « l’âge des outils » à « l’âge des systèmes » vers 1980. Or, ses premiers écrits étaient antérieurs à ce passage. Ils décrivaient des situations technologiques nées principalement en Occident à partir du XIIe siècle. Après avoir examiné les « outils » (entendus comme des « moyens » pour des « fins » précises) et découvert que certains devenaient « contre-productifs » passés un certain seuil, Illich avait étudié leurs effets matériels, puis, plus tardivement leurs effets symboliques, jusqu’au moment où il comprit que les « outils » étaient dépossédés de leur intention humaine par leur entrée dans un système qui, de fait, les subordonnait à une autre logique.

      […]

      Néanmoins, ils expriment bien le désarroi dans lequel se trouve alors Ivan Illich qui n’imaginait pas vivre ce moment au cours duquel les systèmes techniques viendraient submerger l’univers des « outils » (institutions comprises) et entraver toutes possibilités d’autonomie. En effet, les systèmes techniques, qui semblent œuvrer pour eux-mêmes, ne laissent guère de marge de manœuvre à celles et ceux qui veulent s’en émanciper ou en inverser les buts…

      […]

      On peut regretter une telle approche individuelle de la lutte contre le système technique, mais Ivan Illich, ne se sentait pas de poids pour le combattre. Il ne voyait que des actions modestes, clairsemées, sporadiques, effectuées par des petits groupes, qui en un lieu circonscrit, inscriraient leurs pas dans leurs biographies, c’est la définition qu’il donne de l’art d’habiter. Ces tentatives d’autogestion, de décentralisation, de coopération, dans tous les domaines de la vie quotidienne de chacune et chacun, leur permettront d’échapper à la tyrannie des systèmes techniques, à l’appauvrissement de leur monde en procurant la satisfaction de vivre convivialement à quelques-uns. Pendant ce temps, les énormes systèmes techniques démesurés tomberont en panne, dysfonctionneront, les modes de vie qu’ils ont conditionnés ne satisferont personne et seront contestés, des guerres pour l’obtention de ressources non renouvelables feront d’irréparables dégâts, des pandémies seront impossibles à endiguer et des famines naîtront de la raréfaction de l’eau, de la surpopulation, de la déforestation et des canicules, etc.

      #Ivan_Illich #philosophie #convivialité #anti-industriel #critique_techno #écologie #autonomie #système_technicien #institutions

  • Dwight Macdonald, La Bombe, 1945
    https://sniadecki.wordpress.com/2022/02/21/macdonald-bombe-fr

    1. Les notions de « guerre » et de « progrès » sont désormais dépassées.
    2. L’absurdité de la guerre moderne est désormais évidente. Ne doit-on pas en conclure, avec Simone Weil, que c’est la dimension technique, et non plus politique, de la guerre qui représente le mal absolu ?
    3. La bombe est le pur produit du type de société que nous avons créé. Elle incarne l’American Way of Life exactement au même titre que le réfrigérateur, le banana split et la voiture à boîte automatique.
    4. Ceux qui usent d’un tel pouvoir de destruction se retranchent du reste de l’humanité.
    5. Nous devons briser l’État avant qu’il ne nous brise.

    #Dwight_Macdonald #bombe_atomique #Hiroshima #États-Unis #guerre #science #progrès #way_of_life #critique_techno

  • Mon pays à l’ère nucléaire
    https://www.piecesetmaindoeuvre.com/spip.php?article1639

    La commission européenne qui est toute-puissante, vient par un pur acte de langage, mais hautement performatif, de transformer l’énergie nucléaire en énergie « verte » et « durable ». Une toute-puissance et une performativité que l’on n’avait pas vues à l’œuvre depuis la profération divine « - que la lumière soit ! » - à laquelle, nul n’est tenu de croire. Le public a appris à cette occasion l’existence et le sens du mot « taxonomie » qui désigne « la science des lois de la classification ». Des lois évidemment évolutives, en fonction des évolutions de ceux qui les formulent. Penser/classer a condensé Georges Pérec dans un bref essai (1985). La Commission européenne ayant le pouvoir de classer, a également celui de faire penser selon ses lois. C’est du moins son but comme le montre Debord dans ses Commentaires (...)

    #Documents
    https://www.piecesetmaindoeuvre.com/IMG/pdf/provence_nucle_aire.pdf

  • Compter, gérer, exploiter (avec Matthieu Amiech) - Floraisons
    https://floraisons.blog/compter-gerer-exploiter

    Compter, gérer, exploiter, ainsi va la mégamachine bureaucratique.

    Pourquoi résister à l’informatisation du monde ? Comment l’économie règne aujourd’hui sur nos vies ? Pourquoi les écologistes doivent critiquer radicalement la technologie et la société industrielle de masse ? Comment s’en défaire ?

    Ce sont les questions que nous sommes allés poser à Matthieu Amiech, une des plumes de Marcuse, le groupe qui a signé le livre La Liberté dans le coma en 2013. Il participe également aux éditions La lenteur et au groupe Écran total. On a déjà pu écouter Matthieu dans le podcast Contre le totalitarisme numérique.

    https://d3ctxlq1ktw2nl.cloudfront.net/staging/2021-9-16/98c6fec3-84b6-a59c-827e-ab727774fc1d.mp3

    #Matthieu_Amiech #interview #audio #podcast #floraisons #critique_techno #gestion #informatique #informatisation #internet #technocratie #anti-industriel #écologie #Groupe_Marcuse #Éditions_La_lenteur

  • Aix-« en-Provence » : un technosite de la société industrielle
    https://www.piecesetmaindoeuvre.com/spip.php?article1623

    Aix-en-Provence continue, paraît-il, d’être « la ville préférée des Français » - enfin – des lecteurs de L’Express et du Nouvel Obs - ingénieurs, cadres et CSP+ - lors de leurs sondages annuels. Ils voudraient tous emménager dans la première au palmarès des « villes où il fait bon vivre » (et sinon, à Bordeaux ou à Montpellier). Tous, sauf notre ami Jacques Rossi qui y réside depuis son enfance, voici quatre ou cinq dizaines d’années, sans avoir grande affection, ni intérêt, pour son lieu de résidence familial. C’est normal. Les « socio-professionnels supérieurs » d’Ailleurs-en-France sont victimes d’une persistance rétinienne ; le syndrome de Cézanne ou de la Sainte-Victoire. Ils s’imaginent la vie dans une toile impressionniste (Arles de van Gogh, Giverny de Monet, Tahiti de…). Ce serait si chic. Si classe. Et puis en-Provence. Persistance mémorielle et syndrome de Mistral, Daudet, Pagnol, Giono, dont les proxénètes de l’immobilier et du tourisme ont su faire de l’argent. Aix, Aquae Sextiae, les Eaux de Sextius (-122 av. J.C.), n’est « en-Provence » que depuis le décret du président Paul Doumer du 2 février 1932, pris à la demande du conseil municipal.

    L’indifférence de Jacques à son lieu de résidence est celle des résidents de tous ces lieux devenus indifférents. Il a fallu insister pour qu’il s’informe – et nous informe – de l’affaire des éoliennes censées détruire la crête de la Sainte-Victoire, afin de produire de « l’énergie propre ». Un lieu impersonnel suscite peu de remarques personnelles, à moins de défi et d’effort délibéré. Son enquête l’a pourtant ramené avant – et même avant son enfance, à Cézanne et Zola, qui a peu fait pour le tourisme local et qu’on ne classe jamais parmi les écrivains provençaux. Elle l’a également mené dans le « bassin de vie » local où il a découvert ce que nous avons découvert dans la cuvette grenopolitaine, les mêmes entreprises, les mêmes techno-industries – le CEA, STMicroelectronics, le nucléaire, les semi-conducteurs - la même classe technocratique ayant aménagé les lieux de manière fonctionnelle et conforme à ses intérêts.
    De villes que Stendhal, Zola et Cézanne avaient toutes raisons de haïr et mépriser, il ne reste plus guère que des marques publicitaires, Aix (en Provence), Grenoble. Elles sont devenues ce que leurs bourgeois d’alors voulaient qu’elles deviennent, des métropoles où il fait bon vivre pour les technocrates et lecteurs de L’Obs. C’était d’ailleurs ces bourgeois, devenus industriels, que vomissaient nos artistes ; et non pas le peuple des faubourgs ; ni les pierres et les paysages, détruits depuis et dont ils nous ont sauvé le souvenir.

    Que nous reste-t-il à sauver ? Notre santé mentale ; la certitude que deux et deux font quatre et que nous avons bien vu ce que nous avons vu. Et pour cela, il nous faut enquêter ; comparer sans relâche la ville et la vie d’avant à celles d’aujourd’hui pour tenir à jour le bilan de nos gains et de nos pertes. Ce bilan est ici esquissé pour un technosite local d’un système général.

    (Pour lire le texte, ouvrir le document ci-dessous.)

    #Nécrotechnologies
    https://www.piecesetmaindoeuvre.com/IMG/pdf/aix-en-provence.pdf

  • L’opportunisme pandémique du néolibéralisme

    https://www.lamuledupape.com/2021/12/06/lopportunisme-pandemique-du-neoliberalisme-vu-par-celia-izoard

    Lors de la dernière Fête du Vent organisée par l’Amassada à la fin du mois d’août 2021, #Celia_Izoard a donné une conférence consacrée à la gestion sanitaire de la pandémie de #Covid-19 en France, et plus largement, à l’impact des intérêts capitalistes sur les politiques de #santé_publique.

    Celia Izoard introduit son propos en remontant à l’époque de l’incendie de l’usine #Lubrizol à Rouen, le 26 septembre 2019. 10 000 tonnes de produits chimiques partent en fumée : reprotoxiques, mutagènes, cancérigènes… La population locale constate des effets directs sur la santé : crises d’asthme violentes, vomissements et diarrhée, pertes de capacité respiratoire qui perdurent…
    « Ce qui est frappant, dès le départ dans cette catastrophe, c’est que très rapidement la préfecture a déclaré qu’il n’y avait pas de toxicité aiguë, en jouant délibérément sur les mots : pas de toxicité aiguë, ça veut juste dire qu’on ne va pas mourir tout de suite en respirant cet air. »
    Les angles morts de la santé publique
    Celia Izoard se lance dans une série d’enquêtes, et constate qu’il y a toute une catégorie de la population qu’on a obligé à travailler ce jour-là, malgré les nuages de fumée très dense. Les services de communication de la préfecture opposent toujours la même réponse à la journaliste : « Mais voyez-vous, l’air était complètement respirable ce jour-là. » La situation, mise en parallèle avec la crise sanitaire dans lequel le monde est plongé depuis début 2020, interroge lourdement sur la vocation de l’État à protéger la santé des citoyen•nes.
    « À ce moment-là, j’ai commencé à m’intéresser au cancer, pour plusieurs raisons. La première, c’est que je me demandais si on pourrait montrer un jour que l’incendie de Lubrizol a eu un impact. Pour l’instant, la version officielle c’est que non, on ne peut rien prouver, rien montrer. La seconde, c’est que comme dans d’autres endroits en France, près de Rouen, il y a des parents et plus particulièrement des mères de familles dont les enfant sont atteints de cancer et qui constatent des taux anormaux de cancers de l’enfant dans leur entourage – ce qu’on appelle un cluster. Elles alertent Santé Publique France, qui vient faire une enquête. Le plus souvent, l’agence de santé constate la surincidence de cancers, mais ne conclut pas sur une cause quelconque, alors que les parents suspectent les pollutions des usines ou des exploitations agricoles environnantes. »
    Dans ce cadre d’enquête, Celia Izoard travaille sur l’épidémiologie et sur le #cancer, son lien avec l’environnement, et sur la manière dont on produit les chiffres officiels. La journaliste est très étonnée de s’apercevoir que les pouvoirs publics, notamment l’agence Santé Publique France, n’a pas du tout les moyens de savoir combien il y a de cas de cancers en région parisienne ou autour de Rouen, là où se trouve une grande partie de l’industrie pétrolière et chimique française. Les registres du cancer ne sont en effet établis que dans 22 départements en France et ne concernent que 22 % de la population. Ils sont faits de manière assez arbitraire en fonction des registres préexistants, parmi lesquels figurent par exemple le Tarn ou d’autres zones pas forcément connues pour leurs forts risques environnementaux.
    « C’est très étonnant quand on se souvient du fait que le cancer fait 150 000 morts par an, qu’il y a 350 000 nouveaux cas chaque année, et que pour certaines catégories de cancers, l’augmentation est très importante et devrait constituer un signal. »
    Pour exemple avec les cancers de la thyroïde, en augmentation de 4,4% par an, ce qui est très important.
    « Il y a vraiment ce qu’on appelle une science « non produite » autour de ces questions. Et je suis très étonnée du discours officiel de ces institutions, à la fois Santé Publique France et le Circa (Centre International de Recherche sur le Cancer), qui ont une politique de santé publique fondée sur les comportements individuels : alerter la population sur le fait qu’il faut avoir une bonne alimentation, faire du sport, ne pas fumer, ne pas boire, etc. »
    Selon Celia Izoard, certains textes tendent même à dissuader les gens de penser que le cancer pourrait être lié à des facteurs environnementaux.
    Dans un article consacré à la pétrochimie et à l’incendie de Lubrizol pour la Revue Z, la journaliste reproduit un tableau du Circa dans lequel sont découpés les facteurs de risque pour le cancer : tabac, alcool, alimentation, expositions professionnelles, pollution de l’air extérieur… Les substances chimiques de l’environnement y sont classées comme dernier facteur de risques, avec seulement 0,1% des cas. Pour Celia Izoard, on a là un découpage d’une incroyable mauvaise foi, car on pourrait très bien considérer que les substances chimiques de l’environnement peuvent être liées à des expositions personnelles comme l’alimentation.
    « Ce découpage n’est pas honnête intellectuellement. J’en arrive à la conclusion qu’il y a une volonté délibérée de la part des pouvoirs publics de ne pas incriminer l’industrie et de ne pas produire de données là-dessus. »
    Lors de son enquête, Celia Izoard essaie de téléphoner à Santé Publique France afin d’obtenir un entretien, dans le but de confronter l’institution à ses conclusions. Mais l’agence oppose une fin de non-recevoir :
    « On est désolé, c’est pas contre vous, mais il n’y a personne pour vous répondre parce qu’il y a un nouveau virus, et tout le monde est là dessus. »
    On est en janvier 2020, et l’État ne peut répondre à une journaliste à propos des cancers en France, en raison d’un nouveau virus. Une non-réponse qui en dit long sur les moyens mis en place pour la santé publique.
    L’État et la pandémie
    Le cancer fait plus de 150 000 morts en France chaque année. Celia Izoard compare la différence de traitement du cancer par les autorités publiques avec le cas des infections de rougeole, pour laquelle existe un vaccin, mais non obligatoire jusqu’à récemment. Elle constate que l’État opère un pilotage très serré du contrôle de cette maladie.
    « Quand il y a des cas de rougeole, on peut être appelé, on demande quels sont les cas contacts, etc. La rougeole faisant à peu près huit morts par an, je m’interroge alors sur ce décalage avec la manière dont le cancer est pris au sérieux dans la recherche de ses causes. »
    Entre Lubrizol et l’épidémie de Covid, à ce moment la journaliste fait partie du camp des perplexes, à cause de la différence de réaction des pouvoirs publics, de l’État, face à ces deux événements catastrophiques.
    « D’un côté, une forme de déni caractéristique des catastrophes industrielles : « non ce n’est rien, il ne se passe pas grand chose », Emmanuel Macron fait un scandale car on a osé comparer Lubrizol à AZF, deux catastrophes chimiques pourtant comparable. »
    Avec le Covid, très rapidement des mesures d’exception sont prises, et semblent à beaucoup de personnes assez disproportionnées par rapport au danger. Après une première phase de déni, les médias se montrent très alarmistes, suivant les impulsions du gouvernement.
    Celia Izoard s’interroge. Et émet une première hypothèse, « très faible », pour comprendre la réaction des États qui sont désormais prêts, pour protéger la population, à bouleverser fondamentalement le système social et modifier radicalement les modes de vie en inversant les règles du droit.
    « C’est l’idée qu’il y a une sorte de peur atavique vis à vis des maladies infectieuses et contagieuses, qui serait un reste historique lié à la peste et aux grandes épidémies. »
    Par ailleurs, on accepterait certaines maladies, le cancer notamment, comme étant la rançon du progrès, bien qu’on ne présente pas celui-ci de manière objective et qu’on occulte les pollutions diverses qu’il engendre. On n’accepterait pas le retour des maladies infectieuses car elles représentent une dimension rétrograde : « l’âge moderne n’est pas censé tolérer ce genre d’événements. »
    En deuxième idée, la journaliste émet la pensée suivante : il ne faut pas confondre santé publique et santé de l’ordre public.
    « C’est à dire que la principale menace dans cette situation de pandémie, c’est la menace pour l’État lui-même. »
    Le degré de contrainte exercé par le gouvernement français sur la population serait ainsi lié à la fragilité de ses infrastructures de base. Au cours des trente dernières années, 160 000 lits d’hôpitaux ont été supprimés. On a un risque de débordement réel.
    « On ne peut pas entasser des cadavres comme on compte les décès de mort lente du cancer, ce n’est pas du tout le même phénomène visuel d’un point de vue de ce que l’on appelle une crise . »
    En mettant en place des mesures draconiennes, l’État se protègerait ainsi lui-même. C’est moins la préservation de la santé publique qui serait recherchée que celle de la continuité du pouvoir.
    « La différence de l’enjeu entre l’incendie de Lubrizol à Rouen et la pandémie de Covid, même si les phénomènes ne sont pas comparables dans leurs proportions, c’est la distinction entre la santé publique et la santé de l’ordre public. »
    Pour Celia Izoard, l’illustration la plus frappante en est le fait que des centaines de postes de vigiles ont été créés pour contrôler les passes sanitaires à l’entrée des hôpitaux, alors même qu’on est en déficit de soignant•es depuis des années.
    « La santé ne paraît pas être la priorité, ou d’une manière extrêmement spécifique et discutable, dans les mesures qui sont prises. »
    Dans sa réaction primitive, l’État cherche donc rapidement à se protéger d’un procès en imprévoyance, qui romprait le pacte qui le lie aux citoyen•nes qu’il est censé protéger. Il faut éviter de subir de plein fouet l’effet de la baisse drastique des moyens de la santé publique et de l’inaction face aux maladies chroniques, qui forment des comorbidités très importantes dans le cadre du Covid. Les discours politiques prennent soin de retourner l’accusation contre la population (on se souviendra par exemple de la déclaration du préfet de Paris Didier Lallement :
    « Ceux qui sont aujourd’hui hospitalisés, ceux qu’on trouve dans les réanimations, ce sont ceux qui au départ du confinement ne l’ont pas respecté. »
    En somme, si la situation est dramatique, c’est parce que les citoyen•nes ne se plient pas aux mesures sanitaires ou ne se font pas vacciner.
    L’opportunisme néolibéral piloté par le gouvernement
    Le troisième axe de réflexion suivi par Celia Izoard intègre les enjeux du capitalisme moderne.
    « L’État protège les empires industriels, et son rôle depuis la révolution industrielle est de piloter la modernisation. C’est à dire, développer les forces productives et, depuis un certain temps, mettre en place l’orthodoxie néolibérale. »
    L’État va donc développer des politiques de santé publique convergentes avec cet objectif. Dans le cas de Lubrizol et des accidents industriels, on comprend donc que les politiques menées ne peuvent viser à démanteler l’industrie pétrochimique, pourtant l’un des principaux vecteurs de ce type de pollution. Le rôle de l’État est donc de répondre à tout événement en plaçant avantageusement ses alliés, typiquement les grands groupes industriels ou les entreprises prometteuses.
    Pour Celia Izoard, les politiques de santé publique menées face à l’épidémie de Covid19 répondent très clairement à ces critères : « on a un soutien très fort à la télémédecine et à l’e-santé, le déploiement d’un gouvernement algorithmique et d’un vaccin biotechnologique. » On nage en plein NBIC (Nano Bio Info Cogno), cette convergence des technosciences très en vue qui tire la croissance économique.
    « D’une certaine manière, la pandémie est une opportunité dont s’est saisie l’État pour accélérer la société du Big Data et ouvrir de gigantesques marchés par la contrainte légale sur les individus. Le passe sanitaire est un formidable couteau suisse dont vont pouvoir émerger tout un tas de nouvelles start-ups et de nouveaux usages, qui ont tous pour point commun d’être liés à l’intelligence artificielle, à la donnée et à la numérisation des activités. »
    La journaliste en veut pour preuve le Ségur de la Santé à l’automne dernier, lequel a débloqué une enveloppe de 8 milliards d’investissements pour le secteur. On y trouve une augmentation de 180€ de salaire pour certaines catégories de soignant•es, mais le quart de l’enveloppe est dévolu au développement de la télémédecine, à la numérisation et à la collecte de données.
    « Entre la clinique et la télémédecine, nous avons deux visions du soin diamétralement opposées. D’un côté une médecine liée aux pratiques incarnées par des humains, qui nécessite d’embaucher. Et de l’autre côté, une médecine des nouvelles technologies fondée sur l’automatisation : la e-Santé. »
    Ainsi, c’est dans ce sens là qu’il faudrait comprendre la négligence absolue de l’État en matière de soutien aux moyens humains pour faire face à la pandémie.
    « Il y a vraiment un passage d’un système à l’autre, avec l’idée d’un système de santé où les humains, les soignant•es ont beaucoup moins de place, et où on va pouvoir marchandiser la santé en faisant travailler des tas de boîtes pour collecter des données, piloter les appareils de télémédecine, déployer la 5G et mettre en place des systèmes de capture et de surveillance épidémiologique etc. »
    Cette nouvelle médecine, sa e-Santé, ses robots et ses capteurs, sont considérés comme prioritaires dans la course des nations autour de la révolution technologique que représente l’intelligence artificielle. La réaction de l’État est donc inscrite au coeur d’une guerre économique : « data is the new oil ».
    « Le but de notre gouvernement est de créer des géants nationaux dans ce domaine et d’ouvrir des marchés. Et ça, on ne peut le faire sans une collecte massive de données de santé. »
    « Cédric Villani, dans le rapport sur l’intelligence artificielle qu’il a dirigé, le précise : le rôle de l’État aujourd’hui, c’est de lancer des grands projets qui permettent une collecte massive de données de qualité, dans les domaines prioritaires, la santé et l’éducation notamment. »
    Dans les discours politiques tenus dès les premiers temps de la pandémie, on comprend à cette lumière la mise en avant d’un monde d’après auquel s’opposerait l’archaïsme de celui d’avant. Et ce monde d’après, c’est celui dont ont besoin un certain nombre d’États pour maintenir leurs intérêts industriels.
    La formule d’Emmanuel Macron : « Nous sommes en guerre », elle fait sens. Oui, nous sommes en guerre, c’est la guerre économique. Ce qui explique aussi la violence du débat intellectuel et la violence avec laquelle tous ceux qui sont considérés comme « covido-sceptiques » ou susceptibles de tenir des propos covido-sceptiques, ou qui pourraient, de manière épidémique, être cas contact avec d’autres personnes ayant produit de tels discours, sont évincés du débat de manière hystérique et inédite.
    Le Covid s’est ainsi présenté comme une opportunité extraordinaire pour accélérer drastiquement cette transformation #numérique de la santé et de la société en général. Dès la fin 2019, l’Agence européenne de la santé lance un appel d’offres pour créer une e-carte de vaccination, dédiée à limiter les risques pandémiques en Europe. Cet appel d’offres est remporté début 2020 par quatre entreprises françaises, dont le spécialiste de la transformation numérique, l’entreprise Jouve. C’est ce consortium qui met très rapidement en place le passeport sanitaire européen. Dans le domaine de la collecte massive de données de santé, et de manière plus générale, du Big Data et de l’intelligence artificielle, « la France a beaucoup de pions à placer. »
    La course mondialisée
    Un autre élément important vient étayer la réflexion de Celia Izoard :
    « Aujourd’hui le modèle en matière de monde d’après, de société pilotée par ce genre de technologies – de manière très antagoniste avec nos traditions politiques -, ce sont les pays asiatiques : la Chine, la Corée du Sud, Singapour, Taiwan… Ce n’est pas un hasard si très rapidement, il est dit dans les plus hautes instances, qu’il va falloir imiter ces pays. »
    Ainsi de l’Institut Montaigne, l’un des principaux responsables de la mise en place des doctrines néolibérales en France, qui publie un rapport dès avril 2020 sur la réponse des pays asiatiques à la pandémie, vantant les systèmes mis en place. Au moment de la publication de ce rapport, ce n’est pas l’efficacité de ces mesures qui est mise en avant : non seulement il est encore trop tôt pour mesurer leurs effets, mais une partie des pays cités sont aussi des îles et ne connaissent donc pas les mêmes enjeux de gestion de la pandémie. Sans parler de la Chine dont les chiffres ne sont pas fiables. On ne cesse depuis de vanter ces systèmes, voire de les appliquer. « C’est un enjeu industriel majeur, il faut donc pousser dans ce sens. »
    En juin 2021, trois sénateurs français rédigent le rapport Crise sanitaire et outils numériques , dans lequel ils se livrent au même exercice, passant en revue les réponses des pays asiatiques. Le discours, en substance, est le suivant : plein de verrous ont sauté, les gens sont plus prêts à accepter les mesures, le passe sanitaire se met en place, mais ça ne va pas assez loin du tout. Il faut faire sauter d’autres obstacles politiques rapidement. Les sénateurs mettent en cause le rôle de la CNIL, terrible obstacle par sa lecture beaucoup trop traditionaliste des droits et libertés. Le modèle chinois est porté aux nues : des caméras biométriques à reconnaissance faciale permettent de scruter les interactions sociales, de rattraper ceux devant être placés en quarantaine, des caméras thermiques mesurent leur température, et un équivalent du passe sanitaire est mis en place dès mars 2020, au moment où le confinement est décrété en France. Ce passe numérique est développé par de très grandes entreprises liées au gouvernement chinois. Alibaba et Tencent développent les fameuses applis et services de réseaux sociaux utilisés par la quasi-totalité de la population en Chine. Un contact tracing est inclus dans ces applis, tout le monde y est donc soumis de fait.
    En Corée du Sud, des quarantaines obligatoires sont décidées, avec un contact tracing très intrusif. On utilise toutes les données disponibles : relevés bancaires, factures téléphoniques, géolocalisation… Lorsqu’on est placé en quarantaine, une application de géolocalisation alerte les forces de l’ordre si celle-ci n’est pas respectée ou si le smartphone est éteint pendant plus de quinze minutes. À Singapour, on a aussi une quarantaine géolocalisée couplée à une vidéosurveillance analysant les interactions des individus dans l’espace public, ainsi qu’une application « Trace Together », qui permet à l’administration de surveiller nominativement toutes les interactions en fonction de la localisation du téléphone. Dès mars 2020, un passe sanitaire est mis en place, « Safe Entry », pour contrôler les accès aux espaces publics. C’est un passe nominatif, et les données sont directement transmises aux autorités. C’est ce genre de mesures qui est clairement visé par les sénateurs ou par l’institut Montaigne, et qui dessinent l’accélération de l’hypercapitalisme contemporain.

    #QR_code, #passe_sanitaire, #technocritique, #Etat, #sauver_des_vies, #obligation_vaccinale.

  • Les Faucheurs volontaires d’OGM (69-42) contre le pass sanitaire
    https://www.piecesetmaindoeuvre.com/spip.php?article1605

    Nous avons reçu un communiqué des Faucheurs volontaires d’OGM (Rhône-Loire), qui exposent les raisons de leur refus du pass sanitaire, y compris lors d’événements « militants » ou politiques. Merci de faire circuler. ***** LE COLLECTIF DES FAUCHEURS VOLONTAIRES D’OGM RHÔNE-LOIRE SE POSITIONNE FACE AU PASS Les structures bienveillantes voire militantes qui poursuivent tant bien que mal leurs activités publiques nous appellent parfois à participer à leurs évènements. Nous tenons à les informer des motifs qui nous empêchent d’accepter toute invitation sous réserve de pass dit « sanitaire ». La plupart des Faucheurs-ses Volontaires d’Organismes Génétiquement Modifiés n’ont pas de pass car : – les vaccins exigés pour son obtention sont des produits génétiquement modifiés, classés OGM par la législation (...)

    #Nécrotechnologies
    https://www.piecesetmaindoeuvre.com/IMG/pdf/faucheurs_contre_pass_sanitaire.pdf

  • Nicolas Alep, Quelques pistes de réflexion pour une décroissance numérique, 2021 – Et vous n’avez encore rien vu…
    https://sniadecki.wordpress.com/2021/11/17/decroissance-numerique

    Retour assez détaillé sur les retours qu’illes ont eu sur leur livre « Contre l’Alternumérisme » (recension seenée ici : https://seenthis.net/messages/827883)

    Dans notre petit essai corrosif Contre l’Alternumérisme [1], écrit avec Julia Laïnae, nous nous sommes employés à exposer les désaccords de fond qui nous séparent des courants prônant la maîtrise du numérique et à promouvoir l’idée d’une « désescalade technologique ». Le reproche principal qui nous a été adressé est que livre n’ouvre aucune perspective d’action, n’est pas un programme politique et encore moins un guide pour « mieux vivre avec le numérique ». Frustrant ? Pour nombre de lecteurs, visiblement oui. Mais en l’état, et pour de nombreuses raisons, il serait malhonnête de prétendre être en mesure de produire le mode d’emploi d’une sortie du numérique.

    #critique_techno #internet #numérique #informatisation #logiciel_libre

  • Une plateforme semi-submersible pour l’élevage des moules - Loïc Fabrègues
    https://lemarin.ouest-france.fr/secteurs-activites/nautisme/41352-une-plateforme-semi-submersible-pour-lelevage-des-moules

    Le néerlandais Oos international, spécialisé dans les services maritimes, a présenté le 26 octobre le design d’une plateforme semi-submersible pour cultiver des moules en haute mer.
    https://www.youtube.com/watch?t=66&v=cZD6AQzSHrM

    Le groupe entend répondre à la baisse de la production du bivalve aux Pays-Bas, cantonnée aux zones abritées. Le premier exemplaire, baptisé Oos Cees Leenaars, mesurera 72 mètres de long par 36 de large. Il pourra accueillir, de chaque côté, 72 cordes sur lesquelles seront suspendus les supports garnis de moules. La capacité de la plateforme de s’enfoncer sous l’eau, une technologie éprouvée chez Oos international avec ses semi-submersibles de levage lourd pour pétrole & gas, doit protéger les filières des vagues et des tempêtes.

    Afin de rendre l’activité neutre en carbone, la structure sera équipée de panneaux solaires, de deux éoliennes et de deux hydroliennes. Un pilote du projet doit être mis en test en 2022.

    « Selon les résultats, nous lancerons la construction », indique l’entreprise. L’idée serait d’installer une première plateforme dans le parc éolien en mer Borssele 3, complètement opérationnel depuis janvier, au large des Pays-Bas.

    Plus d’informations : https://www.oosinternational.com/ssmf-oos-cees-leenaars

    #nécrotechnologies #technologisme #pêche #moules #mer #alimentation #agriculture #travail #technologie #critique_techno #sciences #actualités_scientifiques

  • Quelles sont ces nouvelles technologies qui se cachent derrière la 5G ? (Et demain, la 6G) La Tribune, Serge Abiteboul et Gérard Berry
    https://www.latribune.fr/opinions/tribunes/quelles-sont-ces-nouvelles-technologies-qui-se-cachent-derriere-la-5g-8949

    La 5G est en cours de déploiement, revenons sur ce qui la différencie des générations de télécommunications précédentes.

    On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.

    Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.

    Tous les 10 ans environ, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages ; récemment, c’était la 5G.

    On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc). C’est permis par les avancées scientifiques et technologiques qui ont amélioré les « tuyaux » où circulent les données. De fait, les usages absorbent tout ce que la technologie propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.

    Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications globale, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.

    La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose sur toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde de normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordinateur d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G, mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.

    Les fonctionnalités de la 5G
    La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.

    Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps : le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que « le débit de pic » soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.

    Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.

    La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visionner un film, peu importe. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.

    La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets). Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.

    Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des "cœurs de réseaux".

    L’efficacité énergétique a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.

    Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux aussi inclure de l’IA.

    Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.

    Les innovations techniques logicielles
    La virtualisation
    Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plates-formes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser, car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.

    Edge Computing
    Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.

    Network slicing
    Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une tranche de fréquences pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.

    Les innovations techniques radios
    Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe, mais qui permettra des économies d’énergie une fois bien maitrisée. Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation.

    L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes. L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en wifi (voix sur wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un "trou" lors du passage de l’une à l’autre.

    Le mode TDD (Time Division Duplexing)
    On partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.

    Les « petites cellules » (small cells)
    La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.

    Les communications de terminal à terminal
    Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.

    La radio cognitive
    L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
    Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.

    Et demain, la 6G
    S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le "plus fin" : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous "humains", probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.

    En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.

    Bien sûr, l’intelligence artificielle sera hyperprésente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.

    La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café... Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.

    Par Serge Abiteboul https://theconversation.com/profiles/serge-abiteboul-212213 , Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry https://theconversation.com/profiles/gerard-berry-1281347 , Professeur émérite en informatique, Collège de France

    Pour aller plus loin : « La 5G et les réseaux de communications mobiles » https://www.academie-sciences.fr/fr/Rapports-ouvrages-avis-et-recommandations-de-l-Academie/5g-reseaux-communications-mobiles.html , rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

    #5g #technologisme #internet_des_objets #objets_connectés #domotique #écologie #santé #surveillance #technologie #smartphone #domination #critique_techno #algorithme #nécrotechnologies #données #sciences #actualités_scientifiques

  • Le cycle du silicium
    https://www.piecesetmaindoeuvre.com/spip.php?article1589

    « Du silex au silicium », on connaît ces triomphales trajectoires que les communicants des sciences et technologies, et autres apologistes du progrès industriel, ont coutume de projeter dans leurs livres, expositions, films, conférences, etc. Ces trajectoires se prolongeant vers un infini futur et merveilleux sur l’écran de leurs PowerPoints, grâce à la Transition, qui, pour être « écologique », ne peut être que « numérique ». C’est du moins ce que nous disent nos technologistes Verts, Yannick Jadot, candidat EELV aux présidentielles, Guillaume Gontard, sénateur Vert de l’Isère, Jean-Luc Mélenchon, « planificateur écologique », également candidat aux présidentielles, ou encore André Chassaigne, député communiste du Puy de Dôme, dont nous rapportons ici les propos. Ces insanités ne peuvent se proférer qu’à la (...)

    #Nécrotechnologies
    https://www.piecesetmaindoeuvre.com/IMG/pdf/le_cycle_du_silicium.pdf

    • Suite de la brochure et du livre « Le téléphone portable, gadget de destruction massive » parus il y a 15 ans au début des années 2000.

      Article très très informatif, sans aucune insulte (contrairement à ce que laissait penser l’intro, juste pour faire chier). Ça mériterait même un #toctoc @rezo peut-être.

      A l’instar de Thierry Breton, l’actuel commissaire européen au numérique, de passage le 21 juillet 2021, nos personnalités ne manquent jamais de célébrer « un écosystème impressionnant » - entendez la liaison recherche-université-industrie-pouvoirs publics. Tous feignent d’ignorer le fondement matériel de cet écosystème : les matières premières. Comme si la vie virtuelle qu’ils promeuvent fonctionnait hors de la réalité matérielle. Il leur suffirait pourtant de se rendre à 35 km de là, à Livet-et-Gavet dans la vallée de la Romanche, où FerroPem produit du silicium métal. Mais le décor se prête moins aux photos publicitaires.

      La vie connectée des Smartiens dépend des semi-conducteurs. Sans eux, plus un véhicule ne roule, plus un hôpital n’accueille de patients, plus une ampoule ne s’allume, plus une information ni un touitte ne circule. Tout s’arrête. Comme son nom l’indique, un semi-conducteur est un élément ou un composé chimique qui peut conduire l’électricité dans certaines conditions et non dans d’autres. On peut donc en faire un interrupteur marche/arrêt, utile pour effectuer des calculs. C’est le fondement de l’informatique. Le silicium est le plus utilisé pour la fabrication des puces électroniques, pour ses propriétés semi-conductrices et son abondance. Mais l’industrie microélectronique utilise aussi le germanium, l’arséniure de gallium, le carbure de silicium et récemment le nitrure de gallium.

      […]

      En 2017, 35 à 40 milliards de tonnes de matériaux silicatés ont été extraits du sol, soit trois fois plus que tous les combustibles fossiles.

      […]

      On ignore quelles sont les réserves mondiales de quartz, mais les carriers français (Colas, Imerys) promettent d’assurer « plusieurs décennies » au niveau de production de 2019, grâce aux trous creusés dans l’Allier, la Dordogne, le Lot5. D’ici là, les ingénieurs trouveront bien d’autres matériaux à extraire sous terre et sous mer.

      Pour produire des objets connectés, de l’« énergie renouvelable » solaire et des véhicules « propres », il faut défoncer la Terre avec des engins lourds, de la dynamite, du gasoil et beaucoup de poussière. Les particules nanoscopiques de silice rongent les poumons des mineurs. La silice, cancérogène reconnu, provoque la silicose comme le charbon. Mais pas de nostalgie minière, il faut mourir avec son temps.

      […]

      Deuxième phase du processus : la transformation de la silice en silicium métal. Le matériau s’obtient par carboréduction, en ajoutant du carbone (bois, charbon, houille) au silicium.

      […]

      Selon les experts, la production de silicium métal engloutit en moyenne 11 mégawatts/heure (11 000 kWh) par tonne de produit fini9. Pour parler clair, les trois fours de Livet-et-Gavet consomment chaque année l’équivalent électrique d’une ville de 150 000 habitants (comme Grenoble intra muros).

      […]

      Lecteurs de Lorraine ou du Pas-de-Calais, vous vous interrogez : pourquoi avoir installé une usine métallurgique dans une étroite vallée aux portes de l’Oisans, encaissée entre les massifs de Belledonne et du Taillefer, loin de toute zone d’activité ? A cause des ressources naturelles - naturellement. Matière et énergie. Rien ne sort de rien.

      La Romanche, torrent de montagne, attire les industriels dès la fin du XIXe siècle, quand Aristide Bergès développe la Houille blanche dans une vallée proche16. Elle est rapidement jalonnée de barrages et de six centrales. L’électricité alimente les premières usines électrochimiques et le tramway qui dessert dès 1893 ce couloir de 14 km de long. Le bois des forêts attire aussi les métallurgistes. La guerre de 1914-18 donne un coup d’accélérateur à l’industrie locale, grâce aux marchés passés avec l’artillerie pour fournir des obus au front. A partir de la moitié du XXe siècle, Péchiney exploite le site des Clavaux, empoisonnant bêtes et forêts de ses rejets de fluor.

      […]

      En 2020, EDF inaugure à Livet-et-Gavet une nouvelle centrale, creusée dans la montagne, après le plus gros chantier hydroélectrique d’Europe mené durant 10 ans. L’installation, liée à un nouveau barrage et une prise d’eau, remplace les anciennes et doit produire l’équivalent de la consommation annuelle de 230 000 habitants (560 GWh). Une ligne à haute tension de 63 000 volts relie la centrale au site des Clavaux. Voilà pourquoi FerroPem produit du silicium métal ici.

      Mais on peut faire la même chose ailleurs, et pour moins cher. La Chine produit 70 % du silicium métal mondial (2,2 millions de tonnes par an), dans le Yunnan, le Sichuan et désormais surtout dans le Xinjiang. Sa part dans la production mondiale a plus que doublé en 20 ans, grâce à ses ressources en quartz et à la hausse de sa production d’électricité. Elle répond ainsi à sa demande intérieure et exporte massivement. L’électricité est fournie par les barrages et les centrales à charbon qui empoisonnent la population des « villes-cancer ». Quant à la main d’œuvre, notamment les Ouïgours, elle vaut cher mais ne coûte rien.

      C’est de Chine que vient la pénurie en cette fin 2021. Le gouvernement restreint les approvisionnements des usines en électricité, à la fois pour réduire ses émissions de gaz à effet de serre, et en raison du manque d’eau des centrales hydroélectriques dû à la sécheresse. Effet immédiat : chute de la production du silicium métal, dont le prix augmente de 300 % en deux mois. Rappel à la réalité pour ceux qui prétendent que la « transition numérique » économise l’énergie. Pour baisser la consommation d’électricité, il faut arrêter les usines. CQFD.

      […]

      Étape suivante vers la production des puces : le raffinage du silicium métal en polysilicium. Le polysilicium sert aussi pour l’industrie photovoltaïque, et les trois-quarts de la production se
      font en Chine - notamment dans le Xinjiang et la Mongolie intérieure.

      […]

      On produit le plus souvent le polysilicium suivant le procédé Siemens. Transformez d’abord le silicium métal en gaz trichlorosilane par réaction avec du chlorure d’hydrogène à 300 °. Puis prenez une cloche de confinement de 2 mètres de haut et placez-y des tiges de silicium très pur de 10 mm d’épaisseur. Chauffez les tiges à 1100°. Introduisez le gaz trichlorosilane avec de l’hydrogène dans la cloche-réacteur. Le trichlorosilane se redécompose alors en chlorure d’hydrogène et en atomes de silicium qui se déposent sur les tiges à la vitesse d’un millimètre par heure19. Le rendement est désastreux, mais la transition écolo-numérique le vaut bien.

      Ce n’est pas fini. Il faut maintenant fondre le polysilicium en lingots de silicium monocristallin ultra pur pour l’industrie électronique. On le fait aussi en Chine, bien sûr, d’autant que le plan « Made in China 2025 » exige d’augmenter les capacités de production de l’industrie microélectronique nationale. Plus on descend dans l’affinage du silicium pour se rapprocher des semi-conducteurs, plus le produit devient stratégique. Un très gros producteur se trouve à Singapour : Globalwafers a même racheté l’Américain MEMC, autrement dit Monsanto Electronic Materials Company. Monsanto n’a pas toujours fabriqué que du glyphosate. Les Américains ont encore des usines, telle celle de SVM (Silicon Valley Microelectronics) en Californie. En Europe, l’Allemagne compte les groupes Wacker Siltronic ou Rohm, partenaire de STMicroelectronics.

      Pour obtenir du silicium monocristallin, nous utilisons cette fois la méthode de Czochralski, avec son four sous atmosphère d’argon à 1450°. Plongez un germe de silicium monocristallin dans du silicium liquide et étirez trrrrès lentement (0,4 à 3 mm par minute) en tournant. Comptez 30 heures pour un lingot de 30 à 100 kg, de diamètre 200 ou 300 mm.

      C’est en découpant ces lingots cylindriques en tranches de 1 à 2 mm d’épaisseur qu’on obtient les fameux « wafers », en français les plaquettes de silicium sur lesquelles seront gravés les circuits électroniques.

      Résumons. La « transition écologique » promise par le numérique, le tout électrique et le photovoltaïque exige beaucoup d’électricité. Selon le Bureau de recherches géologiques et minières (BRGM), l’affinage du silicium en polysilicium consomme 150 MWh par tonne de produit fini. La transformation du polysilicium en lingot monocristallin, 31 MWh par tonne. Enfin, la découpe des plaquettes, 42,5 MWh par tonne. Voilà pour les économies d’énergie.

      Du côté de la matière, il faut 7,14 tonnes de quartz pour une tonne de silicium monocristallin. Et la découpe de celui-ci en tranches produit des déchets de sciage (le « kerf ») perdus pour les puces, estimés à 40 % du lingot. Mais on ne rebouche pas les carrières avec. Quant aux produits chimiques utilisés tout au long du procédé, la filière est pudique à ce sujet. Difficile d’en établir une liste précise et quantifiée. Le CNRS donnait en 2010 le chiffre de 280 kg de produits chimiques par kilo de silicium produit (acides, ammoniaque, chlore, acétone, etc.).

      […]

      Les ingénieurs parviendront peut-être à maintenir un mode de vie techno-consommateur sans émission de carbone (quid du méthane, autre gaz à effet de serre ?), avec une hausse des températures limitée à 2°, c’est-à-dire des catastrophes climatiques en chaîne, tout de même. Ce sera au prix d’une Terre dévastée par la production énergétique propre. Des millions d’éoliennes à perte de vue, sur terre et en mer, des océans de panneaux solaires, des installations électriques partout. Quant aux barrages alpins, à la vitesse où fondent les glaciers, qui peut garantir que l’eau y sera suffisante ? La Romanche coulera-t-elle aussi impétueusement dans les périodes de sécheresse de la vertueuse économie décarbonée ?

      Votre voiture électrique n’émet certes pas de CO2 et votre smartphone vous économise des déplacements, mais la société numérique et automobile dévore les ressources naturelles – matière et énergie – qui nous permettent de vivre. Un détail. Et on ne vous parle pas de la faune, de la flore et des paysages - pas de sensiblerie.

      […]

      Nous avons détaillé les risques, les pollutions, la consommation indécente d’eau et d’électricité du site crollois à maintes reprises depuis 2003. Outre la matière grise des ingénieurs locaux, c’est l’eau des massifs alpins et leur production électrique qui justifient l’implantation de ces usines high tech dans le Grésivaudan. Pour rappel, la fourniture d’eau aux usines microélectroniques y est par contrat prioritaire sur les autres usages, quelle que soit la température extérieure.

      A l’usine de STMicroelectronics, les tranches de silicium sont gravées - les plus fines gravures atteignent aujourd’hui 28 nanomètres - pour produire 10 millions de puces par jour. Le processus exige des produits toxiques tels que phosphine (hydrogène phosphoré), thilane ou arsine (mélange hydrogène - arsenic), les « gaz de combat » dont s’était vanté un salarié lors d’une visite.

      […]

      Le Taïwanais est aussi consommateur d’énergie et d’eau que STMicroelectronics. Il engloutit 156 000 tonnes d’eau par jour et se fait approvisionner par camions dans les périodes de sécheresse. Ne le répétez pas aux paysans.

      TSMC fournit les électroniciens américains, dont Apple qui dispose d’une usine dédiée de 10 milliards de dollars à Taïwan. Qu’en pense l’État chinois ? Allez savoir. Tous les smartphones chinois marchent avec des puces conçues en Amérique et produites à Taïwan (ou en Corée du sud). Mais Taïwan, comme tout le monde, dépend de la Chine pour le silicium métal. L’interconnexion des chaînes de production résistera-t-elle aux tensions sino- américaines ?

      […]

      Admirez l’embrouille. Le technocrate se cantonne aux émissions carbone pour dissimuler l’entropie de la matière et de l’énergie, et se réjouit d’amplifier le désastre. Combien de millions de tonnes de quartz, de bois, de charbon, de produits chimiques, combien de millions de mètres cubes d’eau, de millions de mégawatts engloutis, combien de forêts et de sols dévastés, de rivières polluées, de réacteurs nucléaires et de barrages hydroélectriques mobilisés pour ces « 2,5 fois plus de substrats à l’horizon 2026 » et pour leurs usages dans des bagnoles « propres », des smartphones, les infrastructures de la smart city connectées par la 5G ?

      […]

      Voici notre matériau en bout de course, une fois l’objet qu’il rendait « intelligent » devenu obsolète, c’est-à-dire rapidement. Vous jetez votre smartphone tous les deux ou trois ans, selon une étude récente de l’Arcep, l’agence de régulation des télécommunications. C’est devenu un lieu commun depuis que nous l’avons exposé en 2005, mais les déchets électroniques débordent des poubelles, et le recyclage promis alors n’est pas au rendez-vous : 53,6 millions de tonnes ont été produites en 2019, et les experts en prévoient 74,7 millions en 2030.

      Ni le recyclage, ni les infrastructures de destruction « sécurisées » ne peuvent absorber une telle explosion, rapporte une étude de l’ONU. France Stratégie confirme : « Du fait de la croissance de notre consommation et du décalage temporel et spatial entre production et recyclage, le recyclage de nos équipements ne permettra jamais de couvrir l’ensemble de nos besoins ». Quant à notre silicium métal, la difficulté de l’extraire du reste des composants des appareils électroniques et le coût d’une telle opération dissuadent le recyclage. Bilan : sur les 53,6 millions de tonnes de déchets électroniques de 2019, « on ignore ce que sont devenus 82,6 % ou 44,7 millions de tonnes », reconnaît l’OMS dans un rapport le 15 juin 2021.

      En fait, on s’en doute un peu. Une bonne part finissent à Guiyu dans la province chinoise du Guandong, où se trouve la plus grande décharge électronique du monde. Tellement importante qu’elle a sa propre page Wikipedia. Un autre cyber-cimetière mondial se trouve à Agbogbloshie dans la banlieue d’Accra, capitale du Ghana, où enfants et adultes brûlent les plastiques pour en extraire les métaux. Une chaîne de désassemblage bien rôdée employant 10 000 personnes, bien utile à l’Union européenne, première exportatrice de ces carcasses électroniques au Ghana. La circulation de ces déchets est pourtant interdite par la convention de Bâle depuis 1992, mais la croissance des trafics illégaux suit celle de la production et de la consommation. Les articles de presse sur les décharges Agbogbloshie et de Guiyu, ou sur le recyclage et l’incinération sauvages en Inde, se suivent et se ressemblent. Étrange impression de déjà vu, déjà écrit, il y a 15 ans. Il faut croire qu’on radote.

      L’ONU évalue à 50 tonnes par an le volume de substances toxiques lâchées par ces déchets dans la nature : mercure, retardateurs de flamme bromés, cadmium, plomb, PCB, etc. Lesquelles provoquent atteintes au système nerveux, cardiovasculaire et immunitaire, aux poumons, aux reins, troubles neurologiques, cancers, diabète, parmi une liste de dommages plus longue que celle de vos followers sur Twitter.

      Les décharges électroniques contaminent l’eau, l’air, les sols et les habitants. Le dernier rapport de l’OMS alerte sur « un tsunami de déchets électroniques » qui « affectent la santé de millions d’enfants », recensant plus 1000 substances nocives dégagées par les décharges. « "Un enfant qui mange un seul œuf de poule d’Agbogbloshie absorbe 200 fois plus de dioxines que la limite journalière fixée par l’Autorité européenne de sécurité des aliments", avertit Marie-Noël Bruné Drisse, responsable du département environnement et santé infantile à l’OMS. »

      Curieusement, nul gouvernement n’a déclaré d’état d’urgence sanitaire pour stopper les maladies provoquées par ces poisons. Mais quoi, « c’est à ce prix, dit le gosse du Ghana, que vous avez des smartphones en Europe ».

      #silicium #informatique #numérique #numérisation #informatisation #électronique #Grenoble #STMicroelectronics #TSMC #téléphone_portable #téléphone_mobile #5G #extractivisme #pollution #écologie #santé #industrie_minière #eau #énergie #électricité #critique_techno #anti-industriel

  • Alexandre Grothendieck & « Survivre et vivre » - Notre Bibliothèque Verte (n° 36)
    https://www.piecesetmaindoeuvre.com/spip.php?article1581

    Pierre Fournier, le fondateur de La Gueule Ouverte et Alexandre Grothendieck, celui de Survivre, restent, 50 ans après leur geste inaugural, des cadavres dans le placard des « écologistes ». Ils partagent une brève existence militante. Fournier publie ses premiers articles « écologistes » en 1967 dans Hara-Kiri, puis dans Charlie Hebdo entre 1970 et 1972, et meurt en février 1973, trois mois après le lancement de La Gueule Ouverte (voir ici). Alexandre Grothendieck, médaille Fields de mathématiques en 1966, fonde en juillet 1970, avec quelques universitaires réunis à Montréal, le « mouvement international pour la survie de l’espèce humaine », nommé Survivre. Le bulletin du mouvement paraît en août 1970. Dès la fin de l’année, Grothendieck découvre, enthousiaste, les chroniques de Pierre (...)

    https://archivesautonomies.org/spip.php?article2220
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1320
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1328
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1336
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1341
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1343
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1352
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1359
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1373
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1391
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1407
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1423
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1440
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1455
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1461
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1477
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1501 #Documents
    https://www.piecesetmaindoeuvre.com/IMG/pdf/grothendieck_survivre_-_notre_bibliothe_que_verte_no36.pdf

  • « Le Mur énergétique du capital », rencontre avec Sandrine Aumercier (19-09-2021) |
    https://laparoleerrantedemain.org/index.php/2021/10/06/le-mur-energetique-du-capital-rencontre-avec-sandrine-aumerci

    Le dimanche 19 septembre, le Café Librairie Michèle Firk accueillait Sandrine Aumercier pour la parution de son livre « Le mur énergétique du capital – contribution au problème des critères du dépassement du capitalisme du point de vue de la critique des technologies », publié aux éditions Crise & Critique.

    https://archive.org/download/firk-valeur-ok/Firk%20valeur%20ok.mp3

    #Sandrine_Aumercier #critique_de_la_valeur #wertkritik #critique_techno #énergie #capitalisme

    • @rastapopoulos
      Un seul exemple.

      Aumercier nous fait marner pendant des pages et des pages à la recherche « d’un critère objectif permettant de départager les technologies à conserver et à rejeter » (p. 266).

      Pour arriver à la conclusion vraiment extra-ordinaire que « C’est bien plutôt le rapport social qui constitue le critère ultime d’une critique de la technologie et du dépassement pratique » (p. 289).

      Or dès 1984, on avait déjà ça :

      Nous nous attacherons à explorer méthodiquement le possible refoulé en faisant l’inventaire exact de ce qui, dans les immenses moyens accumulés, pourrait servir à une vie plus libre, et de ce qui ne pourra jamais servir qu’à la perpétuation de l’oppression.
      Discours préliminaire de l’Encyclopédie des nuisances, nov. 1984.

      Seulement voilà, c’est pas formulé dans un jargon marxisant, le seul langage que connaît Aumercier.

      Parce que en note p. 266, elle cite le Discours Préliminaire , mais elle ne l’a pas lu, ou ne l’a pas compris (c’est seulement la fin du 4e paragraphe...). Et donc, conclusion d’Aumercier p. 266, « Les techniques émancipatrices renvoient aux préférences de l’auteur » !!!

      Tout ce qui n’est pas formulé dans le jargon de la WertKritik n’est que subjectivisme petit-bourgeois.

      Seul Robert Kurz à saisi - in abstracto comme il se doit - « les critères de dépassement du capitalisme ». Mais bon, il a fait l’éloge de la micro-électronique pour nous libérer du travail, ce qui n’est pas précisément une position #technocritique, mais s’inscrit au contraire dans la même vieille gadoue progressiste propre aux marxistes. Mais pour Aumercier, cela reste des formulations « simplement prudentes et ambigües » (p. 279) !!!

      Vraiment j’adore ces marxistes qui ont toujours fait l’éloge de l’ « accroissement indéfini des forces productives » et qui maintenant qu’ils commencent à comprendre où est le problème, viennent te faire la leçon en disant que tu n’as rien compris à rien et que les considérations de tous ceux qui, en leur temps et à leur heure, se sont exprimés là-dessus ne sont que des « préférences personnelles »...

      J’adoooooooore regarder danser les gens..........

  • Le passe sanitaire est un moyen extrajudiciaire de désactiver socialement les gens

    Selon le professeur de droit #Guillaume_Zambrano, le #passe_sanitaire est une atteinte aux droits fondamentaux ainsi qu’une sanction extrajudiciaire. Il a lancé une requête collective auprès de la Cour européenne des #droits_de_l’Homme.

    Voir le site https://nopass.fr

    #Celia_Izoard, #recours-juridique, #critique_techno, #technocritique.

    https://reporterre.net/Le-passe-sanitaire-est-un-moyen-extrajudiciaire-de-desactiver-socialemen