• Ces géants qui dominent le commerce agricole mondial

    En quelques décennies, une toute petite poignée d’acteurs a pris le contrôle du commerce mondial agricole, des #terres à la #finance. C’est le constat dressé par la Conférence des Nations unies sur le commerce et le développement. Peut-on laisser à quelques groupes le destin de la sécurité alimentaire mondiale ?

    C’est un #oligopole dont on ne sait presque rien, parfois même pas son nom. Une poignée d’acteurs inconnus du grand public dominent le #commerce_mondial agroalimentaire. Mais ils font tout pour se faire oublier et cacher les empires qu’ils ont construits au fil des ans, ainsi que l’emprise qu’ils ont conquise sur le monde.

    La Conférence des Nations unies sur le commerce et le développement (Cnuced) a dénombré quatorze grands groupes régnant sur ce secteur. À eux seuls, les quatre premiers – #Cargill, #Archer_Daniels_Midland, #Bunge, #Louis_Dreyfus – contrôlent quelque 70 % du marché agricole mondial, selon ses estimations.

    L’envolée des #prix alimentaires partout dans le monde, nourrissant une #inflation planétaire mais aussi des pénuries et des risques aggravés de #crise_alimentaire dans les pays les plus pauvres, a amené l’institution internationale à se pencher longuement dans son dernier rapport annuel sur le rôle exercé par ces géants de l’#agrobusiness dans cette période. Il paraît écrasant.

    Si les superprofits des pétroliers ont été au cœur de toutes les discussions, ceux des géants de l’agrobusiness sont passés inaperçus. Pourtant, ils ont été les autres grands gagnants de la succession de crises (sortie de la pandémie, guerre en Ukraine, tensions géopolitiques) qui se sont enchaînées à un rythme effréné au cours des quatre dernières années.

    Celles-ci se sont traduites par une volatilité inédite du cours de toutes les matières premières agricoles (#blé, #soja, #maïs, #tournesol, #riz, #sucre, #café, #cacao) dont ces grands groupes ont su tirer parti au mieux de leurs intérêts. En 2022, Cargill, Archer Daniels Midland, Bunge et Louis Dreyfus ont réalisé un bénéfice cumulé de plus de 17 milliards de dollars, soit près du triple de leurs résultats de 2020. « Les #bénéfices totaux des neuf grandes sociétés d’#engrais au cours des cinq dernières années sont passés d’une moyenne d’environ 14 milliards de dollars avant la pandémie, à 28 milliards de dollars en 2021, puis au chiffre incroyable de 49 milliards de dollars en 2022 », ajoute le rapport de la #Cnuced.

    Les tensions sur les matières premières agricoles se sont un peu dissipées en 2023. Mais l’été dernier, comme le rappelle la Cnuced, « le prix du blé restait deux fois supérieur au cours d’avant la pandémie ». Cela est vrai pour pratiquement tous les prix agricoles, sans parler des cas spécifiques comme le cacao ou le café, qui atteignent actuellement des cours stratosphériques. Penser que des prix agricoles élevés profitent aux producteurs, « c’est ignorer le rôle majeur joué par ces groupes internationaux d’agrobusiness qui contrôlent nombre de liens dans la chaîne de valeur mondiale et dans la dynamique de la formation des prix du système mondial alimentaire », insiste l’institution des Nations unies.

    De ces groupes, on ne sait pratiquement rien. Sur les quatorze groupes repérés comme les plus importants par la Cnuced, « huit seulement sont cotés en bourse et publient leurs comptes », souligne le rapport. Tous les autres prospèrent à l’abri des regards. Jouant des frontières et des gouvernements, tous cultivent l’opacité, utilisent les failles et les porosités du système pour évoluer dans une totale impunité.

    Souvent partis du négoce, ils n’ont cessé d’étendre leur emprise, prenant le contrôle d’usines de transformation, de capacités de stockage, de compagnies de transport. Puis ils ont mis la main sur les semences et les engrais, avant de devenir de gigantesques propriétaires fonciers. Ils contrôlent désormais des centaines de milliers d’hectares en Ukraine, au Brésil, en Argentine, en Australie, au Canada. En un mot, dans tous les grands pays agricoles où ils peuvent pratiquer des cultures intensives à échelle industrielle, en pratiquant des déforestations massives, s’il le faut.

    Ils sont en position de dicter leurs conditions aux producteurs locaux et aux gouvernements, d’influencer les modes d’alimentation de toute la planète. Demain, ils n’hésiteront pas à mettre en danger les approvisionnements mondiaux, beaucoup étant prêts à troquer la production alimentaire pour celle d’agrocarburants, estimée beaucoup plus rémunératrice.

    Au cours de décennies de fusions et d’acquisitions, « de tels groupes ont pu étendre leur influence de haut en bas de la chaîne d’approvisionnement, tout en amassant d’énormes quantités de données de marché. Si une poignée de sociétés continue de détenir un pouvoir démesuré sur les systèmes alimentaires mondiaux, toute politique visant à atténuer les effets à court terme de la flambée des prix alimentaires sera vaine à long terme », prévient la Cnuced.
    Dans les pas de la finance de l’ombre

    Car un autre changement majeur est intervenu au cours des quinze dernières années, qui n’a pas été suffisamment analysé, selon le rapport : ces géants de l’agrobusiness ont non seulement changé de dimension, mais aussi de nature. Ils sont devenus des acteurs financiers à part entière – le manque de régulation sur les marchés des matières premières leur permettant d’exercer un pouvoir déterminant sur les cours et dans la formation des prix.

    Parce que les marchés agricoles sont par nature chaotiques, que les lois de l’offre et de la demande ne s’appliquent pas conformément aux théories classiques, ils ont toujours été très liés à la finance et à la spéculation. Ce sont ces marchés qui, les premiers, ont élaboré et mis en œuvre les produits dérivés financiers, négociés de gré à gré (over the counter – OTC) afin de couvrir les risques de fluctuation des prix à court, moyen et long terme.

    Mais à partir des années 1980, de nouveaux acteurs sont entrés dans le jeu : des banques et surtout nombre d’acteurs de la finance de l’ombre (hedge funds, fonds d’investissement, gestionnaires d’actifs, etc.) sont entrés sur ces marchés. Profitant de la déréglementation des marchés agricoles, ils ont investi les lieux, développé des produits dérivés financiers de plus en plus sophistiqués, ne s’appuyant plus du tout sur des contreparties physiques, et alimentant la spéculation.

    Depuis la crise de 2008, la situation a encore évolué. Les grandes sociétés de négoce ont mis leur pas dans ceux de la finance de l’ombre, allant bien au-delà de la couverture de leurs risques. Ayant à leur disposition des informations de marché que les autres n’avaient pas, elles se sont vite imposées comme des acteurs incontournables.

    « Dans ce contexte, les très grands groupes internationaux de négoce en sont arrivés à occuper une position privilégiée, en termes de fixation des prix, accédant aux financements et participant directement aux marchés financiers, affirme encore le rapport de la Cnuced. Cela a permis non seulement des opérations spéculatives sur les plateformes organisées, mais aussi un volume grandissant de transactions entre individus ou de gré à gré sur lesquelles la plupart des gouvernements des pays avancés n’ont aucune autorité ou contrôle. »
    Démultiplications spéculatives

    Les dernières années de tensions et de risques de pénuries sur les marchés agricoles ont décuplé les appétits, poussés par l’appât du gain. Selon les chiffres publiés par la Banque des règlements internationaux, le montant total des dérivés négociés de gré à gré sur les produits agricoles, l’énergie et les métaux, a atteint un pic de 886 milliards de dollars à la mi-2022, contre une moyenne de 200 milliards de dollars avant 2020. La valeur notionnelle de ces contrats représentait alors plus de 2 000 milliards de dollars.

    L’ampleur de ces sommes illustre la puissance déstabilisatrice de la finance sur ces marchés essentiels. Tous ont empoché des milliards de superprofits au détriment des populations mondiales. Une étude récente de la Société générale indique que le groupe des dix principaux fonds « dynamiques » avait réalisé un profit de 1,9 milliard de dollars sur des contrats de blé, de maïs et de soja, au début de la guerre en Ukraine, quand les cours des produits agricoles s’envolaient, après avoir perdu de l’argent sur les mêmes contrats dans les périodes précédentes.

    Dans quelle mesure les grands groupes qui contrôlent les échanges mondiaux agricoles ont-ils utilisé leur énorme pouvoir de marché pour pousser la spéculation et augmenter leurs profits ? La Cnuced est incapable de le dire. L’opacité qui règne sur ces marchés, le manque de données fiables et l’absence de régulation et de contrôle empêchent d’avoir une vision précise sur ce qu’il se passe.

    Pour la Cnuced, cependant, le fait qu’une poignée de grands groupes ait acquis une telle taille et une telle importance sur les marchés agricoles, possédant à la fois les données essentielles et des moyens financiers immenses, des instruments financiers négociés dans l’ombre, hors du regard de tout régulateur, laisse la porte ouverte à toutes les manipulations et à toutes les manœuvres.

    La faillite de la régulation

    « Les failles dans les systèmes de régulation n’ont cessé de s’élargir », note le rapport, et d’être mises à profit par les grands groupes de négoce et les traders de matières premières. Toutes les tentatives pour apporter de la lumière sur ces marchés et renforcer la réglementation ont jusqu’à présent échoué. Les réglementations restent parcellaires, multiples, changeant souvent d’une frontière à l’autre.

    Lors de la crise financière de 2008, les législateurs se sont bien gardés de toucher aux marchés de matières premières et à la finance de l’ombre, estimant qu’ils ne représentaient que des risques subalternes. De même, rien n’a été fait pour rapprocher les activités sur les marchés de matières premières et celles sur les marchés financiers, les régulateurs estimant qu’il s’agissait de deux mondes séparés.

    Les activités des grands groupes de négoce démontrent désormais que ces deux sphères sont devenues intrinsèquement liées, les opérations financières venant en soutien – en vue souvent de maximiser les profits – des échanges agricoles. « Le profit n’est pas limité à un secteur spécifique mais est spécifique à des firmes particulières. Il est possible que des profits excessifs puissent être liés à une concentration, qui ne bénéficie seulement qu’à quelques acteurs mondiaux du secteur », écrit par euphémisme le rapport.

    La Cnuced estime qu’il est plus que temps de prendre acte de la défaillance des régulations actuelles, compte tenu des risques sous-jacents, menaçant aussi bien la sécurité alimentaire mondiale que la stabilité de la planète financière. Elle propose de multiples axes de réformes. Les uns portant sur la transparence et la limitation et le contrôle des instruments financiers, sur l’instauration d’une régulation mondial, les autres sur l’application renforcée des lois antitrusts : le commerce mondial alimentaire ne pouvant être laissé aux mains d’un oligopole qui agit dans son seul intérêt.

    https://www.mediapart.fr/journal/international/090424/ces-geants-qui-dominent-le-commerce-agricole-mondial
    #agriculture #industrie_agro-alimentaire #business #financiarisation #régulation

    • Zut, t’as été + rapide.

      Il y a 5 ans, lorsque le web a eu 30 ans, j’ai dénoncé certains des dysfonctionnements causés par le fait que le web est dominé par l’intérêt personnel de plusieurs entreprises qui ont érodé les valeurs du web et conduit à des ruptures et à des préjudices. Aujourd’hui, cinq ans plus tard, alors que nous fêtons le 35e anniversaire du web, les progrès rapides de l’IA ont exacerbé ces préoccupations, prouvant que les problèmes du web ne sont pas isolés, mais plutôt profondément liés aux technologies émergentes.

      Il y a deux questions claires et liées à aborder. Le premier est l’ampleur de la concentration du pouvoir, qui contredit l’esprit décentralisé que j’avais envisagé à l’origine. Cela a segmenté le web, avec une lutte pour garder les utilisateurs accrochés à une plateforme afin d’optimiser les profits grâce à l’observation passive du contenu. Ce modèle commercial d’exploitation est particulièrement grave en cette année d’élections qui pourrait déboucher sur des troubles politiques. Le second problème est aggravé par le marché des données personnelles qui a exploité le temps et les données des gens en créant des profils profonds qui permettent de faire de la publicité ciblée et, en fin de compte, de contrôler l’information dont les gens sont nourris.

    • Ce n’est qu’alors que l’écosystème en ligne dans lequel nous vivons tous atteindra son plein potentiel et fournira les bases de la créativité, de la collaboration et de la compassion.

      Sinon peut-être que la solution, c’est de diminuer le fait d’avoir à vivre dans un écosystème en ligne. Et que la collaboration et la compassion (au moins ces deux là) se font anthropologiquement bien plus dans des relations de face à face IRL (largement avant internet, c’est déjà la critique faite aux « démocraties » énormes de millions de personnes, versus les communautés à taille humaine, notamment « la commune »).

      #internet #Tim_Berners-Lee #décentralisation #oligopole #techno-béat

  • Gli utili record dei padroni del cibo a scapito della sicurezza alimentare

    I cinque principali #trader di prodotti agricoli a livello mondiale hanno fatto registrare utili e profitti record tra il 2021 e il 2023. Mentre il numero di persone che soffrono la fame ha toccato i 783 milioni. Il report “Hungry for profits” della Ong SOMO individua le cause principali di questa situazione. E propone una tassa sui loro extra-profitti

    Tra il 2021 e il 2022 -anni in cui il numero di persone che soffrono la fame nel mondo è tornato ad aumentare, così come i prezzi dei beni agricoli spinti verso l’alto da inflazione e speculazione finanziaria- i profitti dei primi cinque trader di materie prime agricole a livello globale sono schizzati verso l’alto.

    Nel 2022 le multinazionali riunite sotto l’acronimo Abccd (Archer-Daniels-Midland company, Cargill, Cofco e Louis Dreyfus Company) hanno comunicato ai propri stakeholder un aumento degli utili per il 2021 compreso tra il 75% e il 260% rispetto al 2016-2020. “Mentre nel 2022 i profitti netti sono raddoppiati o addirittura triplicati rispetto allo stesso periodo. In base ai rapporti finanziari trimestrali disponibili al pubblico, i profitti netti dei commercianti di materie prime agricole sono rimasti eccessivamente alti nei primi nove mesi del 2023”, si legge nel rapporto “Hungry for profits” curato dalla Ong olandese Somo. Dati che fanno comprendere meglio quali sono i fattori che influenzano l’andamento del costo dei prodotti agricoli e -soprattutto- chi sono i reali vincitori dell’attuale sistema agroindustriale.

    La statunitense Cargill è la prima tra i Big five in termini di ricavi (165 miliardi di dollari nel 2022) e utili (6,6 miliardi), seguita dalla cinese Cofco (che nello stesso anno ha superato i 108 miliardi di dollari e i 3,3 miliardi di utili) e da Archer-Daniels-Midland company (Adm, con 101 miliardi di ricavi e 4,3 miliardi di utili). Nello stesso anno il numero di persone che soffrono la fame ha raggiunto i 783 milioni (122 milioni in più rispetto al 2019) e i prezzi dei prodotti alimentari hanno continuato a crescere, spinti dall’inflazione.

    Complessivamente questi cinque colossi detengono una posizione di oligopolio sul mercato globale dei prodotti di base come i cereali (di cui controllano una quota che va dal 70-90%), soia e zucchero. “Questo alto grado di concentrazione e il conseguente controllo sulle più importanti materie prime agricole del mondo, conferisce loro un enorme potere contrattuale per plasmare il panorama alimentare globale”, spiega Vincent Kiezebrink, ricercatore di Somo e autore della ricerca.

    La posizione dominante che di fatto ricoprono sul mercato globale rappresenta uno dei fattori che ha permesso agli Abccd di registrare profitti e utili da record negli ultimi tre anni. “La sola Cargill è responsabile della movimentazione del 25% di tutti i cereali e i semi di soia prodotti dagli agricoltori statunitensi -si legge nel report-. Anche il principale mercato agricolo per l’approvvigionamento di soia, l’America Latina, è dominato dagli Abccd: oltre la metà di tutte le esportazioni di questo prodotto passano da loro”.

    La situazione non cambia se si guarda a quello che succede in Europa: l’olandese Bunge e la statunitense Cargill da sole sono responsabili di oltre il 30% delle esportazioni di soia dal Brasile verso l’Unione europea. Bunge, in particolare, è il principale fornitore di soia per l’industria della carne dell’Ue con una chiara posizione di monopolio in alcuni mercati come il Portogallo, dove controlla il 90-100% delle vendite di olio di soia grezzo.

    Questa concentrazione è stata costruita nel tempo attraverso fusioni e acquisizioni che non sono state limitate dalle autorità per la concorrenza: quelle europee, ad esempio, hanno valutato un totale di 60 fusioni relative alle società Abccd dal 1990 a oggi. “Tutte le operazioni, tranne una, sono state autorizzate incondizionatamente -si legge nel report-. La prossima grande fusione in arrivo è quella tra la canadese Viterra (specializzata nella produzione e nel commercio di cereali, ndr) e Bunge. Un’operazione senza precedenti nel settore agricolo globale e che avvicinerà la nuova società alle dimensioni di Adm e Cargill”.

    Un secondo elemento che ha permesso a queste Big five di accumulare ricavi senza precedenti in questi anni è poi la loro capacità di influenzare la disponibilità dei beni alimentari attraverso un’enorme potenzialità di stoccaggio. “Il rapporto speciale 2022 del Gruppo internazionale di esperti sui sistemi alimentari sostenibili (Ipes) ha evidenziato che i trader conservano notevoli riserve di cereali -si legge nel report-. E sono incentivati ‘a trattenere le scorte fino a quando i prezzi vengono percepiti come massimi’”. Per avere un’idea delle quantità di materie prime in ballo, basti pensare che la capacità di stoccaggio combinata di Adm, Bunge e Cofco, è pari a circa 68 milioni di tonnellate, è simile al consumo annuo di grano di Stati Uniti, Turchia e Regno Unito messi assieme.

    Terzo e ultimo elemento individuato nel report è il fatto che queste società sono integrate verticalmente e hanno il pieno controllo della filiera produttiva dal campo alla tavola: forniscono cioè agli agricoltori prestiti, sementi, fertilizzanti e pesticidi; immagazzinano, trasformano e trasportano i prodotti alimentari.

    A fronte di questa situazione, Somo ha invitato la Commissione europea a intervenire per porre un freno alla crescente monopolizzazione del comparto: “L’indagine dovrebbe concentrarsi sul potere che può essere esercitato nei confronti dei fornitori per comprimere i loro margini di profitto -concludono i ricercatori-. È preoccupante che alle multinazionali sia stato permesso di triplicare i loro profitti facendo salire i prezzi degli alimenti, mentre le persone in tutto il mondo soffrono di una crisi del costo della vita e i più poveri sono alla fame”. Per questo motivo l’organizzazione suggerisce di applicare un’imposta sugli extra-profitti delle società Abccd che, con un’ipotetica aliquota fiscale del 33%. A fronte di utili che hanno toccato i 5,7 miliardi di dollari nel 2021 e i 6,4 miliardi nel 2022, permetterebbe di generare un gettito fiscale pari rispettivamente a 1,8 e 2 miliardi di dollari.

    https://altreconomia.it/gli-utili-record-dei-padroni-del-cibo-a-scapito-della-sicurezza-aliment
    #agriculture #business #profits #industrie_agro-alimentaire #sécurité_alimentaire #inflation #Archer-Daniels-Midland_company #Cargill #Cofco #Louis_Dreyfus_Company (#Abccd) #oligopole #céréales #soja #sucre

  • Gmail And Yahoo Inbox Updates & What They Mean For Senders | Mailgun
    https://www.mailgun.com/blog/deliverability/gmail-and-yahoo-inbox-updates-2024

    The requirement from both Gmail and Yahoo is to set up strong authentication with “SPF, DKIM, and DMARC for your domain.” Previously not a requirement, this move towards implementing DMARC is something Sinch Mailgun’s Jonathan Torres had already predicted in our guide on email security and compliance.

    (...) For­ DMAR­C you will­ need­ to set at mini­mum a p=no­ne poli­cy. (...)

    Il ne suffit plus d’avoir SPF et DKIM, il va aussi falloir implémenter l’enregistrement DMARC, en mode « none » au minimum.

    • Je ne comprend pas pourquoi le standard mail n’évolue pas.
      Si les corps de mails étaient stockés sur le serveur d’émission et non sur celui de réception, le stockage des spam serait à la charge de l’émetteur. Du coup :
      1. les serveurs de réception pourraient accepter beaucoup plus facilement les entêtes
      2. le corps pourrait être scanné pour les spams uniquement lorsque l’utilisateur demande l’affichage d’où une réduction de charge.
      3. le volume global de transaction et de stockage serait beaucoup plus faible (seuls les entêtes seraient copiés pour un mail à plusieurs destinataire)

      En fait on est resté sur un modèle basé sur les lettres papiers.

    • After self-hosting my email for twenty-three years I have thrown in the towel. The oligopoly has won.
      Carlos Fenollosa
      https://cfenollosa.com/blog/after-self-hosting-my-email-for-twenty-three-years-i-have-thrown-in-the-
      Le problème est plus grave. Das Internet ist kaputt. L’exclusion des petit prestataires est sytématique. Depuis au moins deux ans je ne propose plus l’hébergement de boîtes email (sur mes serveurs). Ce monsieur espagnol explique pourquoi.

      September 04, 2022 — Many companies have been trying to disrupt email by making it proprietary. So far, they have failed. Email keeps being an open protocol. Hurray?

      No hurray. Email is not distributed anymore. You just cannot create another first-class node of this network.
      ...

      #monopoles #oligopoles #email #internet

    • De mon côté, depuis 2 ans, ça va mieux.

      Mieux : les serveurs Microsoft se font jeter par Google, et réciproquement. Parce que ponctuellement, les uns et les autres ne sont pas capables de respecter les RFC. Quand ça tombe sur un client que j’ai été contraint de migrer vers MS, ça fait plaisir de pouvoir lui dire que Microsoft n’est pas la panacée non plus.

      Ça va mieux au sens où MS et Google ont cessé de filtrer sur des règles arbitraires (surtout MS d’ailleurs). Il reste Orange, avec des règles absurdes, mais c’est vraiment rare qu’on doive intervenir.

      On en reste de notre côté à 3 points à contrôler :
      1) Les DNS conformes : SPF, DKIM, DMARC ; parfois, DKIM est compliqué, selon l’hébergement final utilisé
      2) Les IP émettrices identifiées et en nombre limité : ici, on concentre les flux sur deux IP RIPE
      3) La surveillance des DNSBL, pour être toujours au vert ; pas mal de temps qu’on n’a pas eu besoin de faire quoi que ce soit à ce sujet

    • De ce que je lis ici, l’enregistrement #DMARC est imposé uniquement si on envoie plus de 5000 e-mails par période de 24 heures sur un service (GMail ou Yahoo donc) :

      https://www.it-connect.fr/fevrier-2024-google-et-yahoo-imposent-utilisation-spf-dkim-dmarc

      En dessous, la norme reste SPF et/ou DKIM. Par contre, "Tous les domaines et adresses IP utilisées pour émettre des e-mails doivent avoir un enregistrement DNS de type « PTR » (reverse) correctement configuré" et ça, je ne sais pas trop ce que ça veut, si quelqu’un·e a des infos...

      Bon, j’imagine que ce n’est qu’une première étape et ça sera généralisé à terme.

    • L’enregistrement PTR, c’est de s’assurer que si ton serveur de messagerie répond qu’il se nomme toto.domain.tld, il faut que l’IP publique émettrice réponde « toto.domain.tld » à une recherche inverse.

      En mode Linux, avec la commande host, je vérifie la résolution dans les deux sens, nom vers IP et IP vers nom (PTR) :

      $ host seenthis.net
      seenthis.net has address 217.182.178.243
      $ host 217.182.178.243
      243.178.182.217.in-addr.arpa domain name pointer seenthis.net.

      Et là, je vérifie ce que répond le serveur de messagerie dans sa réponse d’accueil :
      $ nc seenthis.net 25
      220 seenthis.net ESMTP Postfix (Debian/GNU)

      Tout est conforme, donc.

  • « Après le dieselgate, nous nous dirigeons tout droit vers un “#electric_gate” »

    Pour l’ingénieur et essayiste #Laurent_Castaignède, le développement actuel de la #voiture_électrique est un désastre annoncé. Il provoquera des #pollutions supplémentaires sans réduire la consommation d’énergies fossiles.

    Avec la fin de la vente des #voitures_thermiques neuves prévue pour #2035, l’Union européenne a fait du développement de la voiture électrique un pilier de sa stratégie de #transition vers la #neutralité_carbone. Le reste du monde suit la même voie : la flotte de #véhicules_électriques pourrait être multipliée par 8 d’ici 2030, et compter 250 millions d’unités, selon l’Agence internationale de l’énergie.

    Mais la #conversion du #parc_automobile à l’électricité pourrait nous conduire droit dans une #impasse désastreuse. Toujours plus grosse, surconsommatrice de ressources et moins décarbonée qu’il n’y parait, « la voiture électrique a manifestement mis la charrue avant les bœufs », écrit Laurent Castaignède dans son nouvel ouvrage, La ruée vers la voiture électrique. Entre miracle et désastre (éditions Écosociété, 2023).

    Nous avons échangé avec l’auteur, ingénieur de formation et fondateur du bureau d’étude BCO2 Ingénierie, spécialisé dans l’empreinte carbone de projets industriels. Démystifiant les promesses d’horizons radieux des constructeurs de #SUV et des décideurs technosolutionnistes, il pronostique un crash dans la route vers l’#électrification, un « #electrigate », bien avant 2035.

    Reporterre — Vous écrivez dans votre livre que, si l’on suit les hypothèses tendancielles émises par l’Agence internationale de l’énergie, la production de batteries devrait être multipliée par 40 entre 2020 et 2040, et que la voiture électrique accaparerait à cet horizon la moitié des métaux extraits pour le secteur « énergies propres ». Ces besoins en métaux constituent-ils la première barrière au déploiement de la voiture électrique ?

    Laurent Castaignède — La disponibilité de certains #métaux constitue une limite physique importante. Les voitures électriques ont surtout besoin de métaux dits « critiques », relativement abondants mais peu concentrés dans le sous-sol. L’excavation demandera d’ailleurs beaucoup de dépenses énergétiques.

    Pour le #lithium, le #cobalt, le #nickel, le #manganèse et le #cuivre notamment, ainsi que le #graphite, la voiture électrique deviendra d’ici une quinzaine d’années la première demandeuse de flux, avec des besoins en investissements, en capacités d’#extraction, de #raffinage, de main d’œuvre, qui devront suivre cette hausse exponentielle, ce qui n’a rien d’évident.

    L’autre problème, c’est la mauvaise répartition géographique de ces #ressources. On est en train de vouloir remplacer le pétrole par une série de ressources encore plus mal réparties… Cela crée de forts risques de constitution d’#oligopoles. Un « Opep du cuivre » ou du lithium serait catastrophique d’un point de vue géostratégique.

    Une autre limite concerne notre capacité à produire suffisamment d’électricité décarbonée. Vous soulignez que se répandent dans ce domaine un certain nombre « d’amalgames complaisants » qui tendent à embellir la réalité…

    Même lorsqu’on produit beaucoup d’électricité « bas carbone » sur un territoire, cela ne signifie pas que l’on pourra y recharger automatiquement les voitures avec. Le meilleur exemple pour comprendre cela est celui du Québec, où 100 % de l’électricité produite est renouvelable — hydroélectrique et éolienne. Mais une partie de cette électricité est exportée. Si le Québec développe des voitures électriques sans construire de nouvelles capacités d’énergies renouvelables dédiées, leur recharge entraînera une baisse de l’exportation d’électricité vers des régions qui compenseront ce déficit par une suractivation de centrales au charbon. Ces voitures électriques « vertes » entraîneraient alors indirectement une hausse d’émissions de #gaz_à_effet_de_serre

    De même, en France, on se vante souvent d’avoir une électricité décarbonée grâce au #nucléaire. Mais RTE, le gestionnaire du réseau de transport d’électricité, précise que la disponibilité actuelle de l’électricité décarbonée n’est effective que 30 % du temps, et que cette proportion va diminuer. On risque donc fort de recharger nos voitures, surtout l’hiver, avec de l’électricité au gaz naturel ou au charbon allemand, à moins de déployer davantage de moyens de production d’énergies renouvelables en quantité équivalente et en parallèle du développement des voitures électriques, ce qui est rarement ce que l’on fait.

    En d’autres termes, ce n’est pas parce que le « #kWh_moyen » produit en France est relativement décarboné que le « kWh marginal », celui qui vient s’y ajouter, le sera aussi. Dans mon métier de conseil en #impact_environnemental, j’ai vu le discours glisser insidieusement ces dernières années : on parlait encore des enjeux de la décarbonation du #kWh_marginal il y a dix ans, mais les messages se veulent aujourd’hui exagérément rassurants en se cachant derrière un kWh moyen « déjà vert » qui assurerait n’importe quelle voiture électrique de rouler proprement…

    Vous alertez aussi sur un autre problème : même si ce kWh marginal produit pour alimenter les voitures électriques devient renouvelable, cela ne garantit aucunement que le bilan global des émissions de carbone des transports ne soit à la baisse.

    Il y a un problème fondamental dans l’équation. On n’arrive déjà pas à respecter nos objectifs antérieurs de développement des énergies renouvelables, il parait compliqué d’imaginer en produire suffisamment pour recharger massivement les nouveaux véhicules électriques, en plus des autres usages. Et beaucoup d’usages devront être électrifiés pour la transition énergétique. De nombreux secteurs, des bâtiments à l’industrie, augmentent déjà leurs besoins électriques pour se décarboner.

    De plus, rien ne garantit que le déploiement de voitures électriques ne réduise réellement les émissions globales de gaz à effet de serre. En ne consommant plus d’essence, les voitures électriques baissent la pression sur la quantité de pétrole disponible. La conséquence vicieuse pourrait alors être que les voitures thermiques restantes deviennent moins économes en se partageant le même flux pétrolier.

    Imaginons par exemple que l’on ait 2 milliards de voitures dans le monde en 2040 ou 2050 comme l’indiquent les projections courantes. Soyons optimistes en imaginant qu’un milliard de voitures seront électriques et que l’on consommera à cet horizon 50 millions de barils de pétrole par jour. Le milliard de voitures thermiques restant pourrait très bien se partager ces mêmes 50 millions de barils de pétrole, en étant juste deux fois moins économe par véhicule. Résultat, ce milliard de voitures électriques ne permettrait d’éviter aucune émission de CO₂ : rouler en électrique de manière favorable nécessite de laisser volontairement encore plus de pétrole sous terre…

    L’électrification, seule, n’est donc pas une réponse suffisante. Cela signifie qu’une planification contraignant à la sobriété est nécessaire ?

    La #sobriété est indispensable mais il faut être vigilant sur la manière de la mettre en place. Il serait inaudible, et immoral, de demander à des gens de faire des efforts de sobriété si c’est pour permettre à leur voisin de rouler à foison en gros SUV électrique.

    La sobriété, ce serait d’abord mettre un terme à « l’#autobésité ». L’électrification accentue la prise de #poids des véhicules, ce qui constitue un #gaspillage de ressources. Au lieu de faire des voitures plus sobres et légères, les progrès techniques et les gains de #productivité n’ont servi qu’à proposer aux consommateurs des véhicules toujours plus gros pour le même prix. On n’en sortira pas en appelant les constructeurs à changer de direction par eux-mêmes, ce qu’on fait dans le vide depuis 30 ans. Il faut réguler les caractéristiques clivantes des véhicules, en bridant les voitures de plus d’1,5 tonne à vide à 90 km/h par exemple, comme on le fait pour les poids lourds, et à 130 km/h toutes les autres.

    Un autre effet pervers pour la gestion des ressources est l’#obsolescence des véhicules. Pourquoi écrivez-vous que l’électrification risque de l’accélérer ?

    La voiture électrique porte dans ses gènes une #obsolescence_technique liée à la jeunesse des dernières générations de #batteries. Les caractéristiques évoluent très vite, notamment l’#autonomie des véhicules, ce qui rend leur renouvellement plus attractif et le marché de l’occasion moins intéressant.

    Paradoxalement, alors que les moteurs électriques sont beaucoup plus simples que les moteurs thermiques, l’électronification des voitures les rend plus difficiles à réparer. Cela demande plus d’appareillage et coûte plus cher. Il devient souvent plus intéressant de racheter une voiture électrique neuve que de réparer une batterie endommagée.

    Les constructeurs poussent en outre les gouvernements à favoriser les #primes_à_la casse plutôt que le #rétrofit [transformer une voiture thermique usagée en électrique]. Ce dernier reste artisanal et donc trop cher pour se développer significativement.

    Vous écrivez qu’une véritable transition écologique passera par des voitures certes électriques mais surtout plus légères, moins nombreuses, par une #démobilité, une réduction organisée des distances du quotidien… Nous n’en prenons pas vraiment le chemin, non ?

    Il faudra peut-être attendre de se prendre un mur pour changer de trajectoire. Après le dieselgate, nous nous dirigeons tout droit vers un « electric gate ». Je pronostique qu’avant 2035 nous nous rendrons compte de l’#échec désastreux de l’électrification en réalisant que l’empreinte carbone des transports ne baisse pas, que leur pollution baisse peu, et que le gaspillage des ressources métalliques est intenable.

    La première pollution de la voiture électrique, c’est de créer un écran de fumée qui occulte une inévitable démobilité motorisée. Le #technosolutionnisme joue à plein, via des batteries révolutionnaires qui entretiennent le #messianisme_technologique, comme pour esquiver la question politique du changement nécessaire des modes de vie.

    On continue avec le même logiciel à artificialiser les terres pour construire des routes, à l’instar de l’A69, sous prétexte que les voitures seront bientôt « propres ». Il faut sortir du monopole radical, tel que décrit par Ivan Illich, constitué par la #voiture_individuelle multi-usages. La première liberté automobile retrouvée sera celle de pouvoir s’en passer avant de devoir monter dedans.

    https://reporterre.net/Apres-le-dieselgate-nous-nous-dirigeons-tout-droit-vers-un-electric-gate
    #réparation #terres_rares #réparabilité #extractivisme

    • La ruée vers la voiture électrique. Entre miracle et désastre

      Et si les promesses du miracle électrique n’étaient en fait que le prélude à un désastre annoncé ?

      La voiture électrique a le vent en poupe. Dans un contexte d’urgence écologique, elle semble être la solution pour résoudre les principaux problèmes sanitaires et climatiques causés par la voiture à essence. Pour l’expert en transports #Laurent_Castaignède, il est urgent de prendre la mesure de la révolution en cours. En Occident comme en Chine, un remplacement aussi rapide et massif du parc automobile est-il possible ? Les promesses écologiques de la voiture électrique seront-elles au rendez-vous ou risquent-elles de s’évanouir dans un nouveau scandale environnemental ?

      Pour Laurent Castaignède, nous sommes sur le point d’accepter une nouvelle dépendance énergétique, verdie, sur fond de croissance économique jusqu’au-boutiste. Remontant aux origines de la mobilité routière électrique, l’ancien ingénieur automobile fait le point sur la situation actuelle, dont le dynamisme de déploiement est inédit. Si la voiture électrique n’émet pas de gaz polluants à l’utilisation, elle pose de nombreux problèmes. Elle mobilise des ressources critiques pour sa fabrication et ses recharges, pour des gabarits de véhicules toujours plus démesurés. Elle maintient aussi le modèle de l’auto-solo, sans rien changer aux problèmes d’embouteillage et au poids financier des infrastructures routières sur les collectivités.

      La ruée vers la voiture électrique propose une autre électrification de la mobilité automobile, crédible et véritablement respectueuse de notre santé et de celle de la planète. Tâchons d’éviter que les promesses technologiques du virage électrique ne débouchent sur un désastre annoncé.

      https://ecosociete.org/livres/la-ruee-vers-la-voiture-electrique
      #livre

  • Lait : la compétitivité de la filière française fragilisée par les faibles prix payés aux agriculteurs
    https://www.latribune.fr/entreprises-finance/industrie/agroalimentaire-biens-de-consommation-luxe/la-filiere-laitiere-francaise-championne-de-la-competitivite-836699.html


    Le principal problème posé par la forte compétitivité du lait français est qu’elle met en lumière une distorsion de marché. La rentabilité de la filière s’appuie notamment sur la faiblesse des prix payés aux agriculteurs par les trois plus grands acteurs, ce qui remet sérieusement en question la durabilité du modèle.
    Crédits : Stephane Mahe

    La concentration de l’industrie laitière, à l’origine de la paupérisation des producteurs de lait, place paradoxalement la France en tête des pays les plus compétitifs du monde selon une étude de France Agrimer.

    La filière du lait en France aurait le plus d’avantages compétitifs que tous les autres pays producteurs, selon une nouvelle étude réalisée par le cabinet de conseil Agrex pour France Agri Mer.

    Une affirmation qui peut étonner, tant les producteurs de lait sont à la peine. Les prix de vente de la plupart des lait produits en France ne permettent pas aux éleveurs de rentrer dans leurs frais. Leur détresse est telle que les producteurs laitiers sont les plus touchées par le suicide, comme l’a montré l’étude de la Mutualité sociale agricole en septembre dernier.

    Et c’est bien tout le paradoxe de cette situation. Car parmi les atouts de la France relevés par l’étude, la concentration de l’offre laitière aux mains de trois industriels, Lactalis, Sodiaal et Eurial, qui ont poids croissant avec plus 52 % du marché en 2018, est une des raisons de cette forte compétitivité. Cette concentration est aussi à l’origine de la paupérisation des producteurs de lait.

    #Ah_qu'en_termes_galants_ces_choses-là_sont_dites
    #oligopole

  • L’#édition_scientifique, entre #prédateurs et #profiteurs

    Les #revues_scientifiques sont au cœur de la diffusion des savoirs et de l’évaluation des chercheurs. Face à la captation du #marché par de grandes entreprises, des résistances s’organisent. Entretien croisé avec #Hervé_Maisonneuve et #Frédéric_Hélein.
    Pour un chercheur, publier ses résultats dans des revues spécialisées est une activité cruciale, lors de laquelle se joue sa renommée. Ces revues, initialement fondées par des sociétés savantes, sont de plus en plus contrôlées par un #oligopole de #multinationales de l’édition, qui accumulent des #profits phénoménaux. Depuis une décennie, le modèle économique de l’édition scientifique bascule vers une logique d’accès libre aux articles, les frais de publication étant couverts par les chercheurs. Mais des groupes peu recommandables ont développé des revues dites « prédatrices », publiant n’importe quoi dans le seul but d’encaisser le paiement des chercheurs.
    Où va l’édition scientifique ? Comment les scientifiques peuvent-ils reprendre le contrôle de ce maillon essentiel à la diffusion de leurs recherches ? Entretien croisé avec Hervé Maisonneuve, médecin de santé publique, et Frédéric Hélein, professeur de mathématiques à l’université Paris VII.

    https://www.youtube.com/watch?time_continue=4&v=abvhkMsNn58


    https://www.mediapart.fr/journal/culture-idees/130119/l-edition-scientifique-entre-predateurs-et-profiteurs
    #prédation #profit #université #business #savoir #recherche #science

    signalé par @marty

    • #Déclaration_de_San_Francisco sur l’#évaluation de la recherche

      Il est urgent d’améliorer les méthodes d’évaluation des résultats de la recherche scientifique par les agences de financement, les établissements d’enseignement et de recherche et d’autres parties. Pour régler cette question, un groupe de rédacteurs en chef et d’éditeurs de revues savantes s’est réuni à San Francisco en Californie le 16 décembre 2012, dans le cadre du congrès annuel de l’American Society for Cell Biology (ASCB). Ce groupe a élaboré un ensemble de recommandations, désormais appelé « Déclaration de San Francisco sur l’évaluation de la recherche ». Nous invitons les parties intéressées de toutes les disciplines scientifiques à manifester leur soutien en ajoutant leur nom à la présente Déclaration.

      Les apports de la recherche sont nombreux et variés : articles contenant de nouvelles connaissances, données, réactifs, logiciels ainsi que propriété intellectuelle et jeunes scientifiques hautement qualifiés. Les agences de financement, les établissements qui emploient des chercheurs et ces scientifiques eux-mêmes éprouvent tous le désir et le besoin d’évaluer la qualité et l’impact de la production scientifique. Il est donc impératif que la production scientifique soit mesurée rigoureusement et évaluée avec discernement.

      Le facteur d’impact des revues est souvent utilisé comme principal paramètre pour comparer la production scientifique individuelle et celle des établissements. Ce facteur d’impact, tel que calculé par Thomson Reuters*, a été créé à l’origine comme un outil d’aide pour les bibliothécaires servant à identifier les revues à acheter, et non pour mesurer la qualité scientifique de la recherche exposée dans un article. Dans cette optique, il est essentiel de comprendre que le facteur d’impact présente un certain nombre d’insuffisances bien documentées en tant qu’outil d’évaluation de la recherche. Ces limitations sont les suivantes : A) les distributions des citations dans les revues sont très asymétriques [1-3] ; B) les propriétés du facteur d’impact sont propres à chaque domaine : il s’agit d’un agrégat de types d’articles multiples et très divers, avec des articles primaires comme de synthèse [1, 4] ; C) les facteurs d’impact peuvent être manipulés (ou « instrumentalisés ») par une politique éditoriale [5] ; et D) les données utilisées pour calculer les facteurs d’impact ne sont ni transparentes ni ouvertement accessibles au public [4, 6, 7]. Ce qui suit formule des recommandations visant à améliorer la façon dont la qualité des résultats de la recherche est évaluée. D’autres éléments de production scientifique que les articles prendront une importance accrue dans l’évaluation de l’efficacité des travaux de recherche à l’avenir, mais l’article, contrôlé par des pairs, demeurera une production scientifique essentielle entrant dans l’évaluation de la recherche. Par conséquent, nos recommandations portent au premier chef sur les pratiques relatives aux articles publiés dans des revues à comité de lecture, mais elles peuvent et devraient s’étendre à d’autres productions, comme les jeux de données, en tant que résultantes importantes de la recherche. Ces recommandations s’adressent aux agences de financement, aux établissements d’enseignement et de recherche, aux revues, aux organismes pourvoyeurs d’indicateurs et à chaque chercheur.

      Ces recommandations s’articulent autour d’un certain nombre de sujets :

      la nécessité de mettre un terme à l’utilisation d’indicateurs basés sur les revues, comme les facteurs d’impact, dans le financement, les nominations et les promotions ;
      celle d’évaluer la recherche sur sa valeur intrinsèque plutôt qu’en fonction de la revue où elle est publiée ; et
      celle encore d’exploiter au mieux les possibilités offertes par la publication en ligne (comme la levée de restrictions inutiles sur le nombre de mots, de figures et de références dans les articles et l’exploration de nouveaux indicateurs d’importance et d’impact).

      Nous reconnaissons que de nombreuses agences de financement, établissements, éditeurs et chercheurs encouragent déjà l’amélioration des pratiques d’évaluation de la recherche. De telles démarches commencent à donner de nouvelles perspectives à des approches d’évaluation de la recherche plus élaborées et plus pertinentes sur lesquelles il est possible de s’appuyer et qui puissent être adoptées par toutes les parties impliquées au premier chef.

      Les signataires de la Déclaration de San Francisco sur l’évaluation de la recherche soutiennent l’adoption des pratiques suivantes pour l’évaluation de la recherche.

      Recommandation générale

      Ne pas utiliser les indicateurs basés sur les revues, tels que les facteurs d’impact, comme succédané d’appréciation de la qualité des articles de recherche individuels, pour évaluer les contributions d’un scientifique en particulier ou pour prendre des décisions en matière de recrutement, de promotion ou de financement.

      Pour les agences de financement

      Indiquer explicitement les critères utilisés pour évaluer la productivité scientifique des porteurs de projet et souligner clairement, surtout pour les chercheurs débutants, que le contenu scientifique d’un article est beaucoup plus important que les indicateurs de publication ou l’image de marque de la revue dans laquelle il a été publié.

      Aux fins de l’évaluation de la recherche, tenir compte de la valeur et de l’impact de tous les résultats de travaux de recherche (y compris les jeux de données et les logiciels) en plus des publications scientifiques, et envisager un large éventail de mesures d’impact, y compris des indicateurs qualitatifs sur les retombées des travaux, comme leur influence sur les politiques et les pratiques.

      Pour les établissements

      Afficher explicitement les critères utilisés dans les décisions de recrutement, de titularisation et de promotion, en soulignant clairement, surtout pour les chercheurs débutants, que le contenu scientifique d’un article est beaucoup plus important que les indicateurs de publication ou l’image de marque de la revue dans laquelle il a été publié.

      Aux fins de l’évaluation de la recherche, tenir compte de la valeur et de l’impact de tous les résultats de travaux de recherche (y compris les jeux de données et les logiciels) en plus des publications scientifiques, et envisager un large éventail de mesures d’impact, y compris des indicateurs qualitatifs sur les retombées des travaux, comme leur influence sur les politiques et les pratiques.

      Pour les éditeurs

      Réduire considérablement l’importance accordée au facteur d’impact comme outil de promotion, idéalement en cessant de le promouvoir ou en présentant ce paramètre dans le contexte d’une variété d’indicateurs basés sur les revues (p. ex. facteur d’impact sur 5 ans, EigenFactor [8], SCImago [9], indice h, temps de traitement éditorial et de publication, etc.) qui offrent une vision plus riche de la performance d’une revue.

      Proposer une série d’indicateurs à l’échelle de l’article pour encourager le passage à une évaluation qui soit fondée sur le contenu scientifique d’un article plutôt que sur les indicateurs de publication de la revue dans laquelle il a été publié.

      Encourager des pratiques responsables en matière de paternité d’auteur et la fourniture d’informations sur les contributions spécifiques de chaque auteur.

      Qu’une revue soit en libre accès ou sur abonnement, supprimer toutes les restrictions de réutilisation des listes de références dans les articles et les mettre à disposition dans le cadre du Creative Commons Public Domain Dedication [10].

      Éliminer ou réduire les contraintes sur le nombre de références dans les articles et, le cas échéant, exiger la citation de la littérature primaire plutôt que celle des articles de synthèse afin de reconnaître le mérite du ou des groupes qui ont rapporté en premier une découverte.

      Pour les organismes pourvoyeurs d’indicateurs

      Faire preuve d’ouverture et de transparence en fournissant les données et les méthodes utilisées pour calculer tous les indicateurs.

      Fournir les données en vertu d’une licence qui permette une réutilisation sans restriction et permettre un accès informatique aux données, dans la mesure du possible.

      Préciser clairement que la manipulation inconsidérée des indicateurs ne sera pas tolérée ; désigner explicitement ce qui constitue une manipulation inconsidérée et les mesures qui seront prises pour y remédier.

      Tenir compte de la diversité des types d’articles (p. ex., articles de synthèse par rapport aux articles de recherche) et des différents domaines lorsque les indicateurs sont utilisés, agrégés ou comparés.

      Pour les chercheurs

      Lors d’une participation à des commissions exerçant des décisions de financement, d’embauche, de titularisation ou de promotion, produire des évaluations fondées sur le contenu scientifique plutôt qu’en fonction des indicateurs de publication.

      Le cas échéant, citer la littérature primaire dans laquelle les observations ont été rapportées en premier plutôt que les articles de synthèse afin d’en attribuer le mérite à bon escient.

      Utiliser une gamme de paramètres et d’indicateurs d’articles sur les déclarations personnelles/de soutien, comme preuve de l’impact d’articles individuels publiés et d’autres résultats de recherche [11].

      Remettre en question les pratiques d’évaluation de la recherche qui s’appuient inconsidérément sur les facteurs d’impact. Promouvoir et enseigner les bonnes pratiques qui mettent l’accent sur la valeur et l’influence des résultats spécifiques de la recherche.

      https://sfdora.org/read/fr
      #recommandations

  • Microsoft tests ‘warning’ Windows 10 users not to install Chrome or Firefox - The Verge
    https://www.theverge.com/2018/9/12/17850146/microsoft-windows-10-chrome-firefox-warning

    Microsoft is testing a warning for Windows 10 users not to install Chrome or Firefox. The software giant is in the final stages of testing its Windows 10 October 2018 Update, and testers have spotted a new change that appears when you try to install a rival web browser. “You already have Microsoft Edge – the safer, faster browser for Windows 10” says a prompt that appears when you run the Chrome or Firefox installers on the latest Windows 10 October 2018 Update.

    The Verge understands Microsoft is simply testing this prompt for now, and that it won’t appear in the final October update. Microsoft does test feature changes over the course of its updates, but this particular change was not documented in the company’s various blog posts and appeared very late in the testing stages. The prompt may still appear in a future Windows 10 update, but that will depend on feedback to this controversial change.

    While the prompts can be turned off, they’re yet another example of Microsoft infesting Windows 10 with annoying ads and pop-ups. Some similar prompts already appear and attempt to push Chrome or Firefox users to use Edge, but this latest one steps up Microsoft’s war against Chrome even further. It’s not clear why Microsoft thinks it’s a good idea to include these irritating prompts, as all they’re likely to do is anger Windows 10 users rather than convince them to switch to Edge.

    #Microsoft #Concurrence #Effet_de_réseau #Oligopole

  • Google gagne une première manche contre le fisc
    http://abonnes.lemonde.fr/economie/article/2017/07/12/google-gagne-une-premiere-manche-contre-le-fisc_5159704_3234.html

    L’enjeu est de taille pour le gouvernement français. Le fisc poursuit ou a poursuivi la plupart des géants américains du numérique, de Yahoo ! à Microsoft, en passant par Amazon, Apple, Microsoft ou eBay. Tous ont pour point commun de payer très peu d’impôts en France. Aux Rencontres économiques d’Aix-en-Provence, Bruno Le Maire s’est insurgé contre les pratiques fiscales de la Silicon Valley. « Il est temps que l’Europe se ressaisisse, qu’elle défende ses intérêts, qu’elle fasse payer à Google, Amazon et Facebook les impôts qu’elles doivent aux contribuables européens », a lancé le ministre de l’économie et des finances, le 9 juillet.

    Comme ses compatriotes, Google s’acquitte en France d’un impôt sur les sociétés (IS) marginal. En 2015, le moteur de recherche a déclaré 249 millions d’euros de chiffre d’affaires, et un résultat net de 12 millions d’euros. Les caisses de l’Etat, elles, ont perçu 6,7 millions d’euros au titre de l’IS, et 5 millions en 2014.

    Or, ces chiffres apparaissent peu en phase avec l’activité en France de l’entreprise californienne. Ainsi, en 2015, le Syndicat des régies Internet estimait à 1,75 milliard de revenus les recettes issues des « liens sponsorisés », ces liens publicitaires qui apparaissent dans les moteurs de recherche, un domaine où la multinationale détient plus de 90 % de parts de marché.

    Si Google déclare aussi peu, c’est parce que l’essentiel de ses revenus, et notamment ceux de Adwords, sa plate-forme publicitaire, sont enregistrés par Google Ireland, où il a installé son siège européen.

    #Google #Impôts #Fiscalité #Oligopole

  • Fediverse : fin d’une aventure
    https://psychedeli.cat/mastodon-fin-aventure

    [Après un blocage dû à une discussion sur la suppression d’un compte supposément pro-nazi] Mes notifications sont enfin redevenues intéressantes et l’ambiance est meilleure, on est passé à autre chose. C’était sans compter, quelques jours plus tard, la girouette qu’est devenue l’administration de mastodon.social. Pour vous situer dans le contexte, mastodon.social est l’instance phare de Mastodon avec 81,211 utilisateurs inscrits à l’heure actuelle et 2,504,555 status. C’est donc un géant et qui, par sa présence, m’inspire ce qui devient un raté de la « décentralisation » : si tous les utilisateurs sont répartis sur une dizaine d’instances majeures, quel est l’intérêt ? Et qu’arrive-t-il si le pouvoir coercitif finit par avoir raison des petites instances qui se retrouvent isolées alors qu’elles ont justement besoin de s’étendre et d’avoir de la visibilité à cette fin ?

    #Mastodon #fediverse #modération #censure #oligopole #blocage #blocking_lists

  • Édition scientifique numérisée, autonomie intellectuelle des chercheurs et pédagogie numérique
    par Jérôme Valluy

    J’ai beau être un utilisateur heureux de Revues.org, et n’avoir aucun exemple vraiment caractérisé de censure, je ne peux m’empêcher de trouver dérangeant et très digne d’attention ses anticipations quelques peu catastrophistes et son invitation à développer des éditions décentralisées.
    http://www.iri.centrepompidou.fr/wp-content/uploads/2014/06/enmi-preparatoires-2014.vfinale2.pdf

    Dans le domaine des arts, lettres et sciences humaines, le développement de l’édition scientifique numérique en libre accès accélère l’effondrement du marché des livres et revues scientifiques sur papier et probablement leur disparition à brève échéance. Or ce marché a permis, depuis plus d’un siècle, d’assurer un relatif pluralisme intellectuel par la multiplication de petites maisons d’édition, offrant des débouchés à des pensées diverses, mêmes minoritaires, émergentes, décalées, novatrices, qui sont essentielles aux progrès de la connaissance. A l’ère numérique, ce pluralisme n’est assuré ni par la concentration oligopolistique du marché scientifique mondial payant (les bouquets d’abonnements à prix exorbitants) ni par le mouvement, en réaction, de l’accès ouvert aux publications sur plateformes institutionnelles financées sur fonds publics, constitutives d’oligopoles non marchands, étatiques voire technocratiques, plaçant la recherche sous contrôles, notamment politique, d’acteurs publiques dominants. Ces deux formes d’oligopoles, marchand et étatique, réduisent l’autonomie intellectuelle des chercheurs et, par là même, celle des pédagogues qui transmettent les savoirs issus de la recherche, dans le supérieur et dans le secondaire. Plus récemment, la propulsion politique de cours numériques en libre accès (les MOOC) accentue cette perte d’autonomie des chercheurs et enseignants en subordonnant la pédagogie à des finalités exogènes qui sont principalement celle du marketing académique, pour des universités en concurrence, et celles de la réduction des budgets, pour des universités sous-financées.

    Dans ce contexte, l’édition scientifique et pédagogique doit être entièrement repensée en articulant la connaissance des nouveaux dispositifs technologiques caractéristiques de l’ère numérique, la création nécessaire d’un nouveau modèle économique de l’édition scientifique et la philosophie libérale, issue des Lumières, de défense des libertés intellectuelles, des chercheurs et pédagogues. Au vu de l’expérience historique du marché éditorial papier (multiplication de petites maisons d’édition dans les démocraties libérales) et des transformations numériques récentes de ce marché (oligopoles marchands et oligopoles étatiques), on ne peut qu’être tenté par le fameux « small is beautiful » et appeler à la création de multiples et nouvelles maisons d’éditions, chacune issue d’un projet non pas technologique mais intellectuel, et réellement adapté au monde numérique. Cette structure éditoriale devra être, à la fois entièrement novatrice du point de vue de la conception même du livre et de la revue à l’ère numérique (écritures numériques enrichies, publication multi-formats, en accès partiellement ou totalement ouvert, nouveaux métiers et nouvelles collaborations auteurs/éditeurs) et entièrement nouvelles aussi du point de vue du modèle économique permettant de financer ces maisons d’édition de façon à préserver durablement leur indépendance et leur diversité (financements hybrides associant crowdfunding, financements académiques, accords de distribution et ventes de prestations secondaires). De telles maisons d’édition offriront au public des productions à la fois écrites et audio-visuelles de qualité infiniment supérieure tant aux premiers cours en ligne ouverts (MOOC) qu’aux espaces pédagogiques interactifs (EPI) et assureront par leur nombre et leur diversité un pluralisme intellectuel dans l’édition scientifique que ne pourront jamais offrir des plateformes institutionnelles sous contrôle des pouvoirs publics.

    #édition_numérique #oligopole #libertés_académiques