• AI Undermines Democracy and Trends Toward Illiberalism
    https://foreignpolicy.com/2024/10/31/artificial-intelligence-ai-illiberalism-democracy-civil-rights

    But free and fair elections, the building blocks of democratic representation, are only one dimension of democracy. Today, policymakers must also recognize an equally fundamental threat that advanced technologies pose to a free and open society: the suppression of civil rights and individual opportunity at the hands of opaque and unaccountable AI systems. Ungoverned, AI undermines democratic practice, norms, and the rule of law—fundamental commitments that underpin a robust liberal democracy—and opens pathways toward a new type of illiberalism. To reverse this drift, we must reverse the currents powering it.

    Liberal societies are characterized by openness, transparency, and individual agency. But the design and deployment of powerful AI systems are the precise inverse.

    In the United States, as in any country, those who control the airwaves, steer financial institutions, and command the military have long had a wide berth to make decisions that shape society. In the new century, another set of actors joins that list: the increasingly concentrated group of corporate players who control data, algorithms, and the processing infrastructure to make and use highly capable AI systems. But without the kind of robust oversight the government prescribes over other parts of the economy and the military, the systems these players produce lack transparency and public accountability.

    The U.S. foreign-policy establishment has long voiced legitimate concerns about the use of technology by authoritarian regimes, such as China’s widespread surveillance, tracking, and control of its population through deep collusion between the state and corporations. Civil society, academics, and journalists have recognized the threat of those same tools being deployed to similar ends in the United States. At the same time, many of today’s AI systems are undermining the liberal character of American society: They run over civil rights and liberties and cause harm for which people cannot easily seek redress. They violate privacy, spread falsehoods, and obscure economic crimes such as price-fixing, fraud, and deception. And they are increasingly used—without an architecture of accountability—in institutions central to American life: the workplace, policing, the legal system, public services, schools, and hospitals.

    All of this makes for a less democratic American society. In cities across the United States, people of color have been arrested and jailed after being misidentified by facial recognition tools. We’ve seen AI used in loan refinancing charge more to applicants who went to historically Black colleges. An AI program aimed at preventing suicide among veterans prioritizes white men and overlooks survivors of sexual violence, who are much more likely to be women. Hidden behind computer code, illegal and unfair treatment long banned under federal law is becoming harder to detect and to contest.

    To global observers, the trendlines of AI in American society will look familiar; the worst harms of these systems mirror the tenets of what has been called “illiberal democracy.” Under that vision—championed most famously by Hungarian Prime Minister Viktor Orban, a darling of the U.S. right—a society “maintains the outward appearances of a democracy … but in fact seeks to undermine all the institutions and norms that give democracy meaning,” scholar Susan Rubin Suleiman wrote in 2021. This doesn’t have to look like canceling elections or dismantling a sitting legislative body; instead, the vision takes the form of a more subtle assault—foreclosing the ability of individuals and minority groups to assert their rights.

    In February, at least 20 firms signed a pledge to flag AI-generated videos and take down content meant to mislead voters. Soon after, OpenAI and its largest investor, Microsoft, launched a $2 million Societal Resilience Fund focused on educating voters about AI. The companies point to this work as core to their missions, which imagine a world where AI “benefits all of humanity” or “helps people and society flourish.”

    Tech companies have repeatedly promised to govern themselves for the public good—efforts that may begin with good intentions but fall apart under the pressure of a business case. Congress has had no shortage of opportunities over the last 15 years to step in to govern data-centric technologies in the public’s interest.

    Washington has the opportunity to build a new, enduring paradigm in which the governance of data-centric predictive technologies, as well as the industry that creates them, is a core component of a robust U.S. democracy.

    We must waste no time reaffirming that the protections afforded by previous generations of laws also apply to emerging technology. For the executive branch, this will require a landmark effort to ensure protections are robustly enforced in the digital sphere, expanding enforcement capacity in federal agencies with civil rights offices and enforcement mandates and keeping up the antitrust drumbeat that has put anti-competitive actors on notice.

    These are some of the measures the United States can undertake to govern these new technologies. Even in an administration that broadly supports these goals, however, none of this will be possible or politically viable without a change in the overall balance of power. A broad-based, well-funded, and well-organized political movement on technology policy issues is needed to dramatically expand the coalition of people interested and invested in technology governance in the United States.

    Ami Fields-Meyer is a senior fellow at the Harvard Kennedy School and former senior policy advisor to Vice President Kamala Harris.

    Janet Haven is the executive director of Data & Society and a member of the National AI Advisory Committee. The opinions expressed in this article do not represent the opinions of the National AI Advisory Committee or any other U.S government body.

    #Intelligence_artificielle #régulation #Illibéralisme

    • Donauinsel

      Im Zuge des Baus eines Entlastungsgerinnes im ehemaligen Überschwemmungsgebiet (Neue Donau), das die 1870-1875 regulierte Donau (Donauregulierung) an ihrem linken Ufer begleitete, entstand zwischen den beiden Flussläufen eine rund 20 Kilometer lange und bis zu 300 Meter breite Insel, die zu einem Naherholungsgebiet ausgebaut wurde.

      Die „Neue Donau“ wurde nach langen Diskussionen im Gemeinderat, die mit einer mehrheitlichen Beschlussfassung seitens der SPÖ endeten, zwischen 1. März 1972 und 1988 angelegt. Abschluss der Baggerarbeiten war am 13. Oktober 1987, wobei die Teilbenützung der nördlichen Teile bereits möglich war.

      Im Mai 1973 wurde der "Wettbewerb Donaubereich Wien“ ausgeschrieben, der viele bis dahin unbeachtete Auswirkungen behandelte, die Donauinsel in den gesamtstädtischen Planungsprozess einband (siehe unten) und der zunehmenden Politisierung des Projektes Rechnung trug.[1] Vor allem von der Opposition kam zu dieser Zeit eine vehemente Kritik an Großprojekten, die als unnötige Belastung des Steuerzahlers angeprangert wurden. Im Falle der Donauinsel bezog sich dies auf die weiterführenden Pläne der Stadtbauplanung, nicht auf den Hochwasserschutz selbst.

      1983 wurde das Areal vom Gemeinderat als „Erholungsgebiet“ freigegeben. Die offizielle Benennung erfolgte am 7. Mai 1984 durch den Gemeinderatsausschuss für Kultur. Seit 1984 wird alljährlich im Sommer das „Donauinselfest“ abgehalten.

      Als Donauinseln im Wiener Raum können historisch betrachtet auch die Inseln des bis 1868-1875 großteils unregulierten Donaustroms bezeichnet werden, vor allem der Obere Werd und der Untere Werd (Werd oder Wörth = Insel), die spätere Leopoldstadt. Auch das Gänsehäufel war einst eine Insel im unregulierten Strom.

      Die Planungsphasen
      Vorentwurf Nordteil, Gottfried und Anton Hansjakob (1976)
      Die erste Phase des „Wettbewerbs Donaubereich Wien“

      Die Ausschreibung des Wettbewerbs fand auf nationaler Ebene im Mai 1973 statt. Einsendefrist der Bearbeitung war Dezember 1973, die Beurteilung der Projekte durch die Jury fand im Mai und Juni 1974 statt. Von den 44 eingesandten Projekten wurden elf prämiert und fünf schließlich für die weitere Bearbeitung herangezogen.

      Während der laufenden Ausschreibung kam es durch die bereits begonnenen Bauarbeiten zu erheblichem Zeitdruck. Am 29. Mai 1974 stellte die Jury fest, dass der erste Kilometer der Donauinsel nach "fast ausschließlich wasserbautechnischen Überlegungen“[2] gebaut worden war: die steilen Ufer ließen kaum eine Nutzung zu. Am nächsten Tag fand mit Bürgermeister Leopold Gratz eine Aussprache statt, in der die Jury um das Aussetzen der Bauarbeiten ansuchte, was Gratz jedoch ablehnte. Stattdessen forderte er im Hinblick auf die bald stattfindende zweite Wettbewerbsstufe Vorschläge der Jury für eine rasche und effiziente Abwicklung derselben, versicherte der Jury für ihre Ideen volle Unterstützung und ließ auch Möglichkeiten prüfen, die laufenden Bauarbeiten mit den Juryplanungen zu vereinbaren. Zu diesem Zweck trat man auch an die beteiligten Planungsbüros heran und beauftragte sie mit der Planung von „Sofortmaßnahmen“ für bereits im Bau befindliche Bereiche.
      Die zweite Phase des „Wettbewerbs Donaubereich Wien“
      Uferprofile, Arbeitskreis 1 (1975)
      Uferprofile, Arbeitskreis 1 (1975)

      Nach der Strukturierung eines Arbeitsprogramms begann die zweite Wettbewerbsphase im November 1974. Aus den fünf Planungsbüros wurden zwei Arbeitskreise gebildet, die Planungen sollten in mehreren Tagungen und gemeinsam mit Experten, Verwaltungsstellen der Stadt und mit der Jury bis November 1976 abgeschlossen werden. Durch den Einsturz der Reichsbrücke am 1. August 1976 und die Koordination mit dem darauffolgenden „Projektwettbewerb Reichsbrücke“ verzögerte sich die Schlusssitzung allerdings bis Mai 1977.

      Während der Jurysitzungen wurden vor allem die Ausführungsplanungen des Mittelteils heftig diskutiert. Erst im November 1976 fand man eine Kompromisslösung: eine kurzfristige Bebauung wurde ausgeschlossen, sollte durch die Inselbreite und die Verschwenkung des Entlastungsgerinnes für die Zukunft aber möglich bleiben.[3]

      Die international besetzte Wettbewerbs-Jury gab unter anderem die Empfehlung ab, dass die Charakteristika der Stromlandschaft soweit wie möglich erhalten werden sollten. Die Donauinsel selbst sollte in überwiegendem Maße für Erholungszwecke genutzt werden. Ein ausgewogenes Verhältnis zwischen gestalteten Sport- und Erholungsflächen sei anzustreben.

      Im Juli 1977 richtete man die „Koordinationsstelle Donauraum Wien“ als Nachfolgeorganisation des Wettbewerbs ein.

      Im Rahmen dieses unkonventionellen Planungsmodells, dem so genannten Wiener Modell, wurden konkrete Empfehlungen zur Stadtentwicklung im weiteren Donaubereich erarbeitet und 1977 ein „Leitprojekt Donaubereich Wien“ erstellt. Darin wurden Funktion und Zonierung von Donauinsel und Neuer Donau festgelegt.

      Ab Mitte der 1970er-Jahre waren zwei Landschaftsarchitekturbüros in die Planung eingebunden und für die Gestaltung der Donauinsel verantwortlich: Gottfried und Anton Hansjakob (München) sowie Marija und Wilfried Kirchner (Wien). Sie standen unter einem enormen Zeitdruck, da die Bauarbeiten bereits seit fünf Jahren im Laufen waren. Das bisherige Fehlen eines Gestaltungskonzeptes hatte zu offenkundigen Mängeln geführt. Massive Kritik war die Folge: von „der Fadennudel“, „Spaghettiinsel“ und „Pissrinne“ war in den Medien die Rede. Die landschaftsgestalterischen Planungen mussten nun die vorauseilenden Bauarbeiten einholen.
      Landschaftsarchitektonische Gestaltung der Donauinsel

      Die Insel selbst gliedert sich nach den Vorgaben des „Leitprojekts Donaubereich Wien“ in drei Teile. Diese Dreigliederung bewirkte auch eine differenzierte landschaftsarchitektonische Gestaltung des Inselkörpers: Sowohl Norden als auch Süden wurden als „naturnahe Bereiche“ gestaltet. Die Oberfläche der Insel bekam eine Modellierung, die unterschiedliche Standortbedingungen für die Pflanzenwelt und differenzierte Lebensräume für die Tierwelt schuf. Altbaumbestände blieben bestehen, indem man die Dammschüttung entsprechend aussparte beziehungsweise verlagerte. Auch Altarmbereiche wie Zinkerbachl und Toter Grund wurden samt der umgebenden Vegetation erhalten und in die Modellierung integriert.

      Für den Mittelteil – auf der zentralen Entwicklungsachse zwischen der Inneren Stadt und dem Vienna International Centre gelegen – entschied man sich für eine intensivere Gestaltung und Nutzung als multifunktionaler urbaner Park. Dichte Gehölzpflanzungen wechseln mit offenen Wiesen ab, wodurch auf dem langen Inselkörper eine Abfolge verschiedener Teilräume entstand. In diese Grundstruktur wurde Infrastruktur wie Sportflächen, Spielplätze, Gastronomie, und WC-Anlagen eingebettet. Zusätzlich wurde eine abwechslungsreiche Uferlinie mit Promenaden, Badebuchten und Schwimmpontons geschaffen.

      Entwicklungsachsen, öffentlicher und privater Verkehr

      Der Bau der Donauinsel entwickelte sich von einem ursprünglich als Hochwasserschutz geplanten zu einem gesamtstädtischen Projekt. Die Verbindung der beiden Donauufer und ihrer Stadtteile sowie die Nutzung der Insel selbst ("Es ist Ziel der Stadt Wien, den Donaubereich zu aktivieren.")[4] wurden zu leitenden Gesichtspunkten.[5]

      Zwei Entwicklungsachsen waren vordergründig, im Norden von der Brigittenau über Floridsdorf in Richtung Stammersdorf (Vorort) und im Zentrum von der Leopoldstadt über Kaisermühlen in die Donaustadt beziehungsweise nach Kagran. Die im Zuge des Baus der U-Bahn entstehende Trasse der U1 war von Anfang an miteingeplant. Zudem wurde eine eigene Entwicklungsachse von der Donaustadt nach Stadlau (Vorort) vorgesehen, mit potentieller Verlängerung nach Aspern und Groß-Enzersdorf. Der spätere Ausbau der Nordstrecke der U2 übernahm diese Aufgabe und ist heute die dritte Achse über die Donauinsel, vom Prater über den Handelskai nach Stadlau und Donaustadt bis nach Aspern. Heute hat die Donauinsel direkten Anschluss an die U1 (Station direkt auf der Donauinsel), U2 (Stationen Donaumarina und Donaustadtbrücke) sowie an die U6 (Stationen Handelskai und Neue Donau).

      Die Donauuferautobahn A22 und die Bahnhöfe im Einzugsgebiet (Franz-Josefs-Bahnhof, Bahnhof Wien-Praterstern) wurden im Planungskonzept als „trennende Elemente“ der beiden Donauufer definiert, waren aber aufgrund ihrer Funktion aus dem Planungskonzept nicht wegzudenken. Geplante Alternativrouten der A22 wurden abgelehnt, die bisherige Route am linken Donauufer als „geringstes Übel“ in die Planung eingebunden. Die Überplattung der A22 im Bereich zwischen heutiger Donau-City und Kaisermühlen sowie Übergänge und Grünbrücken sollten für die Milderung der Belastung sorgen. Fuß- und Radwege erhielten dadurch ebenfalls Priorität und sollten die Erreichbarkeit aller Erholungsräume im Donaubereich sicherstellen.

      Im Falle einer verstärkten Siedlungsentwicklung der Bezirke 21-23 sollte auf weitere mitgeplante U-Bahn-Trassen zurückgegriffen werden. Neben dem realisierten Ausbau der U1 nach Kagran und der U6 nach Floridsdorf sah man auch den Bau einer U7 vor, die Floridsdorf und Donaustadt von Nordwest nach Südost verbinden sollte. In der Donaustadt wiederum plante man damals die Linie U3 in jener Trasse, in der die U2 später bis Aspern verlängert wurde.

      https://www.geschichtewiki.wien.gv.at/Donauinsel

  • Une mesure inédite en #montagne, #Chamonix va restreindre les #Airbnb

    Le nombre d’Airbnb et autres #locations_saisonnières sera bientôt limité à Chamonix. Une mesure attendue par les locaux, qui font face à un afflux de touristes.

    Les boîtes à clés se multiplient devant les immeubles et les chalets du centre de #Chamonix-Mont-Blanc. Face au plus haut sommet d’Europe, ces objets symbolisent la forte augmentation des locations saisonnières de type Airbnb ces dernières années dans la vallée. « Le nombre de meublés de tourisme mis sur le marché est passé de 2 700 à 4 000 en quatre ans », dit Éric Fournier, maire de Chamonix et président de la communauté de communes de la vallée. Face à cette situation, les élus du conseil communautaire ont tenté de mettre un coup d’arrêt à cette dynamique. Le 25 juillet, une #délibération a été adoptée pour limiter le nombre de locations de courte durée dans les quatre communes de la vallée. Une première pour un territoire de montagne en France.

    Dès le 1er mai 2025, un seul bien en location saisonnière par personne physique sera autorisé à Chamonix et aux #Houches et deux biens à #Servoz. À #Vallorcine, de l’autre côté du col des Montets, il n’y aura pas de limitation du nombre de biens louables, mais les autorisations d’en faire une location saisonnière seront limitées à un an, avant d’être renouvelées.

    « Cette mesure s’inscrit dans un travail global pour maintenir l’habitat permanent dans la vallée. Une partie de notre #parc_immobilier s’érode vers les plateformes de #location_de_courte_durée, cela pose de plus en plus de problèmes pour les habitants locaux. Les offres de location à l’année sont rares et les #prix explosent », assure le maire sans étiquette.

    Les quatre communes de la vallée sont classées « #zones_tendues » depuis août 2023, et le prix de l’immobilier à Chamonix dépasse désormais les 10 000 euros le m2. Avec cette mesure, Éric Fournier souhaite retrouver « un #équilibre_social au niveau local. La vallée n’est pas un parc d’attractions et nous devons apporter des réponses à la #tension_immobilière et à la #fréquentation_touristique qui évolue très vite sur le territoire ».

    Concrètement, les propriétaires devront enregistrer leurs biens avant de les publier sur les plateformes comme Airbnb. « Nous avons passé des accords avec ces sites, et si certains ne respectent pas cet enregistrement, leurs biens seront supprimés des plateformes », assure le maire. Ce système des #immatriculations est déjà en vigueur dans d’autres villes comme Paris et permet notamment à celles-ci de connaître précisément le nombre de biens en location saisonnière et le profil des propriétaires.

    De son côté, Airbnb assure à Reporterre « [collaborer] depuis plusieurs mois avec la mairie de Chamonix sur le sujet ». « Nous continuerons à travailler avec ces villes afin de les accompagner au mieux dans la mise en place et le respect de ces règles proportionnées. »

    Bientôt tous concernés ?

    Cette #restriction s’adresse pour l’instant uniquement aux propriétaires physiques, mais ne concerne pas les entités morales comme les conciergeries ou les agences qui cumulent parfois plusieurs biens en location de courte durée. « C’est une première étape », déclare Éric Fournier, qui avait également fait voter en 2023 une #surtaxe des #résidences_secondaires qui représentent près de 70 % de l’habitat dans la commune. « Cette mesure finira par concerner tout le monde. Nous travaillons encore sur les questions juridiques pour être sûrs que ces mesures ne pourront pas être annulées. »

    Dans le département, une mesure similaire votée à #Annecy avait été suspendue en juillet 2023 par le tribunal judiciaire de Grenoble car jugée « trop restrictive ». Xavier Roseren, député de la 6e circonscription de Haute-Savoie pour le parti présidentiel Ensemble et natif des Houches, se réjouit également de cette mesure et entend poursuivre les efforts législatifs à l’Assemblée. Une proposition de loi transpartisane « visant à renforcer les outils de #régulation des #meublés de tourisme à l’échelle locale » devait être examinée en commission mixte paritaire, mais la dissolution du 9 juin a bouleversé le calendrier parlementaire.

    « Je suis très heureux que la vallée de Chamonix ait pris l’initiative de porter cette mesure sans attendre la promulgation de cette loi, déclare le député, très impliqué sur ces questions. Le texte devait également acter la création de zones réservées à l’#habitat_permanent, comme en Suisse, avec des quotas de résidences secondaires. » Le député souhaite également que la loi sur les passoires énergétiques s’applique aux locations de courte durée : « Il n’est pas normal que l’on puisse louer un bien non isolé sur Airbnb alors qu’on ne peut pas le louer en longue durée. On doit continuer à travailler sur la transition écologique et touristique dans nos vallées. »

    https://reporterre.net/Saturee-de-touristes-Chamonix-va-restreindre-les-Airbnb
    #régulation #tourisme

  • How dirty is your weed ? Joint investigation finds toxic pesticides - Los Angeles Times
    https://www.latimes.com/california/newsletter/2024-06-17/cannabis-investigation-la-times-weedweek-toxic-pot-essential-california

    Une nouvelle industrie agro-alimentaire... donc un concentré de dangers (pesticides) et de l’absence réelle de régulation (test) et de
    contraintes suites à des études... idem sur le rôle des lobbies de cette nouvelle industrie pour circonvenir les régulateurs.

    Good morning. It’s Monday, June 17. Here’s what you need to know to start your day.

    Weed is legal and (technically) regulated in California. That doesn’t mean it’s safe.
    A wildfire near Gorman has burned around 15,000 acres and sparked evacuations.
    A new play reckons with a racist chapter of Palm Spring’s history.
    And here’s today’s e-newspaper.

    How dirty is your weed?

    Weed is legal and subject to regulation in the Golden State. But as a joint investigation (it was right there) by The Times and cannabis industry newsletter WeedWeek found, that doesn’t mean it’s safe, as California regulators are often failing to get contaminated cannabis products off shelves.

    The Times and WeedWeek purchased dozens of cannabis products from retail stores, then tested them at private labs. Out of 42 products tested, 25 had concentrations of pesticides above either state-allowed levels or current federal standards for tobacco.

    “The contaminants include chemicals tied to cancer, liver failure, thyroid disease and genetic and neurologic harm to users and unborn children,” Times reporter Paige St. John and WeedWeek editor Alex Halperin wrote in a subscriber exclusive. “Most of the pesticides found were in low concentrations that risk long-term harm by repeated use, though the extent of the health threat may not be known for years.”

    However, the testing did show that vapes from five popular brands had levels of pesticides above federal risk thresholds for harm from a single exposure as set by the Environmental Protection Agency.

    There are 66 pesticides California requires testing for, but it’s an outdated list, unchanged in roughly six years. There are many more not included on the state’s list that have been linked to liver cancer, reproductive disorders and more.
    Cannabis vape cartridge boxes
    Cannabis vape cartridge companies CUREpen, Flavored, Panda Pen, Phire and Dime Industries were tested for harmful chemicals on Jan. 30, 2024, in El Segundo.
    (Jason Armond / Los Angeles Times)

    One piece of the problem: Major gaps in regulation “leave policing of the industry largely in the hands of labs financially beholden to the companies whose products they test,” Paige and Alex wrote. “Legislation to require independent fraud and accuracy checks has remained stalled in Sacramento for two years amid backroom negotiations between industry players and regulators.”

    Where are state regulators in all this? Mostly silent.

    California’s Department of Cannabis Control has yet to propose new regulations, despite years of requests to test for more pesticides.

    The department’s director, Nicole Elliott, “declined to be interviewed on the extent of the pesticide threat,” Paige and Alex noted. Some members of her team did talk, though.

    “Employees, who spoke on condition of anonymity, complained of a lack of willingness within the agency to take a hard line on pesticide contamination,” Paige and Alex wrote. “One said she was schooled on the importance of ‘not disrupting the market.’”

    And that market is huge, as is the potential profit. With billions of consumer dollars out there, it’s not surprising corners were cut — or, more accurately, deadly poison sprayed, to grow more weed more quickly.

    Compounding the problem is the lack of data on cannabis’ health effects. That’s due in large part to the federal government’s current classification of marijuana as among dangerous drugs including heroin and LSD, which limits its medical research. That could change soon, though, as the U.S Department of Justice recently proposed reclassifying marijuana.

    The state of the industry is also hurting small growers. Paige and Alex spoke with Mary Gaterud, who has grown marijuana on her Humboldt County farm for decades.

    “The people who are doing it right get crushed,” she told them. “The bad actors are encouraged and rewarded. And the consumers are poisoned while being told they are safe.”

    You can read the in-depth reporting from Paige St. John and Alex Halperin in our subscriber exclusive here. And there’s more from this investigation below:

    Here’s how we tested weed products for pesticides.
    A look at how contaminated weed can affect the human body.
    This graphic shows how good weed goes bad.

    #Cannabis #Agro-alimentaire #Régulation #Pesticides

  • Le règlement IA adopté, la fuite en avant techno-solutionniste peut se poursuivre – La Quadrature du Net
    https://www.laquadrature.net/2024/05/22/le-reglement-ia-adopte-la-fuite-en-avant-techno-solutionniste-peut-se-

    Réunis au sein du Conseil de l’Union européenne, les États-membres ont adopté hier le règlement IA, dédié à la régulation des systèmes d’Intelligence Artificielle. Cette étape marque l’adoption définitive de cet édifice législatif en discussion depuis 2021, et présenté au départ comme un instrument de protection des droits et libertés face au rouleau compresseur de l’IA. À l’arrivée, loin des promesses initiales et des commentaires emphatiques, ce texte est taillé sur mesure pour l’industrie de la tech, les polices européennes et autres grandes bureaucraties désireuses d’automatiser le contrôle social. Largement fondé sur l’auto-régulation, bardé de dérogations, il s’avère totalement incapable de faire obstacle aux dégâts sociaux, politiques et environnementaux liés à la prolifération de l’IA.

    À l’arrivée, loin de protéger les valeurs de démocratie, d’État de droit et de respect pour l’environnement que l’Union européenne prétend encore incarner comme un phare dans la nuit, le règlement IA reste le produit d’une realpolitik désastreuse. Face à l’étau formé par la Chine et les États-Unis, il doit en effet permettre de relancer l’Europe dans la course aux dernières technologies informatiques, perçues comme de véritables étalons de puissance. Non seulement cette course paraît perdue d’avance mais, ce faisant, l’Union européenne participe à légitimer une fuite en avant techno-solutionniste dangereuse pour les libertés et insoutenable au plan écologique.

    La généralisation de l’IA, en tant que paradigme technique et politique, a pour principal effet de démultiplier les dégâts engendrés par la sur-informatisation de nos sociétés. Puisqu’il est désormais clair que ce règlement ne sera d’aucune utilité pour enrayer l’emballement actuel, c’est d’autres moyens de lutte qu’il va nous falloir collectivement envisager.

    #Intelligence_artificielle #AIAct #Europe #Régulation

  • Ces géants qui dominent le commerce agricole mondial

    En quelques décennies, une toute petite poignée d’acteurs a pris le contrôle du commerce mondial agricole, des #terres à la #finance. C’est le constat dressé par la Conférence des Nations unies sur le commerce et le développement. Peut-on laisser à quelques groupes le destin de la sécurité alimentaire mondiale ?

    C’est un #oligopole dont on ne sait presque rien, parfois même pas son nom. Une poignée d’acteurs inconnus du grand public dominent le #commerce_mondial agroalimentaire. Mais ils font tout pour se faire oublier et cacher les empires qu’ils ont construits au fil des ans, ainsi que l’emprise qu’ils ont conquise sur le monde.

    La Conférence des Nations unies sur le commerce et le développement (Cnuced) a dénombré quatorze grands groupes régnant sur ce secteur. À eux seuls, les quatre premiers – #Cargill, #Archer_Daniels_Midland, #Bunge, #Louis_Dreyfus – contrôlent quelque 70 % du marché agricole mondial, selon ses estimations.

    L’envolée des #prix alimentaires partout dans le monde, nourrissant une #inflation planétaire mais aussi des pénuries et des risques aggravés de #crise_alimentaire dans les pays les plus pauvres, a amené l’institution internationale à se pencher longuement dans son dernier rapport annuel sur le rôle exercé par ces géants de l’#agrobusiness dans cette période. Il paraît écrasant.

    Si les superprofits des pétroliers ont été au cœur de toutes les discussions, ceux des géants de l’agrobusiness sont passés inaperçus. Pourtant, ils ont été les autres grands gagnants de la succession de crises (sortie de la pandémie, guerre en Ukraine, tensions géopolitiques) qui se sont enchaînées à un rythme effréné au cours des quatre dernières années.

    Celles-ci se sont traduites par une volatilité inédite du cours de toutes les matières premières agricoles (#blé, #soja, #maïs, #tournesol, #riz, #sucre, #café, #cacao) dont ces grands groupes ont su tirer parti au mieux de leurs intérêts. En 2022, Cargill, Archer Daniels Midland, Bunge et Louis Dreyfus ont réalisé un bénéfice cumulé de plus de 17 milliards de dollars, soit près du triple de leurs résultats de 2020. « Les #bénéfices totaux des neuf grandes sociétés d’#engrais au cours des cinq dernières années sont passés d’une moyenne d’environ 14 milliards de dollars avant la pandémie, à 28 milliards de dollars en 2021, puis au chiffre incroyable de 49 milliards de dollars en 2022 », ajoute le rapport de la #Cnuced.

    Les tensions sur les matières premières agricoles se sont un peu dissipées en 2023. Mais l’été dernier, comme le rappelle la Cnuced, « le prix du blé restait deux fois supérieur au cours d’avant la pandémie ». Cela est vrai pour pratiquement tous les prix agricoles, sans parler des cas spécifiques comme le cacao ou le café, qui atteignent actuellement des cours stratosphériques. Penser que des prix agricoles élevés profitent aux producteurs, « c’est ignorer le rôle majeur joué par ces groupes internationaux d’agrobusiness qui contrôlent nombre de liens dans la chaîne de valeur mondiale et dans la dynamique de la formation des prix du système mondial alimentaire », insiste l’institution des Nations unies.

    De ces groupes, on ne sait pratiquement rien. Sur les quatorze groupes repérés comme les plus importants par la Cnuced, « huit seulement sont cotés en bourse et publient leurs comptes », souligne le rapport. Tous les autres prospèrent à l’abri des regards. Jouant des frontières et des gouvernements, tous cultivent l’opacité, utilisent les failles et les porosités du système pour évoluer dans une totale impunité.

    Souvent partis du négoce, ils n’ont cessé d’étendre leur emprise, prenant le contrôle d’usines de transformation, de capacités de stockage, de compagnies de transport. Puis ils ont mis la main sur les semences et les engrais, avant de devenir de gigantesques propriétaires fonciers. Ils contrôlent désormais des centaines de milliers d’hectares en Ukraine, au Brésil, en Argentine, en Australie, au Canada. En un mot, dans tous les grands pays agricoles où ils peuvent pratiquer des cultures intensives à échelle industrielle, en pratiquant des déforestations massives, s’il le faut.

    Ils sont en position de dicter leurs conditions aux producteurs locaux et aux gouvernements, d’influencer les modes d’alimentation de toute la planète. Demain, ils n’hésiteront pas à mettre en danger les approvisionnements mondiaux, beaucoup étant prêts à troquer la production alimentaire pour celle d’agrocarburants, estimée beaucoup plus rémunératrice.

    Au cours de décennies de fusions et d’acquisitions, « de tels groupes ont pu étendre leur influence de haut en bas de la chaîne d’approvisionnement, tout en amassant d’énormes quantités de données de marché. Si une poignée de sociétés continue de détenir un pouvoir démesuré sur les systèmes alimentaires mondiaux, toute politique visant à atténuer les effets à court terme de la flambée des prix alimentaires sera vaine à long terme », prévient la Cnuced.
    Dans les pas de la finance de l’ombre

    Car un autre changement majeur est intervenu au cours des quinze dernières années, qui n’a pas été suffisamment analysé, selon le rapport : ces géants de l’agrobusiness ont non seulement changé de dimension, mais aussi de nature. Ils sont devenus des acteurs financiers à part entière – le manque de régulation sur les marchés des matières premières leur permettant d’exercer un pouvoir déterminant sur les cours et dans la formation des prix.

    Parce que les marchés agricoles sont par nature chaotiques, que les lois de l’offre et de la demande ne s’appliquent pas conformément aux théories classiques, ils ont toujours été très liés à la finance et à la spéculation. Ce sont ces marchés qui, les premiers, ont élaboré et mis en œuvre les produits dérivés financiers, négociés de gré à gré (over the counter – OTC) afin de couvrir les risques de fluctuation des prix à court, moyen et long terme.

    Mais à partir des années 1980, de nouveaux acteurs sont entrés dans le jeu : des banques et surtout nombre d’acteurs de la finance de l’ombre (hedge funds, fonds d’investissement, gestionnaires d’actifs, etc.) sont entrés sur ces marchés. Profitant de la déréglementation des marchés agricoles, ils ont investi les lieux, développé des produits dérivés financiers de plus en plus sophistiqués, ne s’appuyant plus du tout sur des contreparties physiques, et alimentant la spéculation.

    Depuis la crise de 2008, la situation a encore évolué. Les grandes sociétés de négoce ont mis leur pas dans ceux de la finance de l’ombre, allant bien au-delà de la couverture de leurs risques. Ayant à leur disposition des informations de marché que les autres n’avaient pas, elles se sont vite imposées comme des acteurs incontournables.

    « Dans ce contexte, les très grands groupes internationaux de négoce en sont arrivés à occuper une position privilégiée, en termes de fixation des prix, accédant aux financements et participant directement aux marchés financiers, affirme encore le rapport de la Cnuced. Cela a permis non seulement des opérations spéculatives sur les plateformes organisées, mais aussi un volume grandissant de transactions entre individus ou de gré à gré sur lesquelles la plupart des gouvernements des pays avancés n’ont aucune autorité ou contrôle. »
    Démultiplications spéculatives

    Les dernières années de tensions et de risques de pénuries sur les marchés agricoles ont décuplé les appétits, poussés par l’appât du gain. Selon les chiffres publiés par la Banque des règlements internationaux, le montant total des dérivés négociés de gré à gré sur les produits agricoles, l’énergie et les métaux, a atteint un pic de 886 milliards de dollars à la mi-2022, contre une moyenne de 200 milliards de dollars avant 2020. La valeur notionnelle de ces contrats représentait alors plus de 2 000 milliards de dollars.

    L’ampleur de ces sommes illustre la puissance déstabilisatrice de la finance sur ces marchés essentiels. Tous ont empoché des milliards de superprofits au détriment des populations mondiales. Une étude récente de la Société générale indique que le groupe des dix principaux fonds « dynamiques » avait réalisé un profit de 1,9 milliard de dollars sur des contrats de blé, de maïs et de soja, au début de la guerre en Ukraine, quand les cours des produits agricoles s’envolaient, après avoir perdu de l’argent sur les mêmes contrats dans les périodes précédentes.

    Dans quelle mesure les grands groupes qui contrôlent les échanges mondiaux agricoles ont-ils utilisé leur énorme pouvoir de marché pour pousser la spéculation et augmenter leurs profits ? La Cnuced est incapable de le dire. L’opacité qui règne sur ces marchés, le manque de données fiables et l’absence de régulation et de contrôle empêchent d’avoir une vision précise sur ce qu’il se passe.

    Pour la Cnuced, cependant, le fait qu’une poignée de grands groupes ait acquis une telle taille et une telle importance sur les marchés agricoles, possédant à la fois les données essentielles et des moyens financiers immenses, des instruments financiers négociés dans l’ombre, hors du regard de tout régulateur, laisse la porte ouverte à toutes les manipulations et à toutes les manœuvres.

    La faillite de la régulation

    « Les failles dans les systèmes de régulation n’ont cessé de s’élargir », note le rapport, et d’être mises à profit par les grands groupes de négoce et les traders de matières premières. Toutes les tentatives pour apporter de la lumière sur ces marchés et renforcer la réglementation ont jusqu’à présent échoué. Les réglementations restent parcellaires, multiples, changeant souvent d’une frontière à l’autre.

    Lors de la crise financière de 2008, les législateurs se sont bien gardés de toucher aux marchés de matières premières et à la finance de l’ombre, estimant qu’ils ne représentaient que des risques subalternes. De même, rien n’a été fait pour rapprocher les activités sur les marchés de matières premières et celles sur les marchés financiers, les régulateurs estimant qu’il s’agissait de deux mondes séparés.

    Les activités des grands groupes de négoce démontrent désormais que ces deux sphères sont devenues intrinsèquement liées, les opérations financières venant en soutien – en vue souvent de maximiser les profits – des échanges agricoles. « Le profit n’est pas limité à un secteur spécifique mais est spécifique à des firmes particulières. Il est possible que des profits excessifs puissent être liés à une concentration, qui ne bénéficie seulement qu’à quelques acteurs mondiaux du secteur », écrit par euphémisme le rapport.

    La Cnuced estime qu’il est plus que temps de prendre acte de la défaillance des régulations actuelles, compte tenu des risques sous-jacents, menaçant aussi bien la sécurité alimentaire mondiale que la stabilité de la planète financière. Elle propose de multiples axes de réformes. Les uns portant sur la transparence et la limitation et le contrôle des instruments financiers, sur l’instauration d’une régulation mondial, les autres sur l’application renforcée des lois antitrusts : le commerce mondial alimentaire ne pouvant être laissé aux mains d’un oligopole qui agit dans son seul intérêt.

    https://www.mediapart.fr/journal/international/090424/ces-geants-qui-dominent-le-commerce-agricole-mondial
    #agriculture #industrie_agro-alimentaire #business #financiarisation #régulation

  • Intelligence artificielle : la grande illusion de la régulation

    « Le tournant intellectuel et créatif de l’IA s’attaque à nos capacités les plus fondamentales. Les corps de métiers doivent se mobiliser pour définir ce qu’ils sont prêts à céder et à refuser à l’industrie numérique. Faute de quoi, on se réveillera dans un monde dans lequel nous serons étrangers »

    https://jpst.it/3C8e7

    #intelligence_articifielle #IA

  • #Université, service public ou secteur productif ?

    L’#annonce d’une “vraie #révolution de l’Enseignement Supérieur et la Recherche” traduit le passage, organisé par un bloc hégémonique, d’un service public reposant sur des #carrières, des #programmes et des diplômes à l’imposition autoritaire d’un #modèle_productif, au détriment de la #profession.

    L’annonce d’une « #vraie_révolution » de l’Enseignement Supérieur et la Recherche (ESR) par Emmanuel Macron le 7 décembre, a pour objet, annonce-t-il, d’« ouvrir l’acte 2 de l’#autonomie et d’aller vers la #vraie_autonomie avec des vrais contrats pluriannuels où on a une #gouvernance qui est réformée » sans recours à la loi, avec un agenda sur dix-huit mois et sans modifications de la trajectoire budgétaire. Le président sera accompagné par un #Conseil_présidentiel_de_la_science, composé de scientifiques ayant tous les gages de reconnaissance, mais sans avoir de lien aux instances professionnelles élues des personnels concernés. Ce Conseil pilotera la mise en œuvre de cette « révolution », à savoir transformer les universités, en s’appuyant sur celles composant un bloc d’#excellence, et réduire le #CNRS en une #agence_de_moyen. Les composantes de cette grande transformation déjà engagée sont connues. Elle se fera sans, voire contre, la profession qui était auparavant centrale. Notre objet ici n’est ni de la commenter, ni d’en reprendre l’historique (Voir Charle 2021).

    Nous en proposons un éclairage mésoéconomique que ne perçoit ni la perspective macroéconomique qui pense à partir des agrégats, des valeurs d’ensemble ni l’analyse microéconomique qui part de l’agent et de son action individuelle. Penser en termes de mésoéconomie permet de qualifier d’autres logiques, d’autres organisations, et notamment de voir comment les dynamiques d’ensemble affectent sans déterminisme ce qui s’organise à l’échelle méso, et comment les actions d’acteurs structurent, elles aussi, les dynamiques méso.

    La transformation de la régulation administrée du #système_éducatif, dont nombre de règles perdurent, et l’émergence d’une #régulation_néolibérale de l’ESR, qui érode ces règles, procède par trois canaux : transformation du #travail et des modalités de construction des #carrières ; mise en #concurrence des établissements ; projection dans l’avenir du bloc hégémonique (i.e. les nouveaux managers). L’action de ces trois canaux forment une configuration nouvelle pour l’ESR qui devient un secteur de production, remodelant le système éducatif hier porté par l’État social. Il s’agissait de reproduire la population qualifiée sous l’égide de l’État. Aujourd’hui, nous sommes dans une nouvelle phase du #capitalisme, et cette reproduction est arrimée à l’accumulation du capital dans la perspective de #rentabilisation des #connaissances et de contrôle des professionnels qui l’assurent.

    Le couplage de l’évolution du système d’ESR avec la dynamique de l’#accumulation, constitue une nouvelle articulation avec le régime macro. Cela engendre toutefois des #contradictions majeures qui forment les conditions d’une #dégradation rapide de l’ESR.

    Co-construction historique du système éducatif français par les enseignants et l’État

    Depuis la Révolution française, le système éducatif français s’est déployé sur la base d’une régulation administrée, endogène, co-construite par le corps enseignant et l’État ; la profession en assumant de fait la charge déléguée par l’État (Musselin, 2022). Historiquement, elle a permis la croissance des niveaux d’éducation successifs par de la dépense publique (Michel, 2002). L’allongement historique de la scolarité (fig.1) a permis de façonner la force de travail, facteur décisif des gains de productivité au cœur de la croissance industrielle passée. L’éducation, et progressivement l’ESR, jouent un rôle structurant dans la reproduction de la force de travail et plus largement de la reproduction de la société - stratifications sociales incluses.

    À la fin des années 1960, l’expansion du secondaire se poursuit dans un contexte où la détention de diplômes devient un avantage pour s’insérer dans l’emploi. D’abord pour la bourgeoisie. La massification du supérieur intervient après les années 1980. C’est un phénomène décisif, visible dès les années 1970. Rapidement cela va télescoper une période d’austérité budgétaire. Au cours des années 2000, le pilotage de l’université, basé jusque-là sur l’ensemble du système éducatif et piloté par la profession (pour une version détaillée), s’est effacé au profit d’un pilotage pour et par la recherche, en lien étroit avec le régime d’accumulation financiarisé dans les pays de l’OCDE. Dans ce cadre, l’activité économique est orientée par l’extraction de la valeur financière, c’est à dire principalement par les marchés de capitaux et non par l’activité productive (Voir notamment Clévenot 2008).
    L’ESR : formation d’un secteur productif orienté par la recherche

    La #massification du supérieur rencontre rapidement plusieurs obstacles. Les effectifs étudiants progressent plus vite que ceux des encadrants (Piketty met à jour un graphique révélateur), ce qui entrave la qualité de la formation. La baisse du #taux_d’encadrement déclenche une phase de diminution de la dépense moyenne, car dans l’ESR le travail est un quasi-coût fixe ; avant que ce ne soit pour cette raison les statuts et donc la rémunération du travail qui soient visés. Ceci alors que pourtant il y a une corrélation étroite entre taux d’encadrement et #qualité_de_l’emploi. L’INSEE montre ainsi que le diplôme est un facteur d’amélioration de la productivité, alors que la productivité plonge en France (voir Aussilloux et al. (2020) et Guadalupe et al. 2022).

    Par ailleurs, la massification entraine une demande de différenciation de la part les classes dominantes qui perçoivent le #diplôme comme un des instruments de la reproduction stratifiée de la population. C’est ainsi qu’elles se détournent largement des filières et des établissements massifiés, qui n’assurent plus la fonction de « distinction » (voir le cas exemplaire des effectifs des #écoles_de_commerce et #grandes_écoles).

    Dans le même temps la dynamique de l’accumulation suppose une population formée par l’ESR (i.e. un niveau de diplomation croissant). Cela se traduit par l’insistance des entreprises à définir elles-mêmes les formations supérieures (i.e. à demander des salariés immédiatement aptes à une activité productive, spécialisés). En effet la connaissance, incorporée par les travailleurs, est devenue un actif stratégique majeur pour les entreprises.

    C’est là qu’apparaît une rupture dans l’ESR. Cette rupture est celle de la remise en cause d’un #service_public dont l’organisation est administrée, et dont le pouvoir sur les carrières des personnels, sur la définition des programmes et des diplômes, sur la direction des établissements etc. s’estompe, au profit d’une organisation qui revêt des formes d’un #secteur_productif.

    Depuis la #LRU (2007) puis la #LPR (2020) et la vague qui s’annonce, on peut identifier plusieurs lignes de #transformation, la #mise_en_concurrence conduisant à une adaptation des personnels et des établissements. Au premier titre se trouvent les instruments de #pilotage par la #performance et l’#évaluation. À cela s’ajoute la concurrence entre établissements pour l’#accès_aux_financements (type #Idex, #PIA etc.), aux meilleures candidatures étudiantes, aux #labels et la concurrence entre les personnels, pour l’accès aux #dotations (cf. agences de programmes, type #ANR, #ERC) et l’accès aux des postes de titulaires. Enfin le pouvoir accru des hiérarchies, s’exerce aux dépens de la #collégialité.

    La généralisation de l’évaluation et de la #sélection permanente s’opère au moyen d’#indicateurs permettant de classer. Gingras évoque une #Fièvre_de_l’évaluation, qui devient une référence définissant des #standards_de_qualité, utilisés pour distribuer des ressources réduites. Il y a là un instrument de #discipline agissant sur les #conduites_individuelles (voir Clémentine Gozlan). L’important mouvement de #fusion des universités est ainsi lié à la recherche d’un registre de performance déconnecté de l’activité courante de formation (être université de rang mondial ou d’université de recherche), cela condensé sous la menace du #classement_de_Shanghai, pourtant créé dans un tout autre but.

    La remise en question du caractère national des diplômes, revenant sur les compromis forgés dans le temps long entre les professions et l’État (Kouamé et al. 2023), quant à elle, assoit la mise en concurrence des établissements qui dépossède en retour la profession au profit des directions d’établissement.

    La dynamique de #mise_en_concurrence par les instruments transforme les carrières et la relation d’#emploi, qui reposaient sur une norme commune, administrée par des instances élues, non sans conflit. Cela fonctionne par des instruments, au sens de Lascoumes et Legalès, mais aussi parce que les acteurs les utilisent. Le discours du 7 décembre est éloquent à propos de la transformation des #statuts pour assurer le #pilotage_stratégique non par la profession mais par des directions d’établissements :

    "Et moi, je souhaite que les universités qui y sont prêtes et qui le veulent fassent des propositions les plus audacieuses et permettent de gérer la #ressource_humaine (…) la ministre m’a interdit de prononcer le mot statut. (…) Donc je n’ai pas dit qu’on allait réformer les statuts (…) moi, je vous invite très sincèrement, vous êtes beaucoup plus intelligents que moi, tous dans cette salle, à les changer vous-mêmes."

    La démarche est caractéristique du #new_management_public : une norme centrale formulée sur le registre non discutable d’une prétérition qui renvoie aux personnes concernées, celles-là même qui la refuse, l’injonction de s’amputer (Bechtold-Rognon & Lamarche, 2011).

    Une des clés est le transfert de gestion des personnels aux établissements alors autonomes : les carrières, mais aussi la #gouvernance, échappent progressivement aux instances professionnelles élues. Il y a un processus de mise aux normes du travail de recherche, chercheurs/chercheuses constituant une main d’œuvre qui est atypique en termes de formation, de types de production fortement marqués par l’incertitude, de difficulté à en évaluer la productivité en particulier à court terme. Ce processus est un marqueur de la transformation qui opère, à savoir, un processus de transformation en un secteur. La #pénurie de moyen public est un puissant levier pour que les directions d’établissement acceptent les #règles_dérogatoires (cf. nouveaux contrats de non titulaires ainsi que les rapports qui ont proposé de spécialiser voire de moduler des services).

    On a pu observer depuis la LRU et de façon active depuis la LPR, à la #destruction régulière du #compromis_social noué entre l’État social et le monde enseignant. La perte spectaculaire de #pouvoir_d’achat des universitaires, qui remonte plus loin historiquement, en est l’un des signaux de fond. Il sera progressivement articulé avec l’éclatement de la relation d’emploi (diminution de la part de l’emploi sous statut, #dévalorisation_du_travail etc.).

    Arrimer l’ESR au #régime_d’accumulation, une visée utilitariste

    L’État est un acteur essentiel dans l’émergence de la production de connaissance, hier comme commun, désormais comme résultat, ou produit, d’un secteur productif. En dérégulant l’ESR, le principal appareil de cette production, l’État délaisse la priorité accordée à la montée de la qualification de la population active, au profit d’un #pilotage_par_la_recherche. Ce faisant, il radicalise des dualités anciennes entre système éducatif pour l’élite et pour la masse, entre recherche utile à l’industrie et recherche vue comme activité intellectuelle (cf. la place des SHS), etc.

    La croissance des effectifs étudiants sur une période assez longue, s’est faite à moyens constants avec des effectifs titulaires qui ne permettent pas de maintenir la qualité du travail de formation (cf. figure 2). L’existence de gisements de productivité supposés, à savoir d’une partie de temps de travail des enseignants-chercheurs inutilisé, a conduit à une pénurie de poste et à une recomposition de l’emploi : alourdissement des tâches des personnels statutaires pour un #temps_de_travail identique et développement de l’#emploi_hors_statut. Carpentier & Picard ont récemment montré, qu’en France comme ailleurs, le recours au #précariat s’est généralisé, participant par ce fait même à l’effritement du #corps_professionnel qui n’a plus été à même d’assurer ni sa reproduction ni ses missions de formation.

    C’est le résultat de l’évolution longue. L’#enseignement est la part délaissée, et les étudiants et étudiantes ne sont plus au cœur des #politiques_universitaires : ni par la #dotation accordée par étudiant, ni pour ce qui structure la carrière des universitaires (rythmée par des enjeux de recherche), et encore moins pour les dotations complémentaires (associées à une excellence en recherche). Ce mouvement se met toutefois en œuvre en dehors de la formation des élites qui passent en France majoritairement par les grandes écoles (Charle et Soulié, 2015). Dès lors que les étudiants cessaient d’être le principe organisateur de l’ESR dans les universités, la #recherche pouvait s’y substituer. Cela intervient avec une nouvelle convention de qualité de la recherche. La mise en œuvre de ce principe concurrentiel, initialement limité au financement sur projets, a été élargie à la régulation des carrières.

    La connaissance, et de façon concrète le niveau de diplôme des salariés, est devenu une clé de la compétitivité, voire, pour les gouvernements, de la perspective de croissance. Alors que le travail de recherche tend à devenir une compétence générale du travail qualifié, son rôle croissant dans le régime d’accumulation pousse à la transformation du rapport social de travail de l’ESR.

    C’est à partir du système d’#innovation, en ce que la recherche permet de produire des actifs de production, que l’appariement entre recherche et profit participe d’une dynamique nouvelle du régime d’accumulation.

    Cette dynamique est pilotée par l’évolution jointe du #capitalisme_financiarisé (primauté du profit actionnarial sur le profit industriel) et du capitalisme intensif en connaissance. Les profits futurs des entreprises, incertains, sont liés d’une part aux investissements présents, dont le coût élevé repose sur la financiarisation tout en l’accélérant, et d’autre part au travail de recherche, dont le contrôle échappe au régime historique de croissance de la productivité. La diffusion des compétences du travail de recherche, avec la montée des qualifications des travailleurs, et l’accumulation de connaissances sur lequel il repose, deviennent primordiaux, faisant surgir la transformation du contenu du travail par l’élévation de sa qualité dans une division du travail qui vise pourtant à l’économiser. Cela engendre une forte tension sur la production des savoirs et les systèmes de transmission du savoir qui les traduisent en connaissances et compétences.

    Le travail de recherche devenant une compétence stratégique du travail dans tous les secteurs d’activité, les questions posées au secteur de recherche en termes de mesure de l’#efficacité deviennent des questions générales. L’enjeu en est l’adoption d’une norme d’évaluation que les marchés soient capables de faire circuler parmi les secteurs et les activités consommatrices de connaissances.

    Un régime face à ses contradictions

    Cette transformation de la recherche en un secteur, arrimé au régime d’accumulation, suppose un nouveau compromis institutionnalisé. Mais, menée par une politique néolibérale, elle se heurte à plusieurs contradictions majeures qui détruisent les conditions de sa stabilisation sans que les principes d’une régulation propre ne parviennent à émerger.

    Quand la normalisation du travail de recherche dévalorise l’activité et les personnels

    Durant la longue période de régulation administrée, le travail de recherche a associé le principe de #liberté_académique à l’emploi à statut. L’accomplissement de ce travail a été considéré comme incompatible avec une prise en charge par le marché, ce dernier n’étant pas estimé en capacité de former un signal prix sur les services attachés à ce type de travail. Ainsi, la production de connaissance est un travail entre pairs, rattachés à des collectifs productifs. Son caractère incertain, la possibilité de l’erreur sont inscrits dans le statut ainsi que la définition de la mission (produire des connaissances pour la société, même si son accaparement privé par la bourgeoisie est structurel). La qualité de l’emploi, notamment via les statuts, a été la clé de la #régulation_professionnelle. Avec la #mise_en_concurrence_généralisée (entre établissements, entre laboratoires, entre Universités et grandes écoles, entre les personnels), le compromis productif entre les individus et les collectifs de travail est rompu, car la concurrence fait émerger la figure du #chercheur_entrepreneur, concerné par la #rentabilisation des résultats de sa recherche, via la #valorisation sous forme de #propriété_intellectuelle, voire la création de #start-up devenu objectifs de nombre d’université et du CNRS.

    La réponse publique à la #dévalorisation_salariale évoquée plus haut, passe par une construction différenciée de la #rémunération, qui rompt le compromis incarné par les emplois à statut. Le gel des rémunérations s’accompagne d’une individualisation croissante des salaires, l’accès aux ressources étant largement subordonné à l’adhésion aux dispositifs de mise en concurrence. La grille des rémunérations statutaires perd ainsi progressivement tout pouvoir organisationnel du travail. Le rétrécissement de la possibilité de travailler hors financements sur projet est indissociable du recours à du #travail_précaire. La profession a été dépossédée de sa capacité à défendre son statut et l’évolution des rémunérations, elle est inopérante à faire face à son dépècement par le bloc minoritaire.

    La contradiction intervient avec les dispositifs de concurrence qui tirent les instruments de la régulation professionnelle vers une mise aux normes marchandes pour une partie de la communauté par une autre. Ce mouvement est rendu possible par le décrochage de la rémunération du travail : le niveau de rémunération d’entrée dans la carrière pour les maîtres de conférences est ainsi passé de 2,4 SMIC dans les années 1980 à 1,24 aujourd’hui.

    Là où le statut exprimait l’impossibilité d’attacher une valeur au travail de recherche hors reconnaissance collective, il tend à devenir un travail individualisable dont le prix sélectionne les usages et les contenus. Cette transformation du travail affecte durablement ce que produit l’université.

    Produire de l’innovation et non de la connaissance comme communs

    Durant la période administrée, c’est sous l’égide de la profession que la recherche était conduite. Définissant la valeur de la connaissance, l’action collective des personnels, ratifiée par l’action publique, pose le caractère non rival de l’activité. La possibilité pour un résultat de recherche d’être utilisé par d’autres sans coût de production supplémentaire était un gage d’efficacité. Les passerelles entre recherche et innovation étaient nombreuses, accordant des droits d’exploitation, notamment à l’industrie. Dans ce cadre, le lien recherche-profit ou recherche-utilité économique, sans être ignoré, ne primait pas. Ainsi, la communauté professionnelle et les conditions de sa mise au travail correspondait à la nature de ce qui était alors produit, à savoir les connaissances comme commun. Le financement public de la recherche concordait alors avec la nature non rivale et l’incertitude radicale de (l’utilité de) ce qui est produit.

    La connaissance étant devenue un actif stratégique, sa valorisation par le marché s’est imposée comme instrument d’orientation de la recherche. Finalement dans un régime d’apparence libérale, la conduite politique est forte, c’est d’ailleurs propre d’un régime néolibéral tel que décrit notamment par Amable & Palombarini (2018). Les #appels_à_projet sélectionnent les recherches susceptibles de #valorisation_économique. Là où la #publication fait circuler les connaissances et valide le caractère non rival du produit, les classements des publications ont pour objet de trier les résultats. La priorité donnée à la protection du résultat par la propriété intellectuelle achève le processus de signalement de la bonne recherche, rompant son caractère non rival. La #rivalité exacerbe l’effectivité de l’exclusion par les prix, dont le niveau est en rapport avec les profits anticipés.

    Dans ce contexte, le positionnement des entreprises au plus près des chercheurs publics conduit à une adaptation de l’appareil de production de l’ESR, en créant des lieux (#incubateurs) qui établissent et affinent l’appariement recherche / entreprise et la #transférabilité à la #valorisation_marchande. La hiérarchisation des domaines de recherche, des communautés entre elles et en leur sein est alors inévitable. Dans ce processus, le #financement_public, qui continue d’endosser les coûts irrécouvrables de l’incertitude, opère comme un instrument de sélection et d’orientation qui autorise la mise sous contrôle de la sphère publique. L’ESR est ainsi mobilisée par l’accumulation, en voyant son autonomie (sa capacité à se réguler, à orienter les recherches) se réduire. L’incitation à la propriété intellectuelle sur les résultats de la recherche à des fins de mise en marché est un dispositif qui assure cet arrimage à l’accumulation.

    Le caractère appropriable de la recherche, devenant essentiel pour la légitimation de l’activité, internalise une forme de consentement de la communauté à la perte du contrôle des connaissances scientifiques, forme de garantie de sa circulation. Cette rupture de la non-rivalité constitue un coût collectif pour la société que les communautés scientifiques ne parviennent pas à rendre visible. De la même manière, le partage des connaissances comme principe d’efficacité par les externalités positives qu’il génère n’est pas perçu comme un principe alternatif d’efficacité. Chemin faisant, une recherche à caractère universel, régulée par des communautés, disparait au profit d’un appareil sous doté, orienté vers une utilité de court terme, relayé par la puissance publique elle-même.

    Un bloc hégémonique réduit, contre la collégialité universitaire

    En tant que mode de gouvernance, la collégialité universitaire a garanti la participation, et de fait la mobilisation des personnels, car ce n’est pas la stimulation des rémunérations qui a produit l’#engagement. Les collectifs de travail s’étaient dotés d’objectifs communs et s’étaient accordés sur la #transmission_des_savoirs et les critères de la #validation_scientifique. La #collégialité_universitaire en lien à la définition des savoirs légitimes a été la clé de la gouvernance publique. Il est indispensable de rappeler la continuité régulatrice entre liberté académique et organisation professionnelle qui rend possible le travail de recherche et en même temps le contrôle des usages de ses produits.

    Alors que l’université doit faire face à une masse d’étudiants, elle est évaluée et ses dotations sont accordées sur la base d’une activité de recherche, ce qui produit une contradiction majeure qui affecte les universités, mais pas toutes. Il s’effectue un processus de #différenciation_territoriale, avec une masse d’établissements en souffrance et un petit nombre qui a été retenu pour former l’élite. Les travaux de géographes sur les #inégalités_territoriales montrent la très forte concentration sur quelques pôles laissant des déserts en matière de recherche. Ainsi se renforce une dualité entre des universités portées vers des stratégies d’#élite et d’autres conduites à accepter une #secondarisation_du_supérieur. Une forme de hiatus entre les besoins technologiques et scientifiques massifs et le #décrochage_éducatif commence à être diagnostiquée.

    La sectorisation de l’ESR, et le pouvoir pris par un bloc hégémonique réduit auquel participent certaines universités dans l’espoir de ne pas être reléguées, ont procédé par l’appropriation de prérogatives de plus en plus larges sur les carrières, sur la valorisation de la recherche et la propriété intellectuelle, de ce qui était un commun de la recherche. En cela, les dispositifs d’excellence ont joué un rôle marquant d’affectation de moyens par une partie étroite de la profession. De cette manière, ce bloc capte des prébendes, assoit son pouvoir par la formation des normes concurrentielles qu’il contrôle et développe un rôle asymétrique sur les carrières par son rôle dominant dans l’affectation de reconnaissance professionnelle individualisée, en contournant les instances professionnelles. Il y a là création de nouveaux périmètres par la norme, et la profession dans son ensemble n’a plus grande prise, elle est mise à distance des critères qui servent à son nouveau fonctionnement et à la mesure de la performance.

    Les dispositifs mis en place au nom de l’#excellence_scientifique sont des instruments pour ceux qui peuvent s’en emparer et définissant les critères de sélection selon leur représentation, exercent une domination concurrentielle en sélectionnant les élites futures. Il est alors essentiel d’intégrer les Clubs qui en seront issus. Il y a là une #sociologie_des_élites à préciser sur la construction d’#UDICE, club des 10 universités dites d’excellence. L’évaluation de la performance détermine gagnants et perdants, via des labels, qui couronnent des processus de sélection, et assoit le pouvoir oligopolistique et les élites qui l’ont porté, souvent contre la masse de la profession (Musselin, 2017).

    Le jeu des acteurs dominants, en lien étroit avec le pouvoir politique qui les reconnait et les renforce dans cette position, au moyen d’instruments de #rationalisation de l’allocation de moyens pénuriques permet de définir un nouvel espace pour ceux-ci, ségrégué du reste de l’ESR, démarche qui est justifié par son arrimage au régime d’accumulation. Ce processus s’achève avec une forme de séparatisme du nouveau bloc hégémonique composé par ces managers de l’ESR, composante minoritaire qui correspond d’une certaine mesure au bloc bourgeois. Celles- et ceux-là même qui applaudissent le discours présidentiel annonçant la révolution dont un petit fragment tirera du feu peu de marrons, mais qui seront sans doute pour eux très lucratifs. Toutefois le scénario ainsi décrit dans sa tendance contradictoire pour ne pas dire délétère ne doit pas faire oublier que les communautés scientifiques perdurent, même si elles souffrent. La trajectoire choisie de sectorisation déstabilise l’ESR sans ouvrir d’espace pour un compromis ni avec les personnels ni pour la formation. En l’état, les conditions d’émergence d’un nouveau régime pour l’ESR, reliant son fonctionnement et sa visée pour la société ne sont pas réunies, en particulier parce que la #rupture se fait contre la profession et que c’est pourtant elle qui reste au cœur de la production.

    https://laviedesidees.fr/Universite-service-public-ou-secteur-productif
    #ESR #facs #souffrance

  • Ils sont gentils à Marianne...

    Quand le #Conseil_Constitutionnel ne dit rien, il est à la botte.

    Quand il s’exprime, il est vilain, #pabo. :-D :-D :-D

    #Loi_immigration : « Neuf juges peuvent donc balayer d’un revers de manche un énorme travail parlementaire »

    Ça s’appelle la #séparation_des_pouvoirs, et c’est pas trop mal comme ça... :-D :-D :-D

    #politique #société #France #loi #régulation #régularité #seenthis #vangauguin

    https://www.marianne.net/agora/tribunes-libres/loi-immigration-neuf-juges-peuvent-donc-balayer-dun-revers-de-manche-un-en

  • La #CSNP invite à mieux anticiper l’impact de l’#IA sur la société
    https://www.banquedesterritoires.fr/la-csnp-invite-mieux-anticiper-limpact-de-lia-sur-la-societe

    Après un premier avis en 2020 sur l’#intelligence_artificielle (IA) centré sur sa dimension économique, la commission supérieure du numérique et des postes (CSNP) revient sur le sujet dans son avis(https://csnp.fr/wp-content/uploads/2024/01/AVIS-N%C2%B02024-01-du-17-JANVIER-2024-pour-mieux-encadrer-lusage-de-lintellige) n°2024-01 du 17 janvier 2024. Les parlementaires insistent plus particulièrement sur les enjeux sociétaux de l’IA, le tsunami de l’#IA_générative étant passé par là. Signé de Mireille Clapot, députée de la Drôme et présidente de la CSNP, l’avis souligne l’urgence à réguler l’IA tout en invitant les pouvoirs publics à amortir ses effets sociétaux et à contribuer à l’émergence d’une IA frugale.

    #régulation #formation #administrations_publiques

  • EU lawmakers bag late night deal on ‘global first’ AI rules | TechCrunch
    https://techcrunch.com/2023/12/08/eu-ai-act-political-deal

    Tout l’article est très intéressant.

    Full details of what’s been agreed won’t be entirely confirmed until a final text is compiled and made public, which may take some weeks. But a press release put out by the European Parliament confirms the deal reached with the Council includes a total prohibition on the use of AI for:

    biometric categorisation systems that use sensitive characteristics (e.g. political, religious, philosophical beliefs, sexual orientation, race);
    untargeted scraping of facial images from the internet or CCTV footage to create facial recognition databases;
    emotion recognition in the workplace and educational institutions;
    social scoring based on social behaviour or personal characteristics;
    AI systems that manipulate human behaviour to circumvent their free will;
    AI used to exploit the vulnerabilities of people (due to their age, disability, social or economic situation).

    The use of remote biometric identification technology in public places by law enforcement has not been completely banned — but the parliament said negotiators had agreed on a series of safeguards and narrow exceptions to limit use of technologies such as facial recognition. This includes a requirement for prior judicial authorisation — and with uses limited to a “strictly defined” lists of crime.

    Civil society groups have reacted sceptically — raising concerns the agreed limitations on state agencies’ use of biometric identification technologies will not go far enough to safeguard human rights. Digital rights group EDRi, which was among those pushing for a full ban on remote biometrics, said that whilst the deal contains “some limited gains for human rights”, it looks like “a shell of the AI law Europe really needs”.

    There was also agreement on a “two-tier” system of guardrails to be applied to “general” AI systems, such as the so-called foundational models underpinning the viral boom in generative AI applications like ChatGPT.

    As we reported earlier, the deal reached on foundational models/general purpose AIs (GPAIs) includes some transparency requirements for what co-legislators referred to as “low tier” AIs — meaning model makers must draw up technical documentation and produce (and publish) detailed summaries about the content used for training in order to support compliance with EU copyright law. For “high-impact” GPAIs (defined as the cumulative amount of compute used for their training measured in floating point operations is greater than 10^25) with so-called “systemic risk” there are more stringent obligations.

    “If these models meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency,” the parliament wrote. “MEPs also insisted that, until harmonised EU standards are published, GPAIs with systemic risk may rely on codes of practice to comply with the regulation.”

    The Commission has been working with industry on a stop-gap AI Pact for some months — and it confirmed today this is intended to plug the practice gap until the AI Act comes into force.

    While foundational models/GPAIs that have been commercialized face regulation under the Act, R&D is not intended to be in scope of the law — and fully open sourced models will have lighter regulatory requirements than closed source, per today’s pronouncements.

    The package agreed also promotes regulatory sandboxes and real-world-testing being established by national authorities to support startups and SMEs to develop and train AIs before placement on the market.

    #Intelligence_artificielle #AIAct #Europe #Régulation

  • Le numérique tient-il plus d’une barrière, d’une possible nouvelle frontière dans la mondialisation ou au contraire, est-elle l’interface, le liant d’une nouvelle géopolitique dont les frontières se recomposeraient en dehors de toute géographie ? C’est la question que pose Ophélie Coelho dans son livre « Géopolitique du numérique ». Pour elle, le numérique est une couche supplémentaire de puissance et de rivalités, entre Etats, mais aussi entre Etats et multinationales. Il est à la fois l’outil d’affrontement des différents blocs du monde contemporain et le coeur de la domination.

    La grande question de cette géopolitique, c’est surtout la montée d’un pouvoir privé qui vient renforcer plus que perturber les équilibres géopolitiques en cours. Le numérique nous confronte à une puissance impériale inédite qui fait émerger un nouveau pouvoir au sein des blocs géopolitiques, un pouvoir particulièrement hégémonique et monopolistique... Une forme de privatisation du pouvoir, un colonialisme technique qui déstabilise la démocratie libérale elle-même, comme s’en inquiète Anu Bradford dans son livre, « Digital Empires ». Et qui pose la question de la régulation de ce qui apparaît comme un nouvel impérialisme. #numérique #géopolitique #régulation #impérialisme

    https://hubertguillaud.wordpress.com/2023/10/30/de-limperialisme-numerique

  • Data & Society — Democratizing AI: Principles for Meaningful Public Participation
    https://datasociety.net/library/democratizing-ai-principles-for-meaningful-public-participation

    As AI is deployed in ways that dramatically shape people’s lives and opportunities, the public has little input into its use. In light of this, there are increasing calls to integrate democratic and human-centered values into AI through public participation. 
    Public participation enables the people who are most likely to be affected by a given system to have influence into that system’s design and deployment, including decision-making power. Evidence from multiple fields indicates that, when done right, public participation helps to avert harmful impacts of new projects. Input from the public can result in concrete improvements to a program, or in the rejection of proposals that community members did not support. It brings a range of social and cultural values into decision-making above and beyond narrow technical parameters. Public participation adds legitimacy to decisions because people trust processes they understand and influence. It improves accountability by adding layers of scrutiny and discussion between the public and decision-makers. 
    Yet public participation is difficult to do well, and its mechanisms can backfire if they are not carefully designed. Fortunately, policymakers do not need to design public participation for AI from scratch. Building on a comprehensive review of evidence from public participation efforts in policy domains such as anti-poverty programs and environmental policy, in Democratizing AI: Principles for Meaningful Public Participation Michele Gilman summarizes evidence-based recommendations for better structuring public participation processes for AI, and underscores the urgency of enacting them.

    #Intelligence_artificielle #Régulation #Participation_citoyenne

  • Blueprint for an AI Bill of Rights | OSTP | The White House
    https://www.whitehouse.gov/ostp/ai-bill-of-rights

    Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent.

    These outcomes are deeply harmful—but they are not inevitable. Automated systems have brought about extraordinary benefits, from technology that helps farmers grow food more efficiently and computers that predict storm paths, to algorithms that can identify diseases in patients. These tools now drive important decisions across sectors, while data is helping to revolutionize global industries. Fueled by the power of American innovation, these tools hold the potential to redefine every part of our society and make life better for everyone.

    This important progress must not come at the price of civil rights or democratic values, foundational American principles that President Biden has affirmed as a cornerstone of his Administration. On his first day in office, the President ordered the full Federal government to work to root out inequity, embed fairness in decision-making processes, and affirmatively advance civil rights, equal opportunity, and racial justice in America.[i] The President has spoken forcefully about the urgent challenges posed to democracy today and has regularly called on people of conscience to act to preserve civil rights—including the right to privacy, which he has called “the basis for so many more rights that we have come to take for granted that are ingrained in the fabric of this country.”[ii]

    To advance President Biden’s vision, the White House Office of Science and Technology Policy has identified five principles that should guide the design, use, and deployment of automated systems to protect the American public in the age of artificial intelligence. The Blueprint for an AI Bill of Rights is a guide for a society that protects all people from these threats—and uses technologies in ways that reinforce our highest values. Responding to the experiences of the American public, and informed by insights from researchers, technologists, advocates, journalists, and policymakers, this framework is accompanied by From Principles to Practice—a handbook for anyone seeking to incorporate these protections into policy and practice, including detailed steps toward actualizing these principles in the technological design process. These principles help provide guidance whenever automated systems can meaningfully impact the public’s rights, opportunities, or access to critical needs.

    #Intelligence_artificielle #Maison_Blanche #AI_Bill_of_Rights #Régulation

  • Elon Musk, Sam Altman and Mark Zuckerberg Discuss AI with Lawmakers in Washington - The New York Times
    https://www.nytimes.com/2023/09/13/technology/silicon-valley-ai-washington-schumer.html?nl=todaysheadlines&emc=edit_th_20

    Elon Musk, Sam Altman, Mark Zuckerberg, Sundar Pichai and others discussed artificial intelligence with lawmakers, as tech companies strive to influence potential regulations.

    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.Credit...Haiyun Jiang for The New York Times
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Cecilia Kang

    By Cecilia Kang

    Reporting from Washington
    Sept. 13, 2023

    Elon Musk warned of civilizational risks posed by artificial intelligence. Sundar Pichai of Google highlighted the technology’s potential to solve health and energy problems. And Mark Zuckerberg of Meta stressed the importance of open and transparent A.I. systems.

    The tech titans held forth on Wednesday in a three-hour meeting with lawmakers in Washington about A.I. and future regulations. The gathering, known as the A.I. Insight Forum, was part of a crash course for Congress on the technology and organized by the Senate leader, Chuck Schumer, Democrat of New York.

    The meeting — also attended by Bill Gates, a founder of Microsoft; Sam Altman of OpenAI; Satya Nadella of Microsoft; and Jensen Huang of Nvidia — was a rare congregation of more than a dozen top tech executives in the same room. It amounted to one of the industry’s most proactive shows of force in the nation’s capital as companies race to be at the forefront of A.I. and to be seen to influence its direction.

    It was unclear if any concrete proposals would result from the meeting, the first of a series of such gatherings. But the tech executives took the opportunity to push for their agendas.

    Mr. Karp of Palantir said he was able to deliver his message that the government should support A.I. in the defense sector, which includes his company’s main customers. “There was striking unanimity that America be the leader on A.I.,” he said in an interview.

    Most of the executives agreed on the need for regulating A.I., which has been under scrutiny for its transformative and risky effects.

    But there was still disagreement, attendees said. Mr. Zuckerberg highlighted open-source research and development of A.I., which means that the source code of the underlying A.I. systems are available to the public.

    “Open source democratizes access to these tools, and that helps level the playing field and foster innovation for people and businesses,” he said.

    Others, like Jack Clark of the A.I. start-up Anthropic and Mr. Gates, raised concerns that open-source A.I. could lead to security risks, attendees said. Anthropic, Google and OpenAI have said open source can allow outsiders to get past safety guardrails and spread misinformation and other toxic material.

    Mr. Musk, who has called for a moratorium on the development of some A.I. systems even as he has pushed forward with his own A.I. initiatives, was among the most vocal about the risks. He painted an existential crisis posed by the technology.

    #Intelligence_artificielle #Régulation #Asilomar

  • #Propriété_collective des #terres : « Des espaces de résistance face à l’agriculture industrielle et capitaliste »

    basta ! : Dans le secteur agricole, on compte seulement une installation pour deux à trois cessations d’activité, alors qu’un agriculteur sur quatre doit partir à la retraite d’ici 2030. L’accès à la terre est-il le frein principal à l’activité agricole en France ?

    Tanguy Martin : L’accès à la terre est clairement un frein, économique d’abord. La terre, selon les régions, peut coûter assez cher. S’y ajoutent les coûts des bâtiments, du cheptel, des machines, dans un contexte où les fermes n’ont cessé de grandir en taille depuis la fin de la Seconde Guerre mondiale.

    Il y a aussi un principe de défiance : c’est plus facile de vendre ses terres, ou de les louer à son voisin qu’on connaît depuis très longtemps, qu’à quelqu’un qu’on ne connaît pas, qui peut vouloir faire différemment, non issu du territoire... Or, 60 % des gens qui veulent s’installer aujourd’hui ne sont pas issus du milieu agricole. Les freins administratifs se combinent à ce parcours du combattant.

    Aujourd’hui l’accès à la terre se fait par le marché : les terres sont allouées aux gens capables de rentabiliser une ressource, et pas forcément aux gens capables de nourrir un territoire ou de préserver un environnement.

    À partir de quel moment la terre agricole est-elle devenue une marchandise ?

    Jusqu’à la fin de la Seconde Guerre mondiale, la terre est restée un bien de prestige et de pouvoir à travers lequel on maîtrise la subsistance de la population. Mais après 1945, l’agriculture est entrée dans le capitalisme : on commence à faire plus de profit avec la terre et la production de nourriture, voire à spéculer sur le prix de la terre.

    La terre est même depuis devenue un actif financier. Aujourd’hui, les sociétés dites à capitaux ouverts (financiarisées), dont le contrôle peut être pris par des non-agriculteurs, ont fait main basse sur 14 % de la surface agricole utile française. C’est plus d’une ferme sur dix en France [1]. Le phénomène a doublé en 20 ans !

    Peut-on vraiment parler de spéculation sur les terres en France alors même que le prix stagne en moyenne à 6000 euros par hectare depuis plusieurs années ? Il est quand même de 90 000 euros par hectare aux Pays-Bas !

    Depuis quelques années, le prix de la terre stagne et on pourrait en conclure qu’il n’y a pas de spéculation. En réalité, le prix de la terre a globalement augmenté en France sur les 20 dernières années.

    Actuellement, ce prix augmente dans certaines régions et baisse dans d’autres. Les endroits où l’on peut spéculer sur la terre sont globalement ceux où l’agriculture s’est industrialisée : les zones céréalières dans le centre de la France, de betteraves en Picardie, de maïs dans le Sud-Ouest... Là, le prix de la terre continue à augmenter.

    En revanche, il y a des endroits en déprise, notamment les zones d’élevage comme le Limousin, où le prix de la terre peut baisser. Les prix augmentent aussi à proximité des villes et des zones touristiques, où la terre risque de devenir constructible.

    En France, ce sont les Sociétés d’aménagement foncier et d’établissement rural (Safer) qui sont en charge de réguler le marché des ventes des terres agricoles. Elles sont très critiquées. Que faut-il faire de ces organisations ?

    Les Safer ont participé à limiter les inégalités d’accès à la terre et un prix de la terre relativement bas en France. C’est vrai, même s’il y a d’autres explications aussi, comme la plus faible valeur ajoutée produite par hectare en France.

    Pour autant, les Safer doivent encore évoluer pour pouvoir répondre aux enjeux alimentaires et agricoles du 21e siècle, il faut arriver à démocratiser leur gouvernance. Celles-ci restent aujourd’hui très liées aux décisions du syndicalisme majoritaire (de la FNSEA, ndlr). Les Safer doivent aussi devenir plus transparentes. Actuellement, les réunions de décision se tiennent à huis clos : c’est censé protéger les gens qui prennent les décisions pour qu’ils soient éloignés de certaines pressions, mais cela crée une opacité très délétère pour l’institution.

    Un autre élément à revoir, c’est la façon dont on fixe les objectifs politiques des Safer. Ces dernières, quand elles achètent une terre, doivent la revendre à la personne qui répond aux objectifs politiques qui sont notamment fixés dans des documents nommés « schémas directeurs régionaux des exploitations agricoles ».

    Ces documents, écrits par l’État et validés par arrêté préfectoral, décrivent quel type d’agriculture vont viser les Safer et d’autres instances de régulation foncière. Or, ces documents, du fait que le syndicat majoritaire est largement consulté, défendent plutôt la prolongation de l’agriculture vers son industrialisation. Il y a donc un enjeu à ce que ces documents soient écrits pour défendre une agriculture du 21e siècle qui défend l’agroécologie, et des paysannes et paysans nombreux sur les territoires. À ces conditions-là, il n’y a pas de raison de vouloir se passer des Safer.

    Le fait que nous ayons un système qui alloue la terre, non pas en fonction de l’offre et de la demande, mais en vertu d’un projet politique censé répondre à l’intérêt général, est un trésor inestimable en France qu’il faut absolument garder.

    En creux de votre ouvrage se pose la question du rapport à la propriété. Est-il possible de dépasser le modèle du paysan propriétaire ?

    Sur le principe, rien ne justifie le fait qu’à un moment, une personne ait pu dire « cette terre m’appartient ». La terre étant à la fois un lieu d’accueil du vivant et le lieu où l’on produit la nourriture, on peut estimer que la propriété de la terre doit être abolie. Sauf que, dans une société très attachée à la propriété privée, cela paraît utopique.

    Prenons donc le problème d’une autre façon, et voyons ce qu’on peut déjà faire à court terme. Il faut avoir en tête que les agriculteurs ne sont pas majoritairement propriétaires des terres qu’ils travaillent : 60 % de cette surface est louée dans le cadre du fermage. Il y a même des paysan·nes qui décident parfois de ne pas acheter la terre et préfèrent la louer pour éviter de s’endetter.

    D’autre part, on dispose d’une régulation foncière selon laquelle la terre n’est pas une marchandise comme les autres et ne doit pas être uniquement dirigée par le marché. Ces mécanismes juridiques permettent à l’État, aux collectivités locales et aux syndicats agricoles, de définir ensemble qui va accéder à la terre indépendamment du fait que ces personnes soient riches ou pas.

    On a là un embryon qui pourrait faire imaginer un droit de l’accès à la terre en France institué en commun. Il faut renforcer et orienter ces mécanismes – qui ont plein d’écueils ! – vers des enjeux d’alimentation, d’emploi, d’environnement... Chercher à démocratiser la question de l’accès à la terre et « le gouvernement des terres », c’est à la fois une capacité à se prémunir des effets mortifères du capitalisme, et cela permet de penser comment on pourrait gérer les terres autrement.

    Le capitalisme n’est pas une fatalité : il y a d’autres manières d’être au monde, de produire de l’alimentation, de vivre, de sortir d’un monde où le but n’est que la recherche du profit. C’est comme quand on milite pour la sécurité sociale de l’alimentation : la Sécurité sociale en 1946 n’a pas renversé le capitalisme, mais elle a créé des espaces de répits face au capitalisme, extrêmement importants pour que les gens vivent bien et envisagent de transformer la société.

    Le livre dresse un panorama des organisations qui travaillent au rachat des terres pour les mettre à disposition de paysan·nes répondant à des critères socio-environnementaux, avec des règles transparentes d’attribution de l’accès au foncier. Les surfaces acquises restent toutefois modestes. Peut-on uniquement compter sur ce type d’initiatives ?

    Les gens qui s’intéressent à la terre aujourd’hui ont bien compris qu’on n’allait pas abolir la propriété privée demain. Ils ont aussi compris que s’ils voulaient expérimenter d’autres manières de faire de l’agriculture et de l’alimentation, il fallait accéder à la propriété des terres.

    L’idée de la propriété collective, ce n’est pas l’abolition de la propriété privée, mais que des gens se mettent ensemble pour acheter de la terre. C’est ce que fait Terre de Liens en louant ensuite la terre à des paysan·nes qui mettent en œuvre des projets répondant aux enjeux de société, d’emploi, d’environnement, d’entretien du territoire... Mais c’est aussi ce que font d’autres structures de propriété foncière – la Société civile des terres du Larzac, la Terre en commun sur la Zad de Notre-Dame des Landes, Lurzaindia dans le Pays basque, la foncière Antidote, et bien d’autres.

    Tout un tas de gens essaient d’acheter des terres pour en faire des espaces de résistance face à l’agriculture industrielle et capitaliste. Cela permet d’imaginer d’autres rapports à la propriété. Ce sont des lieux d’expérimentation très importants pour susciter de nouveaux imaginaires, apprendre à faire autrement, créer de nouvelles manières d’être au monde.

    Le problème de ces lieux-là, c’est qu’ils ne peuvent pas permettre un changement d’échelle. Cela ne peut pas être la solution de sortie des terres du capitalisme. Comme elles n’abolissent pas la propriété, s’il fallait racheter toutes les terres, cela coûterait des centaines de milliards d’euros.

    Par ailleurs, ces terres ne sont pas à vendre à court terme – une terre se vend en moyenne tous les 75 ans. D’où la nécessité de faire à la fois des expérimentations de propriété collective, tout en ravivant la question de la régulation foncière pour sortir l’agriculture du capitalisme.

    En quoi la lutte de Notre-Dame des Landes, victorieuse en 2018, a reconfiguré les luttes, notamment anticapitalistes, autour des terres ?

    La question agricole et foncière, en France et même en Europe, était très peu investie par les milieux anticapitalistes. L’activisme des gens qui vont s’installer dans la Zad, les coopérations menées avec des syndicats agricoles comme la Confédération paysanne, ont – non sans débats houleux et conflits internes – mené à une lutte assez exemplaire sur un territoire.

    La répression peut être énorme, mais la capacité de résistance aussi. Cette lutte a produit des façons de faire sur le territoire – en termes d’habitat, d’agriculture collective, de vivre ensemble – inspirantes pour toute une génération militant contre le néolibéralisme et le capitalisme. Beaucoup de milieux politiques aujourd’hui parlent de subsistance, d’alimentation, de terres.

    Notre-Dame des Landes marque aussi le fait qu’avec de moins en moins d’agriculteurs dans la société (2,5 % des gens sont des travailleurs de la terre dont 1,9 % sont des agriculteurs au sens légal), les enjeux agricoles ne peuvent être uniquement du ressort des luttes paysannes. La centralité de ces luttes doit être partagée avec d’autres types d’acteurs politiques, notamment des gens qui habitent le territoire sans être forcément paysans.

    La dynamique des Soulèvements de la Terre est-elle un prolongement de Notre-Dame des Landes ?

    En effet, il me semble que Notre-Dame-des-Landes est une inspiration forte de la pensée qui s’agrège autour des Soulèvements, mouvement riche de sa pluralité. Les Soulèvements montrent que les espoirs nés de l’expérimentation à Notre-Dame-des-Landes sont possibles partout et qu’il va falloir faire différemment dans tous les territoires – chaque endroit ayant ses spécificités.

    Les questions de rapport à la terre ont aussi émergé dans l’espace politique des années 1990, avec les luttes au Chiapas, au Mexique, qui continuent d’inspirer les milieux politiques en Europe et en France. Cette circulation des imaginaires de luttes permet de penser des mondes différemment. Les Soulèvements arrivent à fédérer de manière assez importante et repolitisent très clairement ces questions de la terre. Ils portent ces questions sur tous les territoires qui ont envie de s’en emparer en disant : « C’est possible aussi chez vous ».

    Peut-on sortir l’agriculture du capitalisme ? Pour Tanguy Martin, auteur de Cultiver les communs, il faut combiner les expérimentations de propriété collective tout en s’attachant à la régulation foncière.

    https://basta.media/Propriete-collective-des-terres-des-espaces-de-resistance-face-a-l-agricult
    #agriculture #résistance #capitalisme #accès_à_la_terre #terre #financiarisation #spéculation #Sociétés_d’aménagement_foncier_et-d’établissement_rural (#Safer)

  • L’arrivée de #meta sur le fédivers est-elle une bonne nouvelle ?
    https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle

    Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…

    #Censure #Données_personnelles #Surveillance #facebook #fédiverse #interop #mastodon #régulation

  • [A Question Of Listening] # 029 - Le metal n’est pas si heavy qu’on croit
    https://www.radiopanik.org/emissions/a-question-of-listening/029-le-metal-nest-pas-si-heavy-quon-croit

    Dans le deuxième épisode de A Question Of Listening, nous avons vu que la #musique, qui n’a pas de valeur adaptative immédiate, s’écoute pour les émotions qu’elle procure, pour un plaisir, déterminé par des éléments non musicaux (la subjectivité de l’auditeur) mais aussi par la structure expressive de la pièce elle-même : il varie, ce plaisir, d’une écoute à l’autre (en fonction des circonstances, de l’humeur …) mais présente une certaine régularité – qui nous amène d’ailleurs souvent (en tant qu’individu ou en tant que groupe) à choisir une musique en fonction de notre état psychologique ou des caractéristiques du moment. Plus généralement, les émotions les plus souvent rencontrées en écoutant de la musique sont la sérénité, la gaieté, la tristesse et la colère (ou la peur) et trois dimensions psychologiques (...)

    #psychologie_cognitive #émotion #style_musical #régulation #musique,psychologie_cognitive,émotion,style_musical,régulation
    https://www.radiopanik.org/media/sounds/a-question-of-listening/029-le-metal-nest-pas-si-heavy-quon-croit_16183__1.mp3

  • Give Every AI a Soul—or Else | WIRED
    https://www.wired.com/story/give-every-ai-a-soul-or-else

    Quand on demande aux auteurs de science fiction d’imaginer des formes de régulation, on tombe parfois sur des idées étranges... qui viennent certainement de la conception d’IA comme des entités “human-like”, non pas comme chaque humain (sentient et ayant un corps - quoique ce dernier point est évoqué pour les IA aussi) mais comme les civilisations d’humains qui s’auto-contrôlent.

    Why this sudden wave of concern? Amid the toppling of many clichéd assumptions, we’ve learned that so-called Turing tests are irrelevant, providing no insight at all into whether generative large language models—GLLMs or “gollems”—are actually sapient beings. They will feign personhood, convincingly, long before there’s anything or anyone “under the skull.”

    Anyway, that distinction now appears less pressing than questions of good or bad—or potentially lethal—behavior.

    This essay is adapted from David Brin’s nonfiction book in progress, Soul on Ai.

    Some remain hopeful that a merging of organic and cybernetic talents will lead to what Reid Hoffman and Marc Andreesen have separately called “amplification intelligence.” Or else we might stumble into lucky synergy with Richard Brautigan’s “machines of loving grace.” But worriers appear to be vastly more numerous, including many elite founders of a new Center for AI Safety who fret about rogue AI misbehaviors, from irksome all the way to “existentially” threatening human survival.

    Some short-term remedies, like citizen-protection regulations recently passed by the European Union, might help, or at least offer reassurance. Tech pundit Yuval Noah Harari proposed a law that any work done by gollems or other AI must be so labeled. Others recommend heightened punishments for any crime that’s committed with the aid of AI, as with a firearm. Of course, these are mere temporary palliatives.

    Un peu de SF...

    By individuation I mean that each AI entity (he/she/they/ae/wae) must have what author Vernor Vinge, way back in 1981, called a true name and an address in the real world. As with every other kind of elite, these mighty beings must say, “I am me. This is my ID and home-root. And yes, I did that.”

    Hence, I propose a new AI format for consideration: We should urgently incentivize AI entities to coalesce into discretely defined, separated individuals of relatively equal competitive strength.

    Each such entity would benefit from having an identifiable true name or registration ID, plus a physical “home” for an operational-referential kernel. (Possibly “soul”?) And thereupon, they would be incentivized to compete for rewards. Especially for detecting and denouncing those of their peers who behave in ways we deem insalubrious. And those behaviors do not even have to be defined in advance, as most AI mavens and regulators and politicians now demand.

    Not only does this approach farm out enforcement to entities who are inherently better capable of detecting and denouncing each other’s problems or misdeeds. The method has another, added advantage. It might continue to function, even as these competing entities get smarter and smarter, long after the regulatory tools used by organic humans—and prescribed now by most AI experts—lose all ability to keep up.

    Putting it differently, if none of us organics can keep up with the programs, then how about we recruit entities who inherently can keep up? Because the watchers are made of the same stuff as the watched.

    Personally, I am skeptical that a purely regulatory approach would work, all by itself. First because regulations require focus, widely shared political attention, and consensus to enact, followed by implementation at the pace of organic human institutions—a sloth/snail rate, by the view of rapidly adapting cybernetic beings. Regulations can also be stymied by the “free-rider problem”—nations, corporations, and individuals (organic or otherwise) who see personal advantage in opting out of inconvenient cooperation.

    There is another problem with any version of individuation that is entirely based on some ID code: It can be spoofed. If not now, then by the next generation of cybernetic scoundrels, or the next.

    I see two possible solutions. First, establish ID on a blockchain ledger. That is very much the modern, with-it approach, and it does seem secure in theory. Only that’s the rub. It seems secure according to our present set of human-parsed theories. Theories that AI entities might surpass to a degree that leaves us cluelessly floundering.

    Another solution: A version of “registration” that’s inherently harder to fool would require AI entities with capabilities above a certain level to have their trust-ID or individuation be anchored in physical reality. I envision—and note: I am a physicist by training, not a cyberneticist—an agreement that all higher-level AI entities who seek trust should maintain a Soul Kernel (SK) in a specific piece of hardware memory, within what we quaintly used to call a particular “computer.”

    Yes, I know it seems old-fashioned to demand that instantiation of a program be restricted to a specific locale. And so, I am not doing that! Indeed, a vast portion, even a great majority, of a cyber entity’s operations may take place in far-dispersed locations of work or play, just as a human being’s attention may not be aimed within their own organic brain, but at a distant hand, or tool. So? The purpose of a program’s Soul Kernel is similar to the driver’s license in your wallet. It can be interrogated in order to prove that you are you.

    Again, the key thing I seek from individuation is not for all AI entities to be ruled by some central agency, or by mollusk-slow human laws. Rather, I want these new kinds of über-minds encouraged and empowered to hold each other accountable, the way we already (albeit imperfectly) do. By sniffing at each other’s operations and schemes, then motivated to tattle or denounce when they spot bad stuff. A definition that might readjust to changing times, but that would at least keep getting input from organic-biological humanity.

    Especially, they would feel incentives to denounce entities who refuse proper ID.

    If the right incentives are in place—say, rewards for whistle-blowing that grant more memory or processing power, or access to physical resources, when some bad thing is stopped—then this kind of accountability rivalry just might keep pace, even as AI entities keep getting smarter and smarter. No bureaucratic agency could keep up at that point. But rivalry among them—tattling by equals—might.

    Above all, perhaps those super-genius programs will realize it is in their own best interest to maintain a competitively accountable system, like the one that made ours the most successful of all human civilizations. One that evades both chaos and the wretched trap of monolithic power by kings or priesthoods … or corporate oligarchs … or Skynet monsters. The only civilization that, after millennia of dismally stupid rule by moronically narrow-minded centralized regimes, finally dispersed creativity and freedom and accountability widely enough to become truly inventive.

    David Brin is an astrophysicist whose international best-selling novels include The Postman, Earth, Existence, and Hugo Award winners Startide Rising and The Uplift War. He consults for NASA, companies, agencies, and nonprofits about the onrushing future. Brin’s first nonfiction book, The Transparent Society, won the Freedom of Speech Award. His new one is Vivid Tomorrows: Science Fiction and Hollywood.

    #Intelligence_artificielle #Individuation #Science_fiction #Régulation

  • Opinion | Lina Khan : We Must Regulate A.I. Here’s How. - The New York Times
    https://www.nytimes.com/2023/05/03/opinion/ai-lina-khan-ftc-technology.html

    Encore une excellent prise de position de Lina Khan... une des personnes les plus pointues sur la régulation des technologies.
    Jeune, dynamique, ouverte, courageuse, d’une intelligence et subtilité sans faille... je suis membre du fan-club.

    By Lina M. Khan

    Ms. Khan is the chair of the Federal Trade Commission.

    It’s both exciting and unsettling to have a realistic conversation with a computer. Thanks to the rapid advance of generative artificial intelligence, many of us have now experienced this potentially revolutionary technology with vast implications for how people live, work and communicate around the world. The full extent of generative A.I.’s potential is still up for debate, but there’s little doubt it will be highly disruptive.

    The last time we found ourselves facing such widespread social change wrought by technology was the onset of the Web 2.0 era in the mid-2000s. New, innovative companies like Facebook and Google revolutionized communications and delivered popular services to a fast-growing user base.

    Those innovative services, however, came at a steep cost. What we initially conceived of as free services were monetized through extensive surveillance of the people and businesses that used them. The result has been an online economy where access to increasingly essential services is conditioned on the widespread hoarding and sale of our personal data.

    These business models drove companies to develop endlessly invasive ways to track us, and the Federal Trade Commission would later find reason to believe that several of these companies had broken the law. Coupled with aggressive strategies to acquire or lock out companies that threatened their position, these tactics solidified the dominance of a handful of companies. What began as a revolutionary set of technologies ended up concentrating enormous private power over key services and locking in business models that come at extraordinary cost to our privacy and security.

    The trajectory of the Web 2.0 era was not inevitable — it was instead shaped by a broad range of policy choices. And we now face another moment of choice. As the use of A.I. becomes more widespread, public officials have a responsibility to ensure this hard-learned history doesn’t repeat itself.

    As companies race to deploy and monetize A.I., the Federal Trade Commission is taking a close look at how we can best achieve our dual mandate to promote fair competition and to protect Americans from unfair or deceptive practices. As these technologies evolve, we are committed to doing our part to uphold America’s longstanding tradition of maintaining the open, fair and competitive markets that have underpinned both breakthrough innovations and our nation’s economic success — without tolerating business models or practices involving the mass exploitation of their users. Although these tools are novel, they are not exempt from existing rules, and the F.T.C. will vigorously enforce the laws we are charged with administering, even in this new market.

    While the technology is moving swiftly, we already can see several risks. The expanding adoption of A.I. risks further locking in the market dominance of large incumbent technology firms. A handful of powerful businesses control the necessary raw materials that start-ups and other companies rely on to develop and deploy A.I. tools. This includes cloud services and computing power, as well as vast stores of data.

    Enforcers and regulators must be vigilant. Dominant firms could use their control over these key inputs to exclude or discriminate against downstream rivals, picking winners and losers in ways that further entrench their dominance. Meanwhile, the A.I. tools that firms use to set prices for everything from laundry detergent to bowling lane reservations can facilitate collusive behavior that unfairly inflates prices — as well as forms of precisely targeted price discrimination. Enforcers have the dual responsibility of watching out for the dangers posed by new A.I. technologies while promoting the fair competition needed to ensure the market for these technologies develops lawfully. The F.T.C. is well equipped with legal jurisdiction to handle the issues brought to the fore by the rapidly developing A.I. sector, including collusion, monopolization, mergers, price discrimination and unfair methods of competition.

    And generative A.I. risks turbocharging fraud. It may not be ready to replace professional writers, but it can already do a vastly better job of crafting a seemingly authentic message than your average con artist — equipping scammers to generate content quickly and cheaply. Chatbots are already being used to generate spear-phishing emails designed to scam people, fake websites and fake consumer reviews —bots are even being instructed to use words or phrases targeted at specific groups and communities. Scammers, for example, can draft highly targeted spear-phishing emails based on individual users’ social media posts. Alongside tools that create deep fake videos and voice clones, these technologies can be used to facilitate fraud and extortion on a massive scale.
    Editors’ Picks
    If You Stop Mowing This May, Will Your Lawn Turn Into a Meadow?
    My Weekend With an Emotional Support A.I. Companion
    Nothing Says Fashion in 2023 Like a Corset Hoodie

    When enforcing the law’s prohibition on deceptive practices, we will look not just at the fly-by-night scammers deploying these tools but also at the upstream firms that are enabling them.

    Lastly, these A.I. tools are being trained on huge troves of data in ways that are largely unchecked. Because they may be fed information riddled with errors and bias, these technologies risk automating discrimination — unfairly locking out people from jobs, housing or key services. These tools can also be trained on private emails, chats and sensitive data, ultimately exposing personal details and violating user privacy. Existing laws prohibiting discrimination will apply, as will existing authorities proscribing exploitative collection or use of personal data.

    The history of the growth of technology companies two decades ago serves as a cautionary tale for how we should think about the expansion of generative A.I. But history also has lessons for how to handle technological disruption for the benefit of all. Facing antitrust scrutiny in the late 1960s, the computing titan IBM unbundled software from its hardware systems, catalyzing the rise of the American software industry and creating trillions of dollars of growth. Government action required AT&T to open up its patent vault and similarly unleashed decades of innovation and spurred the expansion of countless young firms.

    America’s longstanding national commitment to fostering fair and open competition has been an essential part of what has made this nation an economic powerhouse and a laboratory of innovation. We once again find ourselves at a key decision point. Can we continue to be the home of world-leading technology without accepting race-to-the-bottom business models and monopolistic control that locks out higher quality products or the next big idea? Yes — if we make the right policy choices.

    #Lina_Khan #Régulation #Intelligence_artificielle

  • The biggest technology failures of 2022 | MIT Technology Review
    https://www.technologyreview.com/2022/12/21/1065625/worst-technology-2022

    We’re back with our latest list of the worst technologies of the year. Think of these as anti-breakthroughs, the sort of mishaps, misuses, miscues, and bad ideas that lead to technology failure. This year’s disastrous accomplishments range from deadly pharmaceutical chemistry to a large language model that was jeered off the internet.

    One theme that emerges from our disaster list is how badly policy—the rules, processes, institutions, and ideals that govern technology’s use—can let us down. In China, a pervasive system of pandemic controls known as “zero covid” came to an abrupt and unexpected end. On Twitter, Elon Musk intentionally destroyed the site’s governing policies, replacing them with a puckish and arbitrary mix of free speech, personal vendettas, and appeals to the right wing of US politics. In the US, policy failures were evident in the highest levels of overdose deaths ever recorded, many of them due to a 60-year-old chemical compound: fentanyl.

    The impact of these technologies could be measured in the number of people affected. More than a billion people in China are now being exposed to the virus for the first time; 335 million on Twitter are watching Musk’s antics; and fentanyl killed 70,000 in the US. In each of these messes, there are important lessons about why technology fails.

    #Technologie #Régulation

  • La grande exploitation agricole dans la course au #foncier
    https://metropolitiques.eu/La-grande-exploitation-agricole-dans-la-course-au-foncier.html

    Les grandes exploitations sont toujours plus nombreuses en France, au détriment de l’agriculture alternative qui peine à se développer, notamment dans l’aire d’attraction des villes. Le droit, qui régule l’accès au foncier, ainsi que les mécanismes d’octroi des aides, expliquent en partie ce processus. Les exploitations agricoles ne cessent en France de s’agrandir. Celles qu’on qualifie de grandes s’arrogent-elles le foncier dans les aires urbaines au détriment des plus petites ? Quels rôles jouent, #Essais

    / #régulation_foncière, #concentration, #marché_foncier, foncier, #rente_foncière

    https://metropolitiques.eu/IMG/pdf/met-grimonprez.pdf