• EU lawmakers bag late night deal on ‘global first’ AI rules | TechCrunch
    https://techcrunch.com/2023/12/08/eu-ai-act-political-deal

    Tout l’article est très intéressant.

    Full details of what’s been agreed won’t be entirely confirmed until a final text is compiled and made public, which may take some weeks. But a press release put out by the European Parliament confirms the deal reached with the Council includes a total prohibition on the use of AI for:

    biometric categorisation systems that use sensitive characteristics (e.g. political, religious, philosophical beliefs, sexual orientation, race);
    untargeted scraping of facial images from the internet or CCTV footage to create facial recognition databases;
    emotion recognition in the workplace and educational institutions;
    social scoring based on social behaviour or personal characteristics;
    AI systems that manipulate human behaviour to circumvent their free will;
    AI used to exploit the vulnerabilities of people (due to their age, disability, social or economic situation).

    The use of remote biometric identification technology in public places by law enforcement has not been completely banned — but the parliament said negotiators had agreed on a series of safeguards and narrow exceptions to limit use of technologies such as facial recognition. This includes a requirement for prior judicial authorisation — and with uses limited to a “strictly defined” lists of crime.

    Civil society groups have reacted sceptically — raising concerns the agreed limitations on state agencies’ use of biometric identification technologies will not go far enough to safeguard human rights. Digital rights group EDRi, which was among those pushing for a full ban on remote biometrics, said that whilst the deal contains “some limited gains for human rights”, it looks like “a shell of the AI law Europe really needs”.

    There was also agreement on a “two-tier” system of guardrails to be applied to “general” AI systems, such as the so-called foundational models underpinning the viral boom in generative AI applications like ChatGPT.

    As we reported earlier, the deal reached on foundational models/general purpose AIs (GPAIs) includes some transparency requirements for what co-legislators referred to as “low tier” AIs — meaning model makers must draw up technical documentation and produce (and publish) detailed summaries about the content used for training in order to support compliance with EU copyright law. For “high-impact” GPAIs (defined as the cumulative amount of compute used for their training measured in floating point operations is greater than 10^25) with so-called “systemic risk” there are more stringent obligations.

    “If these models meet certain criteria they will have to conduct model evaluations, assess and mitigate systemic risks, conduct adversarial testing, report to the Commission on serious incidents, ensure cybersecurity and report on their energy efficiency,” the parliament wrote. “MEPs also insisted that, until harmonised EU standards are published, GPAIs with systemic risk may rely on codes of practice to comply with the regulation.”

    The Commission has been working with industry on a stop-gap AI Pact for some months — and it confirmed today this is intended to plug the practice gap until the AI Act comes into force.

    While foundational models/GPAIs that have been commercialized face regulation under the Act, R&D is not intended to be in scope of the law — and fully open sourced models will have lighter regulatory requirements than closed source, per today’s pronouncements.

    The package agreed also promotes regulatory sandboxes and real-world-testing being established by national authorities to support startups and SMEs to develop and train AIs before placement on the market.

    #Intelligence_artificielle #AIAct #Europe #Régulation

  • Le numérique tient-il plus d’une barrière, d’une possible nouvelle frontière dans la mondialisation ou au contraire, est-elle l’interface, le liant d’une nouvelle géopolitique dont les frontières se recomposeraient en dehors de toute géographie ? C’est la question que pose Ophélie Coelho dans son livre « Géopolitique du numérique ». Pour elle, le numérique est une couche supplémentaire de puissance et de rivalités, entre Etats, mais aussi entre Etats et multinationales. Il est à la fois l’outil d’affrontement des différents blocs du monde contemporain et le coeur de la domination.

    La grande question de cette géopolitique, c’est surtout la montée d’un pouvoir privé qui vient renforcer plus que perturber les équilibres géopolitiques en cours. Le numérique nous confronte à une puissance impériale inédite qui fait émerger un nouveau pouvoir au sein des blocs géopolitiques, un pouvoir particulièrement hégémonique et monopolistique... Une forme de privatisation du pouvoir, un colonialisme technique qui déstabilise la démocratie libérale elle-même, comme s’en inquiète Anu Bradford dans son livre, « Digital Empires ». Et qui pose la question de la régulation de ce qui apparaît comme un nouvel impérialisme. #numérique #géopolitique #régulation #impérialisme

    https://hubertguillaud.wordpress.com/2023/10/30/de-limperialisme-numerique

  • Data & Society — Democratizing AI: Principles for Meaningful Public Participation
    https://datasociety.net/library/democratizing-ai-principles-for-meaningful-public-participation

    As AI is deployed in ways that dramatically shape people’s lives and opportunities, the public has little input into its use. In light of this, there are increasing calls to integrate democratic and human-centered values into AI through public participation. 
    Public participation enables the people who are most likely to be affected by a given system to have influence into that system’s design and deployment, including decision-making power. Evidence from multiple fields indicates that, when done right, public participation helps to avert harmful impacts of new projects. Input from the public can result in concrete improvements to a program, or in the rejection of proposals that community members did not support. It brings a range of social and cultural values into decision-making above and beyond narrow technical parameters. Public participation adds legitimacy to decisions because people trust processes they understand and influence. It improves accountability by adding layers of scrutiny and discussion between the public and decision-makers. 
    Yet public participation is difficult to do well, and its mechanisms can backfire if they are not carefully designed. Fortunately, policymakers do not need to design public participation for AI from scratch. Building on a comprehensive review of evidence from public participation efforts in policy domains such as anti-poverty programs and environmental policy, in Democratizing AI: Principles for Meaningful Public Participation Michele Gilman summarizes evidence-based recommendations for better structuring public participation processes for AI, and underscores the urgency of enacting them.

    #Intelligence_artificielle #Régulation #Participation_citoyenne

  • Blueprint for an AI Bill of Rights | OSTP | The White House
    https://www.whitehouse.gov/ostp/ai-bill-of-rights

    Among the great challenges posed to democracy today is the use of technology, data, and automated systems in ways that threaten the rights of the American public. Too often, these tools are used to limit our opportunities and prevent our access to critical resources or services. These problems are well documented. In America and around the world, systems supposed to help with patient care have proven unsafe, ineffective, or biased. Algorithms used in hiring and credit decisions have been found to reflect and reproduce existing unwanted inequities or embed new harmful bias and discrimination. Unchecked social media data collection has been used to threaten people’s opportunities, undermine their privacy, or pervasively track their activity—often without their knowledge or consent.

    These outcomes are deeply harmful—but they are not inevitable. Automated systems have brought about extraordinary benefits, from technology that helps farmers grow food more efficiently and computers that predict storm paths, to algorithms that can identify diseases in patients. These tools now drive important decisions across sectors, while data is helping to revolutionize global industries. Fueled by the power of American innovation, these tools hold the potential to redefine every part of our society and make life better for everyone.

    This important progress must not come at the price of civil rights or democratic values, foundational American principles that President Biden has affirmed as a cornerstone of his Administration. On his first day in office, the President ordered the full Federal government to work to root out inequity, embed fairness in decision-making processes, and affirmatively advance civil rights, equal opportunity, and racial justice in America.[i] The President has spoken forcefully about the urgent challenges posed to democracy today and has regularly called on people of conscience to act to preserve civil rights—including the right to privacy, which he has called “the basis for so many more rights that we have come to take for granted that are ingrained in the fabric of this country.”[ii]

    To advance President Biden’s vision, the White House Office of Science and Technology Policy has identified five principles that should guide the design, use, and deployment of automated systems to protect the American public in the age of artificial intelligence. The Blueprint for an AI Bill of Rights is a guide for a society that protects all people from these threats—and uses technologies in ways that reinforce our highest values. Responding to the experiences of the American public, and informed by insights from researchers, technologists, advocates, journalists, and policymakers, this framework is accompanied by From Principles to Practice—a handbook for anyone seeking to incorporate these protections into policy and practice, including detailed steps toward actualizing these principles in the technological design process. These principles help provide guidance whenever automated systems can meaningfully impact the public’s rights, opportunities, or access to critical needs.

    #Intelligence_artificielle #Maison_Blanche #AI_Bill_of_Rights #Régulation

  • Elon Musk, Sam Altman and Mark Zuckerberg Discuss AI with Lawmakers in Washington - The New York Times
    https://www.nytimes.com/2023/09/13/technology/silicon-valley-ai-washington-schumer.html?nl=todaysheadlines&emc=edit_th_20

    Elon Musk, Sam Altman, Mark Zuckerberg, Sundar Pichai and others discussed artificial intelligence with lawmakers, as tech companies strive to influence potential regulations.

    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.Credit...Haiyun Jiang for The New York Times
    Elon Musk, left, of X, Tesla and SpaceX and Alex Karp of Palantir were among the tech leaders who met with lawmakers on Wednesday about artificial intelligence.
    Cecilia Kang

    By Cecilia Kang

    Reporting from Washington
    Sept. 13, 2023

    Elon Musk warned of civilizational risks posed by artificial intelligence. Sundar Pichai of Google highlighted the technology’s potential to solve health and energy problems. And Mark Zuckerberg of Meta stressed the importance of open and transparent A.I. systems.

    The tech titans held forth on Wednesday in a three-hour meeting with lawmakers in Washington about A.I. and future regulations. The gathering, known as the A.I. Insight Forum, was part of a crash course for Congress on the technology and organized by the Senate leader, Chuck Schumer, Democrat of New York.

    The meeting — also attended by Bill Gates, a founder of Microsoft; Sam Altman of OpenAI; Satya Nadella of Microsoft; and Jensen Huang of Nvidia — was a rare congregation of more than a dozen top tech executives in the same room. It amounted to one of the industry’s most proactive shows of force in the nation’s capital as companies race to be at the forefront of A.I. and to be seen to influence its direction.

    It was unclear if any concrete proposals would result from the meeting, the first of a series of such gatherings. But the tech executives took the opportunity to push for their agendas.

    Mr. Karp of Palantir said he was able to deliver his message that the government should support A.I. in the defense sector, which includes his company’s main customers. “There was striking unanimity that America be the leader on A.I.,” he said in an interview.

    Most of the executives agreed on the need for regulating A.I., which has been under scrutiny for its transformative and risky effects.

    But there was still disagreement, attendees said. Mr. Zuckerberg highlighted open-source research and development of A.I., which means that the source code of the underlying A.I. systems are available to the public.

    “Open source democratizes access to these tools, and that helps level the playing field and foster innovation for people and businesses,” he said.

    Others, like Jack Clark of the A.I. start-up Anthropic and Mr. Gates, raised concerns that open-source A.I. could lead to security risks, attendees said. Anthropic, Google and OpenAI have said open source can allow outsiders to get past safety guardrails and spread misinformation and other toxic material.

    Mr. Musk, who has called for a moratorium on the development of some A.I. systems even as he has pushed forward with his own A.I. initiatives, was among the most vocal about the risks. He painted an existential crisis posed by the technology.

    #Intelligence_artificielle #Régulation #Asilomar

  • #Propriété_collective des #terres : « Des espaces de résistance face à l’agriculture industrielle et capitaliste »

    basta ! : Dans le secteur agricole, on compte seulement une installation pour deux à trois cessations d’activité, alors qu’un agriculteur sur quatre doit partir à la retraite d’ici 2030. L’accès à la terre est-il le frein principal à l’activité agricole en France ?

    Tanguy Martin : L’accès à la terre est clairement un frein, économique d’abord. La terre, selon les régions, peut coûter assez cher. S’y ajoutent les coûts des bâtiments, du cheptel, des machines, dans un contexte où les fermes n’ont cessé de grandir en taille depuis la fin de la Seconde Guerre mondiale.

    Il y a aussi un principe de défiance : c’est plus facile de vendre ses terres, ou de les louer à son voisin qu’on connaît depuis très longtemps, qu’à quelqu’un qu’on ne connaît pas, qui peut vouloir faire différemment, non issu du territoire... Or, 60 % des gens qui veulent s’installer aujourd’hui ne sont pas issus du milieu agricole. Les freins administratifs se combinent à ce parcours du combattant.

    Aujourd’hui l’accès à la terre se fait par le marché : les terres sont allouées aux gens capables de rentabiliser une ressource, et pas forcément aux gens capables de nourrir un territoire ou de préserver un environnement.

    À partir de quel moment la terre agricole est-elle devenue une marchandise ?

    Jusqu’à la fin de la Seconde Guerre mondiale, la terre est restée un bien de prestige et de pouvoir à travers lequel on maîtrise la subsistance de la population. Mais après 1945, l’agriculture est entrée dans le capitalisme : on commence à faire plus de profit avec la terre et la production de nourriture, voire à spéculer sur le prix de la terre.

    La terre est même depuis devenue un actif financier. Aujourd’hui, les sociétés dites à capitaux ouverts (financiarisées), dont le contrôle peut être pris par des non-agriculteurs, ont fait main basse sur 14 % de la surface agricole utile française. C’est plus d’une ferme sur dix en France [1]. Le phénomène a doublé en 20 ans !

    Peut-on vraiment parler de spéculation sur les terres en France alors même que le prix stagne en moyenne à 6000 euros par hectare depuis plusieurs années ? Il est quand même de 90 000 euros par hectare aux Pays-Bas !

    Depuis quelques années, le prix de la terre stagne et on pourrait en conclure qu’il n’y a pas de spéculation. En réalité, le prix de la terre a globalement augmenté en France sur les 20 dernières années.

    Actuellement, ce prix augmente dans certaines régions et baisse dans d’autres. Les endroits où l’on peut spéculer sur la terre sont globalement ceux où l’agriculture s’est industrialisée : les zones céréalières dans le centre de la France, de betteraves en Picardie, de maïs dans le Sud-Ouest... Là, le prix de la terre continue à augmenter.

    En revanche, il y a des endroits en déprise, notamment les zones d’élevage comme le Limousin, où le prix de la terre peut baisser. Les prix augmentent aussi à proximité des villes et des zones touristiques, où la terre risque de devenir constructible.

    En France, ce sont les Sociétés d’aménagement foncier et d’établissement rural (Safer) qui sont en charge de réguler le marché des ventes des terres agricoles. Elles sont très critiquées. Que faut-il faire de ces organisations ?

    Les Safer ont participé à limiter les inégalités d’accès à la terre et un prix de la terre relativement bas en France. C’est vrai, même s’il y a d’autres explications aussi, comme la plus faible valeur ajoutée produite par hectare en France.

    Pour autant, les Safer doivent encore évoluer pour pouvoir répondre aux enjeux alimentaires et agricoles du 21e siècle, il faut arriver à démocratiser leur gouvernance. Celles-ci restent aujourd’hui très liées aux décisions du syndicalisme majoritaire (de la FNSEA, ndlr). Les Safer doivent aussi devenir plus transparentes. Actuellement, les réunions de décision se tiennent à huis clos : c’est censé protéger les gens qui prennent les décisions pour qu’ils soient éloignés de certaines pressions, mais cela crée une opacité très délétère pour l’institution.

    Un autre élément à revoir, c’est la façon dont on fixe les objectifs politiques des Safer. Ces dernières, quand elles achètent une terre, doivent la revendre à la personne qui répond aux objectifs politiques qui sont notamment fixés dans des documents nommés « schémas directeurs régionaux des exploitations agricoles ».

    Ces documents, écrits par l’État et validés par arrêté préfectoral, décrivent quel type d’agriculture vont viser les Safer et d’autres instances de régulation foncière. Or, ces documents, du fait que le syndicat majoritaire est largement consulté, défendent plutôt la prolongation de l’agriculture vers son industrialisation. Il y a donc un enjeu à ce que ces documents soient écrits pour défendre une agriculture du 21e siècle qui défend l’agroécologie, et des paysannes et paysans nombreux sur les territoires. À ces conditions-là, il n’y a pas de raison de vouloir se passer des Safer.

    Le fait que nous ayons un système qui alloue la terre, non pas en fonction de l’offre et de la demande, mais en vertu d’un projet politique censé répondre à l’intérêt général, est un trésor inestimable en France qu’il faut absolument garder.

    En creux de votre ouvrage se pose la question du rapport à la propriété. Est-il possible de dépasser le modèle du paysan propriétaire ?

    Sur le principe, rien ne justifie le fait qu’à un moment, une personne ait pu dire « cette terre m’appartient ». La terre étant à la fois un lieu d’accueil du vivant et le lieu où l’on produit la nourriture, on peut estimer que la propriété de la terre doit être abolie. Sauf que, dans une société très attachée à la propriété privée, cela paraît utopique.

    Prenons donc le problème d’une autre façon, et voyons ce qu’on peut déjà faire à court terme. Il faut avoir en tête que les agriculteurs ne sont pas majoritairement propriétaires des terres qu’ils travaillent : 60 % de cette surface est louée dans le cadre du fermage. Il y a même des paysan·nes qui décident parfois de ne pas acheter la terre et préfèrent la louer pour éviter de s’endetter.

    D’autre part, on dispose d’une régulation foncière selon laquelle la terre n’est pas une marchandise comme les autres et ne doit pas être uniquement dirigée par le marché. Ces mécanismes juridiques permettent à l’État, aux collectivités locales et aux syndicats agricoles, de définir ensemble qui va accéder à la terre indépendamment du fait que ces personnes soient riches ou pas.

    On a là un embryon qui pourrait faire imaginer un droit de l’accès à la terre en France institué en commun. Il faut renforcer et orienter ces mécanismes – qui ont plein d’écueils ! – vers des enjeux d’alimentation, d’emploi, d’environnement... Chercher à démocratiser la question de l’accès à la terre et « le gouvernement des terres », c’est à la fois une capacité à se prémunir des effets mortifères du capitalisme, et cela permet de penser comment on pourrait gérer les terres autrement.

    Le capitalisme n’est pas une fatalité : il y a d’autres manières d’être au monde, de produire de l’alimentation, de vivre, de sortir d’un monde où le but n’est que la recherche du profit. C’est comme quand on milite pour la sécurité sociale de l’alimentation : la Sécurité sociale en 1946 n’a pas renversé le capitalisme, mais elle a créé des espaces de répits face au capitalisme, extrêmement importants pour que les gens vivent bien et envisagent de transformer la société.

    Le livre dresse un panorama des organisations qui travaillent au rachat des terres pour les mettre à disposition de paysan·nes répondant à des critères socio-environnementaux, avec des règles transparentes d’attribution de l’accès au foncier. Les surfaces acquises restent toutefois modestes. Peut-on uniquement compter sur ce type d’initiatives ?

    Les gens qui s’intéressent à la terre aujourd’hui ont bien compris qu’on n’allait pas abolir la propriété privée demain. Ils ont aussi compris que s’ils voulaient expérimenter d’autres manières de faire de l’agriculture et de l’alimentation, il fallait accéder à la propriété des terres.

    L’idée de la propriété collective, ce n’est pas l’abolition de la propriété privée, mais que des gens se mettent ensemble pour acheter de la terre. C’est ce que fait Terre de Liens en louant ensuite la terre à des paysan·nes qui mettent en œuvre des projets répondant aux enjeux de société, d’emploi, d’environnement, d’entretien du territoire... Mais c’est aussi ce que font d’autres structures de propriété foncière – la Société civile des terres du Larzac, la Terre en commun sur la Zad de Notre-Dame des Landes, Lurzaindia dans le Pays basque, la foncière Antidote, et bien d’autres.

    Tout un tas de gens essaient d’acheter des terres pour en faire des espaces de résistance face à l’agriculture industrielle et capitaliste. Cela permet d’imaginer d’autres rapports à la propriété. Ce sont des lieux d’expérimentation très importants pour susciter de nouveaux imaginaires, apprendre à faire autrement, créer de nouvelles manières d’être au monde.

    Le problème de ces lieux-là, c’est qu’ils ne peuvent pas permettre un changement d’échelle. Cela ne peut pas être la solution de sortie des terres du capitalisme. Comme elles n’abolissent pas la propriété, s’il fallait racheter toutes les terres, cela coûterait des centaines de milliards d’euros.

    Par ailleurs, ces terres ne sont pas à vendre à court terme – une terre se vend en moyenne tous les 75 ans. D’où la nécessité de faire à la fois des expérimentations de propriété collective, tout en ravivant la question de la régulation foncière pour sortir l’agriculture du capitalisme.

    En quoi la lutte de Notre-Dame des Landes, victorieuse en 2018, a reconfiguré les luttes, notamment anticapitalistes, autour des terres ?

    La question agricole et foncière, en France et même en Europe, était très peu investie par les milieux anticapitalistes. L’activisme des gens qui vont s’installer dans la Zad, les coopérations menées avec des syndicats agricoles comme la Confédération paysanne, ont – non sans débats houleux et conflits internes – mené à une lutte assez exemplaire sur un territoire.

    La répression peut être énorme, mais la capacité de résistance aussi. Cette lutte a produit des façons de faire sur le territoire – en termes d’habitat, d’agriculture collective, de vivre ensemble – inspirantes pour toute une génération militant contre le néolibéralisme et le capitalisme. Beaucoup de milieux politiques aujourd’hui parlent de subsistance, d’alimentation, de terres.

    Notre-Dame des Landes marque aussi le fait qu’avec de moins en moins d’agriculteurs dans la société (2,5 % des gens sont des travailleurs de la terre dont 1,9 % sont des agriculteurs au sens légal), les enjeux agricoles ne peuvent être uniquement du ressort des luttes paysannes. La centralité de ces luttes doit être partagée avec d’autres types d’acteurs politiques, notamment des gens qui habitent le territoire sans être forcément paysans.

    La dynamique des Soulèvements de la Terre est-elle un prolongement de Notre-Dame des Landes ?

    En effet, il me semble que Notre-Dame-des-Landes est une inspiration forte de la pensée qui s’agrège autour des Soulèvements, mouvement riche de sa pluralité. Les Soulèvements montrent que les espoirs nés de l’expérimentation à Notre-Dame-des-Landes sont possibles partout et qu’il va falloir faire différemment dans tous les territoires – chaque endroit ayant ses spécificités.

    Les questions de rapport à la terre ont aussi émergé dans l’espace politique des années 1990, avec les luttes au Chiapas, au Mexique, qui continuent d’inspirer les milieux politiques en Europe et en France. Cette circulation des imaginaires de luttes permet de penser des mondes différemment. Les Soulèvements arrivent à fédérer de manière assez importante et repolitisent très clairement ces questions de la terre. Ils portent ces questions sur tous les territoires qui ont envie de s’en emparer en disant : « C’est possible aussi chez vous ».

    Peut-on sortir l’agriculture du capitalisme ? Pour Tanguy Martin, auteur de Cultiver les communs, il faut combiner les expérimentations de propriété collective tout en s’attachant à la régulation foncière.

    https://basta.media/Propriete-collective-des-terres-des-espaces-de-resistance-face-a-l-agricult
    #agriculture #résistance #capitalisme #accès_à_la_terre #terre #financiarisation #spéculation #Sociétés_d’aménagement_foncier_et-d’établissement_rural (#Safer)

  • L’arrivée de #meta sur le fédivers est-elle une bonne nouvelle ?
    https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle

    Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…

    #Censure #Données_personnelles #Surveillance #facebook #fédiverse #interop #mastodon #régulation

  • [A Question Of Listening] # 029 - Le metal n’est pas si heavy qu’on croit
    https://www.radiopanik.org/emissions/a-question-of-listening/029-le-metal-nest-pas-si-heavy-quon-croit

    Dans le deuxième épisode de A Question Of Listening, nous avons vu que la #musique, qui n’a pas de valeur adaptative immédiate, s’écoute pour les émotions qu’elle procure, pour un plaisir, déterminé par des éléments non musicaux (la subjectivité de l’auditeur) mais aussi par la structure expressive de la pièce elle-même : il varie, ce plaisir, d’une écoute à l’autre (en fonction des circonstances, de l’humeur …) mais présente une certaine régularité – qui nous amène d’ailleurs souvent (en tant qu’individu ou en tant que groupe) à choisir une musique en fonction de notre état psychologique ou des caractéristiques du moment. Plus généralement, les émotions les plus souvent rencontrées en écoutant de la musique sont la sérénité, la gaieté, la tristesse et la colère (ou la peur) et trois dimensions psychologiques (...)

    #psychologie_cognitive #émotion #style_musical #régulation #musique,psychologie_cognitive,émotion,style_musical,régulation
    https://www.radiopanik.org/media/sounds/a-question-of-listening/029-le-metal-nest-pas-si-heavy-quon-croit_16183__1.mp3

  • Give Every AI a Soul—or Else | WIRED
    https://www.wired.com/story/give-every-ai-a-soul-or-else

    Quand on demande aux auteurs de science fiction d’imaginer des formes de régulation, on tombe parfois sur des idées étranges... qui viennent certainement de la conception d’IA comme des entités “human-like”, non pas comme chaque humain (sentient et ayant un corps - quoique ce dernier point est évoqué pour les IA aussi) mais comme les civilisations d’humains qui s’auto-contrôlent.

    Why this sudden wave of concern? Amid the toppling of many clichéd assumptions, we’ve learned that so-called Turing tests are irrelevant, providing no insight at all into whether generative large language models—GLLMs or “gollems”—are actually sapient beings. They will feign personhood, convincingly, long before there’s anything or anyone “under the skull.”

    Anyway, that distinction now appears less pressing than questions of good or bad—or potentially lethal—behavior.

    This essay is adapted from David Brin’s nonfiction book in progress, Soul on Ai.

    Some remain hopeful that a merging of organic and cybernetic talents will lead to what Reid Hoffman and Marc Andreesen have separately called “amplification intelligence.” Or else we might stumble into lucky synergy with Richard Brautigan’s “machines of loving grace.” But worriers appear to be vastly more numerous, including many elite founders of a new Center for AI Safety who fret about rogue AI misbehaviors, from irksome all the way to “existentially” threatening human survival.

    Some short-term remedies, like citizen-protection regulations recently passed by the European Union, might help, or at least offer reassurance. Tech pundit Yuval Noah Harari proposed a law that any work done by gollems or other AI must be so labeled. Others recommend heightened punishments for any crime that’s committed with the aid of AI, as with a firearm. Of course, these are mere temporary palliatives.

    Un peu de SF...

    By individuation I mean that each AI entity (he/she/they/ae/wae) must have what author Vernor Vinge, way back in 1981, called a true name and an address in the real world. As with every other kind of elite, these mighty beings must say, “I am me. This is my ID and home-root. And yes, I did that.”

    Hence, I propose a new AI format for consideration: We should urgently incentivize AI entities to coalesce into discretely defined, separated individuals of relatively equal competitive strength.

    Each such entity would benefit from having an identifiable true name or registration ID, plus a physical “home” for an operational-referential kernel. (Possibly “soul”?) And thereupon, they would be incentivized to compete for rewards. Especially for detecting and denouncing those of their peers who behave in ways we deem insalubrious. And those behaviors do not even have to be defined in advance, as most AI mavens and regulators and politicians now demand.

    Not only does this approach farm out enforcement to entities who are inherently better capable of detecting and denouncing each other’s problems or misdeeds. The method has another, added advantage. It might continue to function, even as these competing entities get smarter and smarter, long after the regulatory tools used by organic humans—and prescribed now by most AI experts—lose all ability to keep up.

    Putting it differently, if none of us organics can keep up with the programs, then how about we recruit entities who inherently can keep up? Because the watchers are made of the same stuff as the watched.

    Personally, I am skeptical that a purely regulatory approach would work, all by itself. First because regulations require focus, widely shared political attention, and consensus to enact, followed by implementation at the pace of organic human institutions—a sloth/snail rate, by the view of rapidly adapting cybernetic beings. Regulations can also be stymied by the “free-rider problem”—nations, corporations, and individuals (organic or otherwise) who see personal advantage in opting out of inconvenient cooperation.

    There is another problem with any version of individuation that is entirely based on some ID code: It can be spoofed. If not now, then by the next generation of cybernetic scoundrels, or the next.

    I see two possible solutions. First, establish ID on a blockchain ledger. That is very much the modern, with-it approach, and it does seem secure in theory. Only that’s the rub. It seems secure according to our present set of human-parsed theories. Theories that AI entities might surpass to a degree that leaves us cluelessly floundering.

    Another solution: A version of “registration” that’s inherently harder to fool would require AI entities with capabilities above a certain level to have their trust-ID or individuation be anchored in physical reality. I envision—and note: I am a physicist by training, not a cyberneticist—an agreement that all higher-level AI entities who seek trust should maintain a Soul Kernel (SK) in a specific piece of hardware memory, within what we quaintly used to call a particular “computer.”

    Yes, I know it seems old-fashioned to demand that instantiation of a program be restricted to a specific locale. And so, I am not doing that! Indeed, a vast portion, even a great majority, of a cyber entity’s operations may take place in far-dispersed locations of work or play, just as a human being’s attention may not be aimed within their own organic brain, but at a distant hand, or tool. So? The purpose of a program’s Soul Kernel is similar to the driver’s license in your wallet. It can be interrogated in order to prove that you are you.

    Again, the key thing I seek from individuation is not for all AI entities to be ruled by some central agency, or by mollusk-slow human laws. Rather, I want these new kinds of über-minds encouraged and empowered to hold each other accountable, the way we already (albeit imperfectly) do. By sniffing at each other’s operations and schemes, then motivated to tattle or denounce when they spot bad stuff. A definition that might readjust to changing times, but that would at least keep getting input from organic-biological humanity.

    Especially, they would feel incentives to denounce entities who refuse proper ID.

    If the right incentives are in place—say, rewards for whistle-blowing that grant more memory or processing power, or access to physical resources, when some bad thing is stopped—then this kind of accountability rivalry just might keep pace, even as AI entities keep getting smarter and smarter. No bureaucratic agency could keep up at that point. But rivalry among them—tattling by equals—might.

    Above all, perhaps those super-genius programs will realize it is in their own best interest to maintain a competitively accountable system, like the one that made ours the most successful of all human civilizations. One that evades both chaos and the wretched trap of monolithic power by kings or priesthoods … or corporate oligarchs … or Skynet monsters. The only civilization that, after millennia of dismally stupid rule by moronically narrow-minded centralized regimes, finally dispersed creativity and freedom and accountability widely enough to become truly inventive.

    David Brin is an astrophysicist whose international best-selling novels include The Postman, Earth, Existence, and Hugo Award winners Startide Rising and The Uplift War. He consults for NASA, companies, agencies, and nonprofits about the onrushing future. Brin’s first nonfiction book, The Transparent Society, won the Freedom of Speech Award. His new one is Vivid Tomorrows: Science Fiction and Hollywood.

    #Intelligence_artificielle #Individuation #Science_fiction #Régulation

  • Opinion | Lina Khan : We Must Regulate A.I. Here’s How. - The New York Times
    https://www.nytimes.com/2023/05/03/opinion/ai-lina-khan-ftc-technology.html

    Encore une excellent prise de position de Lina Khan... une des personnes les plus pointues sur la régulation des technologies.
    Jeune, dynamique, ouverte, courageuse, d’une intelligence et subtilité sans faille... je suis membre du fan-club.

    By Lina M. Khan

    Ms. Khan is the chair of the Federal Trade Commission.

    It’s both exciting and unsettling to have a realistic conversation with a computer. Thanks to the rapid advance of generative artificial intelligence, many of us have now experienced this potentially revolutionary technology with vast implications for how people live, work and communicate around the world. The full extent of generative A.I.’s potential is still up for debate, but there’s little doubt it will be highly disruptive.

    The last time we found ourselves facing such widespread social change wrought by technology was the onset of the Web 2.0 era in the mid-2000s. New, innovative companies like Facebook and Google revolutionized communications and delivered popular services to a fast-growing user base.

    Those innovative services, however, came at a steep cost. What we initially conceived of as free services were monetized through extensive surveillance of the people and businesses that used them. The result has been an online economy where access to increasingly essential services is conditioned on the widespread hoarding and sale of our personal data.

    These business models drove companies to develop endlessly invasive ways to track us, and the Federal Trade Commission would later find reason to believe that several of these companies had broken the law. Coupled with aggressive strategies to acquire or lock out companies that threatened their position, these tactics solidified the dominance of a handful of companies. What began as a revolutionary set of technologies ended up concentrating enormous private power over key services and locking in business models that come at extraordinary cost to our privacy and security.

    The trajectory of the Web 2.0 era was not inevitable — it was instead shaped by a broad range of policy choices. And we now face another moment of choice. As the use of A.I. becomes more widespread, public officials have a responsibility to ensure this hard-learned history doesn’t repeat itself.

    As companies race to deploy and monetize A.I., the Federal Trade Commission is taking a close look at how we can best achieve our dual mandate to promote fair competition and to protect Americans from unfair or deceptive practices. As these technologies evolve, we are committed to doing our part to uphold America’s longstanding tradition of maintaining the open, fair and competitive markets that have underpinned both breakthrough innovations and our nation’s economic success — without tolerating business models or practices involving the mass exploitation of their users. Although these tools are novel, they are not exempt from existing rules, and the F.T.C. will vigorously enforce the laws we are charged with administering, even in this new market.

    While the technology is moving swiftly, we already can see several risks. The expanding adoption of A.I. risks further locking in the market dominance of large incumbent technology firms. A handful of powerful businesses control the necessary raw materials that start-ups and other companies rely on to develop and deploy A.I. tools. This includes cloud services and computing power, as well as vast stores of data.

    Enforcers and regulators must be vigilant. Dominant firms could use their control over these key inputs to exclude or discriminate against downstream rivals, picking winners and losers in ways that further entrench their dominance. Meanwhile, the A.I. tools that firms use to set prices for everything from laundry detergent to bowling lane reservations can facilitate collusive behavior that unfairly inflates prices — as well as forms of precisely targeted price discrimination. Enforcers have the dual responsibility of watching out for the dangers posed by new A.I. technologies while promoting the fair competition needed to ensure the market for these technologies develops lawfully. The F.T.C. is well equipped with legal jurisdiction to handle the issues brought to the fore by the rapidly developing A.I. sector, including collusion, monopolization, mergers, price discrimination and unfair methods of competition.

    And generative A.I. risks turbocharging fraud. It may not be ready to replace professional writers, but it can already do a vastly better job of crafting a seemingly authentic message than your average con artist — equipping scammers to generate content quickly and cheaply. Chatbots are already being used to generate spear-phishing emails designed to scam people, fake websites and fake consumer reviews —bots are even being instructed to use words or phrases targeted at specific groups and communities. Scammers, for example, can draft highly targeted spear-phishing emails based on individual users’ social media posts. Alongside tools that create deep fake videos and voice clones, these technologies can be used to facilitate fraud and extortion on a massive scale.
    Editors’ Picks
    If You Stop Mowing This May, Will Your Lawn Turn Into a Meadow?
    My Weekend With an Emotional Support A.I. Companion
    Nothing Says Fashion in 2023 Like a Corset Hoodie

    When enforcing the law’s prohibition on deceptive practices, we will look not just at the fly-by-night scammers deploying these tools but also at the upstream firms that are enabling them.

    Lastly, these A.I. tools are being trained on huge troves of data in ways that are largely unchecked. Because they may be fed information riddled with errors and bias, these technologies risk automating discrimination — unfairly locking out people from jobs, housing or key services. These tools can also be trained on private emails, chats and sensitive data, ultimately exposing personal details and violating user privacy. Existing laws prohibiting discrimination will apply, as will existing authorities proscribing exploitative collection or use of personal data.

    The history of the growth of technology companies two decades ago serves as a cautionary tale for how we should think about the expansion of generative A.I. But history also has lessons for how to handle technological disruption for the benefit of all. Facing antitrust scrutiny in the late 1960s, the computing titan IBM unbundled software from its hardware systems, catalyzing the rise of the American software industry and creating trillions of dollars of growth. Government action required AT&T to open up its patent vault and similarly unleashed decades of innovation and spurred the expansion of countless young firms.

    America’s longstanding national commitment to fostering fair and open competition has been an essential part of what has made this nation an economic powerhouse and a laboratory of innovation. We once again find ourselves at a key decision point. Can we continue to be the home of world-leading technology without accepting race-to-the-bottom business models and monopolistic control that locks out higher quality products or the next big idea? Yes — if we make the right policy choices.

    #Lina_Khan #Régulation #Intelligence_artificielle

  • The biggest technology failures of 2022 | MIT Technology Review
    https://www.technologyreview.com/2022/12/21/1065625/worst-technology-2022

    We’re back with our latest list of the worst technologies of the year. Think of these as anti-breakthroughs, the sort of mishaps, misuses, miscues, and bad ideas that lead to technology failure. This year’s disastrous accomplishments range from deadly pharmaceutical chemistry to a large language model that was jeered off the internet.

    One theme that emerges from our disaster list is how badly policy—the rules, processes, institutions, and ideals that govern technology’s use—can let us down. In China, a pervasive system of pandemic controls known as “zero covid” came to an abrupt and unexpected end. On Twitter, Elon Musk intentionally destroyed the site’s governing policies, replacing them with a puckish and arbitrary mix of free speech, personal vendettas, and appeals to the right wing of US politics. In the US, policy failures were evident in the highest levels of overdose deaths ever recorded, many of them due to a 60-year-old chemical compound: fentanyl.

    The impact of these technologies could be measured in the number of people affected. More than a billion people in China are now being exposed to the virus for the first time; 335 million on Twitter are watching Musk’s antics; and fentanyl killed 70,000 in the US. In each of these messes, there are important lessons about why technology fails.

    #Technologie #Régulation

  • La grande exploitation agricole dans la course au #foncier
    https://metropolitiques.eu/La-grande-exploitation-agricole-dans-la-course-au-foncier.html

    Les grandes exploitations sont toujours plus nombreuses en France, au détriment de l’agriculture alternative qui peine à se développer, notamment dans l’aire d’attraction des villes. Le droit, qui régule l’accès au foncier, ainsi que les mécanismes d’octroi des aides, expliquent en partie ce processus. Les exploitations agricoles ne cessent en France de s’agrandir. Celles qu’on qualifie de grandes s’arrogent-elles le foncier dans les aires urbaines au détriment des plus petites ? Quels rôles jouent, #Essais

    / #régulation_foncière, #concentration, #marché_foncier, foncier, #rente_foncière

    https://metropolitiques.eu/IMG/pdf/met-grimonprez.pdf

  • Interview de Anne Cordier - Régulation d’Internet en Californie : « Sous prétexte de protéger les enfants, on autorise un fichage permanent"
    https://www.20minutes.fr/by-the-web/4008611-20221104-regulation-internet-californie-sous-pretexte-proteger-enf
    https://img.20mn.fr/Z6GazKFORS6v5cFwfl1Hhyk/1200x768_mexico-city-mexico-august-25-a-young-woman-takes-online-classes-fr

    INTERVIEW « 20 Minutes » a tenté avec Anne Cordier, spécialiste des usages du numérique dans l’éducation, d’imaginer une transposition en France de la loi californienne sur la régulation d’Internet, et notamment dans l’accès aux mineurs
    Propos recueillis par Laure Gamaury

    Une loi particulièrement stricte sur la régulation d’Internet, et notamment l’accès des mineurs à des contenus sensibles, a été votée en Californie et s’appliquera au 1er juillet 2024.
    Est-il possible et souhaitable de la transposer en France ? Anne Cordier, spécialiste des usages du numérique dans l’éducation, répond aux questions de 20 Minutes.
    « Sous prétexte de protéger les enfants, on autorise un fichage permanent, en considérant que l’accès à leurs profils, leurs données personnelles est possible, et même souhaitable. C’est quand même compliqué d’imaginer une société où les individus préfèrent déléguer à un dispositif sa propre régulation », analyse-t-elle.

    Alors que la France peine à régler la question de la vérification de l’âge des mineurs pour les contenus en ligne, et notamment ce qui concerne l’accès à la pornographie, la Californie vient d’adopter une législation très stricte pour protéger les plus jeunes. Elle sera effective au 1er juillet 2024 et doit pallier le manque de vigilance d’Internet qui ne parvient pas à déterminer de manière sûre et définitive si l’internaute est majeur ou mineur quand il se connecte à des contenus potentiellement sensibles.

    La nouvelle loi impose que « toute entreprise qui propose un service en ligne dédié aux moins de 18 ans ou susceptible d’être utilisé par des mineurs doit tenir compte de l’intérêt supérieur des enfants lors de la conception, du développement et de la fourniture de ses services. En cas de conflit entre les intérêts commerciaux et l’intérêt supérieur des enfants, les entreprises doivent donner la priorité à la vie privée, à la sécurité et au bien-être des enfants sur les intérêts commerciaux. » Bien plus intrusive que le RGPD, cette nouvelle loi pose une multitude de questions, dont la principale est de savoir si cette législation applicable et surtout souhaitable en France. Éléments de réponse avec Anne Cordier, spécialiste des usages du numérique dans l’éducation.

    Est-il possible de voir une telle législation en France ? Est-ce même souhaitable ?

    Dans son aspect très rigide, il me paraît difficile d’envisager un transfert tel quel, c’est effrayant. Mais le DSA, voté par le Parlement européen, et sa déclinaison en France qui est la loi sur les services numériques, reprend certains aspects de cette législation, notamment sur le plan de la régulation. Elle est moins rigide et heureusement, ne serait-ce qu’en termes de faisabilité.

    Je ne pense pas que cette législation soit souhaitable en France, car on prête à la loi dans ce cas une valeur et un pouvoir éducatifs. Ce n’est pas son rôle. Elle peut néanmoins aider, comme le RGPD avant elle, à mettre en place des processus éducatifs. Mais une loi aussi rigide ne peut se substituer à l’accompagnement, la prévention et l’émancipation éducative. Et puis, sous prétexte de protéger les enfants, on autorise un fichage permanent, en considérant que l’accès à leurs profils et à leurs données personnelles est possible, et même souhaitable. C’est quand même compliqué d’imaginer une société où les individus préfèrent déléguer à un dispositif sa propre régulation.

    Devant la difficulté de l’Arcom à faire appliquer la législation européenne, n’est-il pas tentant d’aller vers ce type de loi bien plus restrictive ?

    Hélas oui ! Mais la tentation est vraiment très mauvaise. La difficulté de la mise en place en France est en grande partie liée à des cadres très peu clairs et à un manque de solutions pratiques. Il paraît difficile d’imposer les mêmes contrôles à des plateformes qui n’ont pas les mêmes moyens techniques et technologiques à leur disposition. A mon sens, on s’intéresse plus au pansement qu’au véritable problème derrière. La question n’est pas de savoir comment mieux surveiller ou contrôler, mais bien de traiter les dérives à la racine en éduquant et en prévenant. On a une responsabilité sociale et sociétale dans l’accès des mineurs à des contenus inappropriés en ligne et on tente de le résoudre à grands coups d’arsenal juridique et non pas en améliorant le vivre-ensemble.

    Y a-t-il quand même des éléments à retenir dans cette législation californienne ?

    Il y a bien l’analyse de risques en amont de la mise en ligne d’un service, qui pourrait être intéressante. Mais étant donné que les résultats n’ont pas vocation à être communiqués, on rencontre un souci de transparence qui me gêne. Comment va-t-elle être effectuée ? Comment les experts vont-ils être choisis ?

    Concernant la surveillance des algorithmes, j’ai l’impression que c’est impossible à mettre en pratique. Comment imaginer que les plateformes laissent l’accès à des algorithmes qu’elles gardent jalousement secrets ? J’ai l’impression d’un effet d’annonce avec ce type de mesure, pour rassurer les gens, les prendre en charge. Sauf que pour moi, c’est un somnifère. Comment va-t-on pouvoir réellement contrôler ce genre de choses ?

    #Anne_Cordier #Régulation #Economie_numérique #Enfants #DSA

  • Europe prepares to rewrite the rules of the Internet | Ars Technica
    https://arstechnica.com/tech-policy/2022/10/europe-prepares-to-rewrite-the-rules-of-the-internet

    Next week, a law takes effect that will change the Internet forever—and make it much more difficult to be a tech giant. On November 1, the European Union’s Digital Markets Act comes into force, starting the clock on a process expected to force Amazon, Google, and Meta to make their platforms more open and interoperable in 2023. That could bring major changes to what people can do with their devices and apps, in a new reminder that Europe has regulated tech companies much more actively than the US.

    “We expect the consequences to be significant,” says Gerard de Graaf, a veteran EU official who helped pass the DMA early this year. Last month, he became director of a new EU office in San Francisco, established in part to explain the law’s consequences to Big Tech companies. De Graaf says they will be forced to break open their walled gardens.

    “If you have an iPhone, you should be able to download apps not just from the App Store but from other app stores or from the Internet,” de Graaf says in a conference room with emerald-green accents at the Irish consulate in San Francisco, where the EU’s office is initially located. The DMA requires dominant platforms to let in smaller competitors and could also compel Meta’s WhatsApp to receive messages from competing apps like Signal or Telegram, or prevent Amazon, Apple, and Google from preferencing their own apps and services.

    #Economie_numérique #régulation #DMA #DSA

  • Les « dark stores » sont des entrepôts : le gouvernement se rallie à la position des maires, qui veulent réguler leur implantation
    https://www.lemonde.fr/economie/article/2022/09/07/les-dark-stores-sont-des-entrepots-le-gouvernement-se-rallie-a-la-position-d

    Les « dark stores » sont donc bien des entrepôts. Cette définition sans équivoque est celle qu’a finalement décidé de retenir le gouvernement au terme d’une réunion de concertation très attendue, menée, mardi 6 septembre, avec les maires des grandes villes de France. « Et il n’y a plus de “sauf si” », ont insisté la ministre déléguée au commerce, Olivia Grégoire, et le ministre délégué au logement et à la ville, Olivier Klein. Que ces lieux, fermés, consacrés à la livraison de courses commandées en ligne aient installé ou non un comptoir de retrait, ce ne sont pas des commerces, ont insisté les deux ministres.

    Cette clarification, qui doit être encore confirmée dans un arrêté, pourrait mettre fin à plusieurs mois de crispations autour de ces activités de livraison rapide, voire ultrarapide, apparues dans les centres-villes et dont les maires – ceux de Paris et des grandes métropoles en tête – ne cessent de dénoncer les nuisances.

    Pour les « dark kitchens », ces cuisines consacrées à la confection de plats à livrer, et dont certaines, par leur taille, provoquent d’importantes nuisances pour le voisinage, la solution retenue est encore vague. L’idée serait de créer une nouvelle catégorie, ou sous-destination, dans le code de l’urbanisme. « Avec le risque que le flou juridique persiste, si la rédaction n’est pas claire », met en garde France urbaine.

    Ce consensus trouvé sur le statut de ces activités ne signifie pas forcément la fin de celles-ci. En revanche, à présent que le flou juridique est levé, les enseignes vont devoir se plier à la règle. Cela signifie, car c’est ainsi que cela fonctionne en France, qu’elles devront s’installer là où le maire aura jugé opportun, au moment de la rédaction de son plan local d’urbanisme (PLU), qu’une activité de logistique urbaine soit implantée.

    Pour les « dark stores » déjà en place, « les règles devront s’appliquer » aussi, insiste Olivier Klein. A Paris, où le PLU les considère déjà comme des entrepôts (car la zone de stockage est supérieure à un tiers de la surface), la plupart des acteurs des courses express sont hors des clous. Soit parce qu’ils sont installés au rez-de-chaussée d’un immeuble d’habitation, soit parce qu’ils ont transformé, sans autorisation, un local commercial en entrepôt.

    Une partie avait décidé de passer outre aux rappels à l’ordre de la municipalité. Les règles ne sont pas adaptées à leur modèle, l’Etat modifiera tout cela, expliquaient-ils alors. La procureure de Paris est saisie de plusieurs dossiers. En parallèle, la Ville les a mis en demeure de régulariser leur situation. Les premières astreintes financières – plafonnées à 500 euros par jour, dans une limite de 25 000 euros – doivent tomber dans les tout prochains jours.

    #Urbanisme #dark_kitchen #Dark_store #Régulation

  • Commentaires de Zeynep Tufekci suite au discours de Barack Obama sur la régulation des médias sociaux.
    https://twitter.com/zeynep/status/1517305731355131904

    So, Barack Obama has taken up fighting disinformation. NYT notes how his administration didn’t regulate tech.

    When I started writing about it, a decade ago, the pushback I got from the Obama universe was intense, and is hinted at the below profile of me.
    https://www.nytimes.com/2020/08/23/business/media/how-zeynep-tufekci-keeps-getting-the-big-things-right.html

    There was a lovefest between the Obama universe and Silicon Valley. Suggesting that wasn’t a good thing, and we needed to regulate for privacy and for a healthy public sphere was not considered unacceptable.

    I heard of attempts to blacklist me from conferences, and more stuff.

    (I haven’t written about most of this publicly. I try to focus on the substance. Some people from that world have called to apologize. It’s fine. The issue isn’t that I was right, and got treated terribly regardless, but that we all lost).

    When that profile was written in 2020, I had just spent months arguing for masks as a tool. I got called a misinformer going against scientists etc.

    Profile notes my next big target to argue against seeming consensus is importance of ventilation and airborne transmission. lolsob

    I also spent a lot of time organizing against the war in Iraq in 2003, my first real effort to change anything in the United States. It had similar overtones: a seeming strong elite consensus, and anyone who disagreed was considered naive or misinformed, etc. etc. We failed.❞

    Sometimes, going against consensus is conflated with contrarianism. Contrarianism is juvenile, and misleads people. It’s not a good habit.

    The opposite of contrarianism isn’t accepting elite consensus or being gullible.

    Groupthink, especially when big interests are involved, is common. The job is to resist groupthink with facts, logic, work and a sense of duty to the public. History rewards that, not contrarianism.

    To get the right lessons from why we fail—be it masks or airborne transmission or failing to regulate tech when we could or Iraq war—it’s key to study how that groupthink occurred. It’s a sociological process: vested interests arguing themselves into positions that benefit them.

    Indeed, Barack Obama became president exactly because he saw how that groupthink happened in the runup to the Iraq war, sadly aided by gullible “access journalism”, and ran on a platform to not do that again.

    And yet, every age brings its own version, to challenge us once again.

    Two things.

    It’s key to understand why and how some false things seem like consensus, only to be acknowledged later they were wrong.

    We must find more ways to productively challenge these consensus-of-vested-interests at the time, so we don’t lose more time and just lose.

    So to end: being vindicated isn’t the goal, though people will often be if they resist groupthink with facts, logic and putting the public interest above all, especially above fitting in or what accolades may be available to the conformist or yaysayers.

    But having been through multiple cycles of this, I think it’s important to understand how and why things happened the way they did. It’s not about vindication or I-told-you-so (and it sounds like it, which makes it harder to talk about but it should be talked about in general).

    “History Doesn’t Repeat Itself, but It Often Rhymes”, as Mark Twain said.

    Understanding history, including recent history, is a powerful conceptual tool.

    A little bit more “how did we get here” can maybe help us avoid having to ask the question again and again and again.

    #Médias_sociaux #régulation #Zeynep_Tufekci #Barack_Obama

  • Obama Calls for More Oversight of Social Media in Speech at Stanford - The New York Times
    https://www.nytimes.com/2022/04/21/technology/obama-stanford-tech-regulation.html?algo=combo_lda_channelsize5_unique_edim

    PALO ALTO, Calif. — Former President Barack Obama on Thursday called for greater regulatory oversight of the country’s social media giants, saying their power to curate the information that people consume has “turbocharged” political polarization and threatened the pillars of democracy across the globe.

    Weighing in on the debate over how to address the spread of disinformation, he said the companies needed to subject their proprietary algorithms to the same kind of regulatory oversight that ensured the safety of cars, food and other consumer products.

    “Tech companies need to be more transparent about how they operate,” Mr. Obama said in a speech at Stanford University, long an incubator for the tech sector in Silicon Valley. “So much of the conversation around disinformation is focused on what people post. The bigger issue is what content these platforms promote.”

    The former president lent his support to proposals to revise a key legal shield for internet companies: Section 230 of the Communications Decency Act, which protects social media platforms from liability for content that their users post. Supporters of a change believe it would force companies to do more to curb illegal or dangerous behavior — from drug sales to disinformation with equally harmful consequences.

    Mr. Obama, while praising the internet’s transformative benefits, urged companies to put social responsibility ahead of the relentless quest for profits.

    “These companies need to have some other North Star than just making money and increasing profit shares,” he said.

    Mr. Obama spoke at a conference organized by Stanford’s Cyber Policy Center, which is dedicated to the challenges the digital world has created for democracy in the United States and beyond. He cited his own effective use of social media as a candidate but also his frustration with how Russia’s president, Vladimir V. Putin, used social media to influence the outcome of the 2016 presidential election.

    “What does still nag at me was my failure to fully appreciate how susceptible we had become to lies and conspiracy theories, despite being a target of disinformation myself,” he said, referring to, among other things, the false debate over his U.S. birth certificate. “Putin didn’t do that. He didn’t have to. We did it to ourselves.”

    #Médias_sociaux #Barack_Obama #régulation

  • Entre polémiques et acquisitions, les aventures de #Spotify au pays de la #régulation des plateformes…

    Les plateformes sont-elles responsables du contenu qu’elles proposent ?

    Mais la question de la responsabilité se pose, car le service de #streaming n’est pas simplement la plateforme qui héberge le podcast de #Joe_Rogan. Pour l’exclusivité de ce #podcast, Spotify aurait en fait payé 200 millions de dollars, soit le double de ce qui avait été estimé lors de la signature. Un contrat important qui fait du géant américain un éditeur et un diffuseur, et non un simple hébergeur de contenus.

    https://hyperradio.radiofrance.com/blog/entre-polemiques-et-acquisitions-les-aventures-de-spotify-au

    Le podcast de Joe Rogan a coûté deux fois cher à Spotify que ce qui était avancé jusqu’à présent
    200 millions de dollars, et non pas 100 millions

    https://www.numerama.com/politique/859787-le-podcast-de-joe-rogan-a-coute-deux-fois-cher-a-spotify-que-ce-qui

  • Des mobilisations à la dérégulation
    https://laviedesidees.fr/Des-mobilisations-a-la-deregulation.html

    À propos de : Paul Sabin, Public Citizens. The attack on Big Government and the Remaking of American Liberalism, New York, W.W. Norton & Company. L’historien Paul Sabin retrace l’histoire des mobilisations citoyennes qui, en militant pour les droits des consommateurs et la protection de l’environnement dans les années 1960-70, ont sapé l’ordre issu du New Deal, fait le lit du #conservatisme et conduit à la dérégulation du #libéralisme.

    #Histoire #États-Unis #régulation
    https://laviedesidees.fr/IMG/docx/202201_mobilisations_us.docx

  • Informing the Disinfo Debate: A Policy Guide for Protecting Human Rights | liberties.eu
    https://www.liberties.eu/en/stories/disinformation-protecting-human-rights/43927

    Liberties, in cooperation with Access Now and EDRi, published a policy guide on how to tackle disinformation while protecting human rights. The report sets out certain actions that need to be taken in order to achieve this goal:

    Advertising based on tracking and targeting of personal data needs to be phased out. Targeted ads should be limited to using the information users provide voluntarily and explicitly for that purpose. Users should also be able to access, review and change what a platform knows about them. To give users ownership over their data and to provide proper transparency, content-recommendation systems need to be explained. This information should include the data input and how the algorithm was tested, which will make it easier to contest algorithmic decision-making. (...)

    #désinformation #fakenews #internet #régulation #vieprivée

  • FTC to Ramp up Enforcement against Illegal Dark Patterns that Trick or Trap Consumers into Subscriptions | Federal Trade Commission
    https://www.ftc.gov/news-events/press-releases/2021/10/ftc-ramp-enforcement-against-illegal-dark-patterns-trick-or-trap

    Il faut une loi semblable en France !!!
    Quand je disais que Lina Khan (qui dirige actuellement la FTC) était une personne à suivre...

    The Federal Trade Commission issued a new enforcement policy statement warning companies against deploying illegal dark patterns that trick or trap consumers into subscription services. The agency is ramping up its enforcement in response to a rising number of complaints about the financial harms caused by deceptive sign up tactics, including unauthorized charges or ongoing billing that is impossible cancel.

    The FTC’s policy statement puts companies on notice that they will face legal action if their sign-up process fails to provide clear, up-front information, obtain consumers’ informed consent, and make cancellation easy.

    “Today’s enforcement policy statement makes clear that tricking consumers into signing up for subscription programs or trapping them when they try to cancel is against the law,” said Samuel Levine, Director of the FTC’s Bureau of Consumer Protection. “Firms that deploy dark patterns and other dirty tricks should take notice.”

    This policy statement builds on the many enforcement actions taken by the FTC and other law enforcement agencies against illegal subscription tricks and traps sometimes used by unscrupulous sellers in automatic renewal subscriptions, continuity plans, free-to-pay or free-to-pay conversions, and pre-notification plans.

    The FTC has brought cases challenging a variety of illegal subscription practices. It has sued companies that hid important payment information, or even the fact that consumers would be charged at all, behind hyperlinks, hover-overs or in inconspicuous places or buried on pages beyond the initial offer page. It has sued companies that made consumers wait on hold or listen to lengthy ads before they could cancel. It has sued companies that converted free trials to paid subscriptions before the free trial ended. And, recently, the FTC sued a company that failed to disclose that widely advertised, material benefits of the subscription were no longer available.

    Under the enforcement policy statement issued today, businesses must follow three key requirements or be subject to law enforcement action, including potential civil penalties:

    Disclose clearly and conspicuously all material terms of the product or service, including how much it costs, deadlines by which the consumer must act to stop further charges, the amount and frequency of such charges, how to cancel, and information about the product or service itself that is needed to stop consumers from being deceived about the characteristics of the product or service. The statement provides detail on what clear and conspicuous means, particularly noting that the information must be provided upfront when the consumer first sees the offer and generally as prominent as the deal offer itself.
    Obtain the consumer’s express informed consent before charging them for a product or services. This includes obtaining the consumer’s acceptance of the negative option feature separately from other portions of the entire transaction, not including information that interferes with, detracts from, contradicts, or otherwise undermines the consumer’s ability to provide their express informed consent.
    Provide easy and simple cancellation to the consumer. Marketers should provide cancellation mechanisms that are at least as easy to use as the method the consumer used to buy the product or service in the first place.

    #Souscriptions #Lina_Khan #Régulation #Commerce_électronique

  • #Concentration_des_médias : des universitaires alertent sur l’insuffisance des outils de #régulation | Public Senat
    https://www.publicsenat.fr/article/parlementaire/concentration-des-medias-des-universitaires-alertent-sur-l-insuffisance-

    La commission d’enquête du Sénat sur la concentration des #médias entamait ses travaux ce mardi par une table ronde d’universitaires. Pour les intervenants, la législation actuelle n’est plus adaptée pour garantir le pluralisme dans les différents médias.

  • Néolibéralisme à la française
    https://laviedesidees.fr/Bruno-Amable-resistible-ascension-neoliberalisme.html

    À propos de : Bruno Amable, La résistible ascension du néolibéralisme. Modernisation capitaliste et #crise politique en #France (1980-2020), La Découverte.. De la « rigueur » de Mitterrand au « mandat » de Hollande, Bruno Amable retrace la transformation du capitalisme français et démonte la fabrique d’une crise politique.

    #Économie #libéralisme #socialisme #chômage #régulation #marché #néo-libéralisme #Books_and_ideas_originals
    https://laviedesidees.fr/IMG/docx/en_soener_neoliberalism_3022020.docx
    https://laviedesidees.fr/IMG/pdf/en_soener_neoliberalism_3022020.pdf
    https://laviedesidees.fr/IMG/docx/20211028_amable.docx