• Les nouveaux pouvoirs à l’ère de l’intelligence artificielle
    https://blogs.mediapart.fr/emmanuel-prados/blog/220221/les-nouveaux-pouvoirs-l-ere-de-l-intelligence-artificielle

    L’avènement de l’économie de la donnée bouleverse l’ensemble des paradigmes économiques et politiques. De nouvelles formes de pouvoir systémiques apparaissent, cristallisées autour des Big Tech (en particulier les GAFAM). Celles-ci viennent heurter les fonctions étatiques en termes de souveraineté, de gestion de l’espace public et d’exercice démocratique... L’avènement de l’économie de la donnée bouleverse l’ensemble des paradigmes économiques et politiques. De nouvelles formes de pouvoir systémiques (...)

    #éthique #domination #BigData #GAFAM

  • Google fires Margaret Mitchell, another top researcher on its AI ethics team
    https://www.theguardian.com/technology/2021/feb/19/google-fires-margaret-mitchell-ai-ethics-team

    The dismissal comes after prominent Black researcher Timnit Gebru was fired in December ; both had called for more diversity among research staff Google has fired one of its top artificial intelligence researchers, Margaret Mitchell, escalating internal turmoil at the company following the departure of Timnit Gebru, another leading figure on Google’s AI ethics team. Mitchell, who announced her firing on Twitter, did not immediately respond to requests for comment. In a statement to (...)

    #Google #éthique #racisme #discrimination #licenciement #surveillance #travail

    https://i.guim.co.uk/img/media/1386067ed67adcc144c4e928818347472d171699/0_165_3500_2100/master/3500.jpg

  • L’alternative biorégionaliste
    https://metropolitiques.eu/L-alternative-bioregionaliste.html

    Sommes-nous condamnés à être les témoins impuissants, sinon les acteurs d’un écocide généralisé ? Quelles solutions pouvons-nous avancer pour se reconnecter à la nature ? Comment réinventer un habitat respectueux du vivant ? Le « manifeste biorégionaliste » de Mathias Rollot apporte des réponses à ces questions. Le biorégionalisme est un mouvement d’écologie profonde créé dans les années 1970 par d’anciens Diggers, groupe anarchiste san-franciscain très actif au cours de la décennie précédente (Gaillard 2014). #Commentaires

    / #territoire, #biorégion, #géographie, #écologie

    https://metropolitiques.eu/IMG/pdf/met_stuppia.pdf

  • #Google. Deuxième chercheuse licenciée dans l’équipe « Éthique et #intelligence_artificielle »

    Deux mois après #Timmit_Gebru, c’est dont la responsable de l’équipe #Éthique_et_intelligence_artificielle que Google licencie. Elle avait dénoncé le licenciement de la chercheuse, mais plus généralement le déni des pratiques discriminatoires de l’entreprise.

    –-> dépêche AFP, enrichie, d’après France 24

    Les libertés académiques et la protection économique dûe aux chercheuses et aux chercheurs s’applique-t’elle dans les grandes firmes qui soutiennent des activités de recherche ? La question se pose avec le second licenciement opéré par Google dans son équipe Éthique et intelligence artificielle.

    #Margaret_Mitchell, qui a fondé l’équipe de recherche en éthique et intelligence artificielle de Google, a été « virée » (« I am fired »), a-t-elle annoncée vendredi sur Twitter, un mois après sa #suspension qui avait déjà valu des critiques au géant des technologies.

    « Après avoir passé en revue le comportement de cette directrice, nous avons confirmé qu’il y a eu de multiples infractions à notre #code_de_conduite, ainsi que de nos règlements sur la sécurité, y compris l’exfiltration de documents confidentiels sensibles et de données privées sur d’autres employés »,

    a déclaré un porte-parole du groupe californien à l’AFP.

    En janvier, Margaret Mitchell s’était vue refuser l’accès à son compte professionnel, quelques semaines après le renvoi d’un membre de son équipe, Timnit Gebru.

    « Ce sont des attaques contre les personnes qui essaient de rendre la technologie de Google plus #éthique »,

    avait réagi un porte-parole du #Alphabet_Workers_Union, le syndicat récemment formé par des employés du groupe.

    Google reproche à la chercheuse en éthique et intelligence artificielle d’avoir téléchargé un grand nombre de documents liés à son ancienne collègue et de les avoir ensuite partagés avec des personnes extérieures.

    Mais la société fait face à des critiques car Margaret Mitchell accuse l’entreprise de l’avoir forcée à se rétracter sur des résultats de recherche.

    Sous son tweet de vendredi – « j’ai été virée » – les messages de soutien abondaient.

    « J’imagine que ça veut dire que l’IA éthique n’a pas sa place dans une société capitaliste »,

    a commenté #Chelsea_Manning, l’ancienne analyste militaire qui a été condamnée pour trahison après avoir transmis des documents classés secret défense à WikiLeaks.

    Le 19 janvier, deux jours avant sa suspension, l’informaticienne avait critiqué publiquement le directeur exécutif du groupe, #Sundar_Pichai, sur le thème du racisme.

    « Disons que vous avez un problème parce que vous n’arrêtez pas de vous aliéner les femmes noires et que vous leur causez des torts importants »,

    avait-elle tweeté au-dessus d’un lien vers un article de CNN intitulé « Le patron de Google rencontre des dirigeants d’universités noires après des accusations de #racisme ».

    « Vous pouvez : A) essayer de réparer vos torts B) essayer de trouver plus de personnes noires pour vous apprécier (l’approche symbolique et superficielle). Bonne chance… ».

    En décembre, plus de 1.400 employés de Google et près de 2000 autres personnes ont signé une lettre appelant l’entreprise à expliquer pourquoi Timnit Gebru avait été renvoyée et pour quelles raisons elle avait dû se rétracter.

    Ils demandaient aussi à Alphabet de s’engager « sans équivoque » en faveur de l’intégrité de la recherche et de la liberté académique.

    https://academia.hypotheses.org/31162
    #AI #IA #licenciement

  • Google fires top AI ethics researcher Margaret Mitchell
    https://techcrunch.com/2021/02/19/google-fires-top-ai-ethics-researcher-margaret-mitchell/?guccounter=1

    Google has fired Margaret Mitchell, the founder and former co-lead of the company’s ethical AI team. Mitchell announced the news via a tweet. Google confirmed Mitchell’s firing in a statement to TechCrunch ; Google said : After conducting a review of this manager’s conduct, we confirmed that there were multiple violations of our code of conduct, as well as of our security policies, which included the exfiltration of confidential business-sensitive documents and private data of other (...)

    #Google #éthique #discrimination #licenciement #surveillance #travail

  • Design Justice : repolitiser le design
    https://www.internetactu.net/2021/02/03/design-justice-repolitiser-le-design

    Sasha Costanza-Chock (@schock), activiste, professeure associée au Laboratoire d’études comparatives sur les médias du MIT et chercheuse associée à la Ligue pour la justice algorithmique (@ajlunited), fondatrice du défunt Codesign Studio du MIT, est l’auteure de Design Justice : community-led practices to build the worlds we need (MIT Press, 2020, non-traduit, disponible en accès ouvert). Comme son titre l’indique, Design Justice invite à reconcevoir la justice sociale, c’est-à-dire les rapports de (...)

    #éthique #technologisme #art #travail #sexisme #discrimination #LGBT

    /assets/images/logo_ia.png

  • This is how we lost control of our faces | MIT Technology Review
    https://www.technologyreview.com/2021/02/05/1017388/ai-deep-learning-facial-recognition-data-history

    The largest ever study of facial-recognition data shows how much the rise of deep learning has fueled a loss of privacy.
    by

    Karen Hao
    February 5, 2021

    In 1964, mathematician and computer scientist Woodrow Bledsoe first attempted the task of matching suspects’ faces to mugshots. He measured out the distances between different facial features in printed photographs and fed them into a computer program. His rudimentary successes would set off decades of research into teaching machines to recognize human faces.

    Now a new study shows just how much this enterprise has eroded our privacy. It hasn’t just fueled an increasingly powerful tool of surveillance. The latest generation of deep-learning-based facial recognition has completely disrupted our norms of consent.

    People were extremely cautious about collecting, documenting, and verifying face data in the early days, says Raji. “Now we don’t care anymore. All of that has been abandoned,” she says. “You just can’t keep track of a million faces. After a certain point, you can’t even pretend that you have control.”

    A history of facial-recognition data

    The researchers identified four major eras of facial recognition, each driven by an increasing desire to improve the technology. The first phase, which ran until the 1990s, was largely characterized by manually intensive and computationally slow methods.

    But then, spurred by the realization that facial recognition could track and identify individuals more effectively than fingerprints, the US Department of Defense pumped $6.5 million into creating the first large-scale face data set. Over 15 photography sessions in three years, the project captured 14,126 images of 1,199 individuals. The Face Recognition Technology (FERET) database was released in 1996.

    The following decade saw an uptick in academic and commercial facial-recognition research, and many more data sets were created. The vast majority were sourced through photo shoots like FERET’s and had full participant consent. Many also included meticulous metadata, Raji says, such as the age and ethnicity of subjects, or illumination information. But these early systems struggled in real-world settings, which drove researchers to seek larger and more diverse data sets.

    In 2007, the release of the Labeled Faces in the Wild (LFW) data set opened the floodgates to data collection through web search. Researchers began downloading images directly from Google, Flickr, and Yahoo without concern for consent. LFW also relaxed standards around the inclusion of minors, using photos found with search terms like “baby,” “juvenile,” and “teen” to increase diversity. This process made it possible to create significantly larger data sets in a short time, but facial recognition still faced many of the same challenges as before. This pushed researchers to seek yet more methods and data to overcome the technology’s poor performance.

    Then, in 2014, Facebook used its user photos to train a deep-learning model called DeepFace. While the company never released the data set, the system’s superhuman performance elevated deep learning to the de facto method for analyzing faces. This is when manual verification and labeling became nearly impossible as data sets grew to tens of millions of photos, says Raji. It’s also when really strange phenomena start appearing, like auto-generated labels that include offensive terminology.

    Image-generation algorithms are regurgitating the same sexist, racist ideas that exist on the internet.

    The way the data sets were used began to change around this time, too. Instead of trying to match individuals, new models began focusing more on classification. “Instead of saying, ‘Is this a photo of Karen? Yes or no,’ it turned into ‘Let’s predict Karen’s internal personality, or her ethnicity,’ and boxing people into these categories,” Raji says.

    Amba Kak, the global policy director at AI Now, who did not participate in the research, says the paper offers a stark picture of how the biometrics industry has evolved. Deep learning may have rescued the technology from some of its struggles, but “that technological advance also has come at a cost,” she says. “It’s thrown up all these issues that we now are quite familiar with: consent, extraction, IP issues, privacy.”

    Raji says her investigation into the data has made her gravely concerned about deep-learning-based facial recognition.

    “It’s so much more dangerous,” she says. “The data requirement forces you to collect incredibly sensitive information about, at minimum, tens of thousands of people. It forces you to violate their privacy. That in itself is a basis of harm. And then we’re hoarding all this information that you can’t control to build something that likely will function in ways you can’t even predict. That’s really the nature of where we’re at.”

    #Reconnaissance_faciale #éthique #Histoire_numérique #Surveillance

  • US has ’moral imperative’ to develop AI weapons, says panel
    https://www.theguardian.com/science/2021/jan/26/us-has-moral-imperative-to-develop-ai-weapons-says-panel

    Draft Congress report claims AI will make fewer mistakes than humans and lead to reduced casualties The US should not agree to ban the use or development of autonomous weapons powered by artificial intelligence (AI) software, a government-appointed panel has said in a draft report for Congress. The panel, led by former Google chief executive Eric Schmidt, on Tuesday concluded two days of public discussion about how the world’s biggest military power should consider AI for national security (...)

    #Alphabet #Google #Microsoft #algorithme #robotique #éthique #militaire #arme

    https://i.guim.co.uk/img/media/c4d5bdc56149c16b78594a9c8b70d3f570bbba2d/0_129_3500_2100/master/3500.jpg

  • La valeur d’une vie

    Bientôt les pauvres n’auront plus le droit de parler, les vieux de vivre et les jeunes de chanter. Une alliance inédite entre la science, la rationalité économique et le néolibéralisme autoritaire prépare des monstres que nous ne soupçonnons pas. Cette alliance nous accommode au pire, dont le renoncement aux valeurs et principes qui fondent le vivre ensemble et notre humanité.

    La gestion politique de la #crise_sanitaire est une machine à discriminer. Elle élève au carré les #inégalités sociales et économiques, de classe et de genre, et aujourd’hui les inégalités devant le #droit_à_la_santé et à la vie. Ces inégalités étaient insupportables avant la pandémie. Elles sont aujourd’hui la cause d’un effondrement social, économique et tout simplement moral. Si des études sérieuses (voir celle de l’INSEE ici) montrent que le virus « creuse les inégalités », ce sont avant tout les politiques néolibérales qui causent en priorité la mort des personnes âgées et des plus pauvres, l’exposition et la fragilisation des ouvriers, quand les classes sociales les plus favorisées traversent la pandémie avec infiniment moins de risque.

    Les choix politiques du gouvernement en matière de gestion de la crise sont passés successivement du mensonge d’Etat aux errements criminels, des errements à la bureaucratisation inefficace, de la bureaucratisation à la rationalisation impuissante, et désormais de la rationalisation au contrôle des corps. Cette dernière étape nous fait entrer dans la plus vertigineuse des dystopies. Des hommes politiques et des médecins ont pu concevoir d’interdire la parole dans les transports en commun. Alors que l’impératif sanitaire de la distance (physique et sociale) crée des pathologies de masse, il faudrait encore que les pauvres et le jeunes s’imposent le silence dans les transports en commun. Pourquoi donc l’Etat n’a-t-il pas pris depuis mars 2020 les dispositions qui auraient permis à chaque personne qui prend un bus, un tram ou un métro de bénéficier gratuitement d’un masque FFP2 ? Au lieu de cela on interdit aux plus défavorisés et aux jeunes de porter leur masque artisanal, sans prévoir une campagne et des moyens de protection pour quelques millions de personnes. Le problème n’est pas que l’Etat néolibéral de Macron et Castex serait maladroit, commettrait des erreurs à répétition, improviserait et jonglerait dans les difficultés de gestion d’une crise effroyable – même si ce peut être le cas -, le problème est qu’ils assomment systématiquement les pauvres, les jeunes et les vieux. Ce qui est effroyable, ce n’est pas le virus en lui-même, c’est le capitalisme qui le gère et en développe les conséquences. Parmi celles-ci, il en est une qui doit nous alarmer. La remise en cause du droit à la vie.

    Depuis le début de cette pandémie chaque jour qui passe accroît notre tolérance à l’insupportable. L’insupportable m’a été donné à entendre dans la bouche d’un Chef de service de l’Hôpital Bichat qui s’exprimait au journal de 13h de France-Inter ce dimanche 24 janvier 2021. On peut l’entendre ici, à 12mn et 40 secondes. Les propos de ce médecin ont créé en moi un choc. Un choc d’une grande violence. Ce choc a été provoqué par la rencontre entre la mémoire, l’historicité et la culture d’un côté, et de l’autre une parole médicale, autorisée et publique appelant à choisir la mort de nos aîné.es - et associant ce choix à un « courage » politique. Voici la transcription exacte des propos tenus par ce médecin, qui évoque des alternatives à un reconfinement général :

    « Soit faire des confinements sur des populations extrêmement à risque, soit admettre que ce qu’on vit après 80 ans c’est du bonus.

    Est-ce qu’aujourd’hui est-ce qu’on peut encore s’autoriser ces bonus ?

    Je pense qu’il faut prioriser les jeunes générations, les forces actives de la société, les PME.
    Je pense qu’il faut qu’on fasse des choix qui sont difficiles. » Il parle d’une « vision globale du courage. »

    Il convient de bien comprendre la portée de ces propos. Une portée incalculable et qui échappe certainement, du moins en partie, à celui qui les tient.

    Tout d’abord le médecin use d’un lexique de gestionnaire et fait entrer la question de la valeur d’une vie dans une rationalité comptable : le « bonus », les « forces actives », « s’autoriser » et « les PME ». C’est ici le point de vue d’un gestionnaire du vivant, à savoir très exactement ce qu’ont produit vingt années de massacre managérial et de rationalisation comptable dans les hôpitaux publics.

    Ensuite le médecin, qui est un très bon communiquant – comme tout excellent gestionnaire –, prend soin de surfer sur l’opposition au confinement, le soutien à la jeunesse et à l’économie pour nous arracher un consentement (« admettre ») au moyen d’une question rhétorique (« est-ce qu’on peut encore s’autoriser »), mais jamais au moyen d’un raisonnement ou une démonstration. Car il faudrait demander à ce Chef de service comment il explique que la fin du bonus des plus de 80 ans aiderait en quoi que ce soit à sauver la jeunesse. Quel est son raisonnement ? Pourquoi prioriser les jeunes générations devrait-il conduire à sacrifier nos aîné.es ? Le souci de tous n’exige-t-il pas de travailler au bien de la jeunesse comme à celui des aîné.es ? L’imposition d’un choix, soumis à un impératif totalement subjectif et irrationnel (« il faut », « il faut ») ne serait-il pas ici un moyen de résoudre la situation proprement tragique des personnels hospitaliers et des médecins en première ligne : diminuer la charge sur les hôpitaux par un consentement à laisser mourir les aîné.es dans les Ehpad ou à leur domicile, ce qui s’est produit massivement lors deux premiers confinements ? Le discours est ici celui d’un accommodement avec le pire. La banalisation de la transgression de tous les codes de déontologie et des éthiques médicales est en route. J’invite qui n’aurait pas en mémoire le Serment d’Hippocrate à le relire où à en prendre connaissance : https://www.conseil-national.medecin.fr/medecin/devoirs-droits/serment-dhippocrate . Vous pourrez aisément lister les principes sur lesquels le médecins’assoit. Et les articles du Code de déontologiequ’il appelle à transgresser.

    Enfin il faut vraiment être attentif à ceci que le médecin ne parle pas ici de la question très sensible du choix que font collectivement des équipes médicales confrontées à l’impossibilité de prendre en charge tous les patients. Choix codifié par des règles précises. Il nous parle de tout autre chose : d’un choix à faire pour la société, un choix politique et social, « difficile » et « courageux », une « vision globale ». On se dit alors que cet homme est prêt à entrer en politique ou bien au CA de SANOFI. Car, le médecin, comme bien de ses collègues arpentant les radios et les plateaux de télévision, sort non seulement de la morale, de l’éthique médicale, de la déontologie, mais il sort aussi tout simplement de sa profession (ce qui est une faute), pour s’instituer en manager du politique. C’est ce à quoi on assiste massivement depuis bientôt un an : la fabrique de l’opinion et l’administration politique de la crise sanitaire par les nouveaux managers de la science et une classe très particulière de médecins-experts qui ne font pas honneur à une profession, laquelle est, avec tous les soignants, dans les plus grandes difficultés et qui paye un tribut considérable à cette pandémie.

    Ce déportement de la parole médicale vers le politique, au nom d’une expertise et de l’autorité scientifique, concerne directement la communauté de recherche et d’enseignement.. Allons-nous laisser les nouveaux managers de la science, au demeurant rigoureusement incultes, avilir toutes les règles de l’éthique médicale et de l’intégrité scientifique en les laissant proférer à longueur de journée, énormités, mensonges, contre-vérités, sophismes, paradoxes et dans le cas qui nous occupe une monstruosité absolue, laquelle parvient à rencontrer du crédit chez un nombre significatif de collègues et de citoyens, dont la raison aura certainement été mise à mal par les temps très durs que nous traversons ?

    Bien sûr ce médecin n’est pas le tout de l’Hôpital. Il ne le représente pas. Il n’est pas la vie vivante des soignants qui se battent pour sauver autrui, quel qu’il soit, sans aucune discrimination. Il n’est pas l’infirmière qui se prend le Covid parce qu’elle n’a pas de FFP2. Qui est donc ce médecin, qui est cet homme pour appeler à supprimer les « Èves octogénaires » de Baudelaire ? À en finir avec le bonus, la chance et le bonheur d’être vivant à 80 ans ? Et pourquoi pas 75 ? ou 85 ? ou 90 ? J’aimerais inviter ce médecin, non pas à lire « Les petites vieilles » de Baudelaire, mais simplement à ouvrir une histoire de l’art ou de la littérature (ou même de la science), et à rechercher les œuvres qui ont été créées par des artistes qui avaient plus de 80 ans. Je pourrais l’inviter à considérer les « bonus » de Pierre Soulages ou Bernard Noël. Et ce « bonus » incroyable du sourire de sa propre grand-mère.

    La question qu’il nous revient de nous poser aujourd’hui est double : accepte-t-on de laisser passer, une fois, deux fois, trois fois, le discours de ce médecin jusqu’à la banalisation du Mal, jusqu’à se complaire dans le plus abject des cynismes, au risque de sortir de l’humanité ? Et plus fondamentalement : quelle est la valeur d’une vie ? Quelle valeur accordons-nous à une vie humaine ? Spinoza exposait cette conception de la vie humaine dans son Traité politique : « … une vie humaine, qui n’est pas définie par la seule circulation du sang, et d’autres choses qui sont communes à tous les animaux, mais surtout par la raison, la vraie vertu et la vie de l’Esprit »*.

    Pascal Maillard

    *La traduction est de Henri Meschonnic dans Langage, histoire une même théorie, Verdier, 2012, p.78, chapitre 5. "L’humanité, c’est de penser libre". Ce chapitre est la reprise d’une communication faite au colloque Qu’est-ce que l’humanité organisé à Toulouse les 8-17 mars 2004.

    https://blogs.mediapart.fr/pascal-maillard/blog/260121/la-valeur-d-une-vie
    #droit_à_la_vie #coronavirus #covid-19 #pandémie #néolibéralisme #néo-libéralisme #contrôle_des_corps #discriminations #capitalisme #vieux #jeunes #choix #médecine #politique #éthique

  • The global landscape of AI ethics guidelines | Nature Machine Intelligence
    https://www.nature.com/articles/s42256-019-0088-2

    In the past five years, private companies, research institutions and public sector organizations have issued principles and guidelines for ethical artificial intelligence (AI). However, despite an apparent agreement that AI should be ‘ethical’, there is debate about both what constitutes ‘ethical AI’ and which ethical requirements, technical standards and best practices are needed for its realization. To investigate whether a global agreement on these questions is emerging, we mapped and analysed the current corpus of principles and guidelines on ethical AI. Our results reveal a global convergence emerging around five ethical principles ( transparency, justice and fairness, non-maleficence, responsibility and privacy) , with substantive divergence in relation to how these principles are interpreted, why they are deemed important, what issue, domain or actors they pertain to, and how they should be implemented. Our findings highlight the importance of integrating guideline-development efforts with substantive ethical analysis and adequate implementation strategies.

    #Intelligence_artificielle #Ethique

  • L’éthique des mondes possibles
    https://laviedesidees.fr/Hare-Penser-en-morale.html

    À propos de : Richard M. Hare, Penser en morale : Entre intuition et critique, Hermann. Dans un ouvrage classique enfin traduit en français, le philosophe Richard Hare cherche à montrer que l’examen de nos concepts moraux – la « métaéthique » – doit nous conduire à adopter une morale utilitariste. Quarante ans plus tard, faut-il lui donner raison ?

    #Philosophie #éthique #utilitarisme
    https://laviedesidees.fr/IMG/pdf/20210121_ethique.pdf
    https://laviedesidees.fr/IMG/docx/20210121_ethique.docx

  • « Accepter de prendre des risques pour vivre une vie pleine, c’est préférer mourir plutôt que vivre indignement »
    https://www.lemonde.fr/idees/article/2021/01/12/qu-est-ce-qui-est-plus-essentiel-que-de-pouvoir-decider-du-moment-de-sa-prop

    Accepter de prendre des risques – y compris celui de mourir – pour vivre une vie pleine, conviviale, épanouie, c’est d’une certaine manière préférer mourir plutôt que vivre indignement. C’est donc vouloir la mort plutôt qu’une vie rétrécie. Or ceux qui, en raison des souffrances, des handicaps et de la dépendance que provoquent la vieillesse ou la maladie, choisissent délibérément de mourir, que font-ils d’autre ? Il est incohérent de défendre le choix d’une vie qui inclut la mort d’un côté et de refuser la liberté de choisir celle-ci au terme d’une réflexion approfondie, conduisant à estimer sa vie « accomplie ».

    #biopolitique #paywall

    • Comment les plus âgés doivent-ils pouvoir gérer le risque lié à la pandémie due au coronavirus ? Le philosophe François Galichet défend le droit à vouloir la mort plutôt qu’une vie rétrécie.

      Tribune. La psychologue Marie de Hennezel, dans un vibrant plaidoyer (« Notre réaction au Covid-19 montre que plus on dénie la mort, moins on tolère le risque et l’incertitude », Le Monde du 8 janvier https://seenthis.net/messages/850474), défend le droit des plus âgés à « retrouver le sens des choses et aller droit à l’essentiel », et notamment à ne plus dénier la mort : « Plus on dénie la mort, moins on tolère le risque et l’incertitude. »

      Ce plaidoyer aura certainement fait sursauter tous ceux qui savent que Marie de Hennezel est une farouche adversaire de la liberté de mourir. Elle dénonce une politique qui « a voulu protéger les plus âgés en les infantilisant parfois, en les privant de leur libre choix de décider ce qui était essentiel pour eux ». Mais qu’est-ce qui est plus essentiel que de pouvoir décider du moment de sa propre mort ?

      Ce refus de l’infantilisation est effectivement attesté par de nombreuses enquêtes auprès des seniors. « Oui, je prends le risque, je préfère me sentir vivant et aller voir ma famille quitte à mourir, mais en restant libre. A notre âge, on veut profiter de ce qui nous reste. » Ils affirment préférer « vivre que durer » (« Covid-19 : “A notre âge, on veut profiter de ce qui nous reste” », Le Monde du 5 septembre 2020).

      Le refus de vivre indignement

      Accepter de prendre des risques – y compris celui de mourir – pour vivre une vie pleine, conviviale, épanouie, c’est d’une certaine manière préférer mourir plutôt que vivre indignement. C’est donc vouloir la mort plutôt qu’une vie rétrécie. Or ceux qui, en raison des souffrances, des handicaps et de la dépendance que provoquent la vieillesse ou la maladie, choisissent délibérément de mourir, que font-ils d’autre ? Il est incohérent de défendre le choix d’une vie qui inclut la mort d’un côté et de refuser la liberté de choisir celle-ci au terme d’une réflexion approfondie, conduisant à estimer sa vie « accomplie ».

      C’est pourquoi j’invite Marie de Hennezel à assumer son plaidoyer jusqu’au bout. Les personnes que j’ai accompagnées dans leur choix de mourir délibérément, comme celles qui détiennent les moyens de le faire, témoignent exactement des qualités qu’elle décrit chez les seniors.

      Lire aussi En temps de Covid-19, « les vieux entendent aussi décider de leur mort »

      Comme le montre l’enquête que j’ai menée auprès d’elles (dans mon livre Qu’est-ce qu’une vie accomplie ? , Odile Jacob, 2020, chapitre 5), « elles organisent leur vie autour de ce qui est pour elles essentiel ». Elles entretiennent « un autre rapport au temps » et jouissent de tous les bienfaits de la vie, parce qu’elles savent qu’elles peuvent en sortir si elle devient intolérable. Elles ont une relation plus sereine avec leurs proches, parce qu’elles sont certaines de n’être jamais un poids pour eux.

      Seul pays d’Europe à l’interdire

      Les sondages montrent que 96 % des Français sont favorables à une aide à mourir. L’Allemagne, l’Espagne, le Portugal, l’Autriche l’ont légalisée ou s’apprêtent à le faire, après la Belgique, les Pays-Bas et la Suisse. La France sera bientôt le seul pays d’Europe à l’interdire, comme elle a été l’un des derniers à abolir la peine de mort.

      Lire aussi « La médecine des personnes âgées ne peut pas tourner indéfiniment le dos à la liberté et à la mort »

      Refuser l’aide à une mort délibérée, c’est entretenir le déni de la mort que Marie de Hennezel prétend combattre ; c’est en faire une fatalité et non une composante fondamentale de notre liberté, comme l’ont reconnu bien des philosophes : Platon, Sénèque, Montaigne, Hume, Nietzsche, Cioran, entre autres.

      Un projet de loi vient d’être déposé au Sénat pour légitimer enfin l’aide à mourir. Après tant d’occasions manquées, celle-ci sera-t-elle la bonne ?

      #vieux (et, par extension, #malades...) #loi_sur_la_fin_de_vie #aide_à_mourir #suicide_assisté #éthique #euthanasie

    • #Irlande : sept essais de #vaccins contraires à l’ #éthique ont été menés entre 1934 et 1973. + 9000 décès d’enfants de mères célibataires dans ces établissements tenus par des religieuses catholiques et l’Etat
      https://www.rts.ch/info/monde/11892060-une-enquete-en-irlande-pointe-le-drame-des-maisons-pour-meres-celibatai

      Une commission d’enquête sur les anciennes maisons pour mères célibataires en Irlande a mis en lumière mardi la mortalité dramatique des enfants dans ces établissements tenus par des religieuses catholiques et l’Etat.

      Elle a aussi révélé l’hostilité générale envers ces naissances jugées illégitimes. « Toute la société était complice », a résumé le Premier ministre Micheal Martin à l’occasion de la publication après cinq ans d’enquête du rapport de 3000 pages. Il a annoncé qu’il présenterait les « excuses » de l’Etat mercredi devant le Parlement irlandais, le Dail.

      L’enquête a mis en évidence 9000 décès, soit 15% des 57’000 enfants qui sont passés par ces établissements entre 1922 et 1998. « Il est difficile de concevoir l’ampleur de la #tragédie et le chagrin qui se cache derrière ce chiffre », a déclaré le ministre irlandais de l’Enfance, Roderic O’Gorman.

      Ces maisons ne sauvaient pas les vies
      Dans son rapport, la commission a conclu qu’avant 1960, de fait ces maisons « mère-enfant » ne « sauvaient pas les vies des enfants ’illégitimes’ », pire, « il semblent avoir significativement réduit leurs perspectives de survie ».

      Le taux de #mortalité « très élevé » était « connu des autorités locales et nationales à l’époque et enregistrés dans les publications officielles », souligne-t-il. La plupart des décès dont les cause étaient identifiables étaient dus à des infections respiratoires et des gastro-entérites.

      Ces maisons accueillaient jeunes filles et jeunes femmes rejetées par leurs familles qui n’avaient pour la plupart « aucune alternative ». Considérés comme illégitimes, les enfants qui y naissaient étaient souvent séparés de leur mère pour ensuite être adoptés, rompant tout lien avec leur famille biologique.

      Scandales dans l’Eglise catholique
      La commission a été mise sur pied pour faire la lumière sur le haut niveau de mortalité des enfants dans ces anciennes institutions de la très catholique Irlande. Cette affaire s’inscrit dans une série de scandales qui ont ébranlé la puissante église catholique irlandaise ces dernières années, avec l’ampleur de la pédophilie et les « Magdalene Sisters », ces jeunes filles qui travaillaient gratuitement dans des blanchisseries exploitées commercialement par des #religieuses.

      Dans le cas des « maisons mère-enfant », l’enquête avait été ouverte en 2015 dans le sillage des travaux d’une historienne, Catherine Corless. Elle affirmait que près de 800 enfants nés dans l’une de ces maisons de naissance, le foyer St Mary des soeurs du Bon Secours de Tuam (ouest de l’Irlande), avaient été enterrés dans une fosse commune entre 1925 et 1961.

      Responsabilité des familles
      Le rapport final porte surtout la responsabilité sur les familles qui envoyaient les femmes concernées dans ces établissements ou ne leur laissaient pas d’autre choix faute de soutien, et au delà sur toute la société irlandaise.

      Il décrit un chapitre « sombre et honteux de l’histoire récente de l’Irlande », a déclaré Micheal Martin, et met en lumière la « culture misogyne » qu’a connu le pays pendant « plusieurs décennies », particulièrement les « discriminations graves et systématiques contre les femmes, particulièrement celle qui ont accouché hors mariage ».

      « Nous avions une attitude complètement déformée vis-à-vis de la sexualité et de l’intimité », « dysfonctionnement » pour lequel « les jeunes mères et leurs fils et filles » dans ces établissement « ont été contraints de payer un prix terrible », a déclaré Micheal Martin.

      afp/jpr

      Mères « forcées à abandonner leurs enfants »
      Un groupe de victimes de ces institutions, Irish First Mothers, a dénoncé l’échec du rapport à établir que « les mères étaient forcées à abandonner leurs enfants ». Dans un communiqué publié sur les réseaux sociaux, le groupe estime que la commission « absout à la fois l’église et l’Etat de toute responsabilité systémique pour ce qu’elle reconnaît comme l’incarcération de fait de mères enceintes ».

      Jusqu’au années 1960, « la plupart des femmes plaçaient leur enfant à l’adoption » et quittaient l’établissent « dans les quelques mois qui suivaient la naissance », selon le rapport.

      Certaines estiment que « leur consentement n’était pas total, libre et éclairé », mais hormis quelques cas qui ont été porté devant la justice, « il n’y a pas de preuve que tel était leur opinion au moment de l’adoption ».

      Les investigations ont également permis d’établir que sept essais de vaccins contraires à l’éthique ont été menés dans ces maisons entre 1934 et 1973.

      #religion #catholique #monstres #culture_du_viol #viol #femmes #ventre_des_femmes #blame_the_victim #génocide #enfants #femmes #vaccin #Tuam #couvent #religion #Galway #Magdalene_asylums #église #église_catholique #enfants_placés

  • Michel Dupuis : « Le droit du patient n’est possible que si les soignants sont dans des conditions acceptables » - Le Soir Plus
    https://plus.lesoir.be/347249/article/2021-01-05/michel-dupuis-le-droit-du-patient-nest-possible-que-si-les-soignants-son

    On parle beaucoup de droits du patient. Quels sont ses devoirs ? Michel Dupuis : Effectivement, notre loi ne dit rien d’explicite sur les obligations du patient et, par exemple, les questions de solidarité. Elle s’arrête à la notion de « meilleurs soins possibles » pour un patient, elle n’aborde pas la « concurrence » entre patients. Je suis pour une politique la plus transparente possible, y compris en termes de devoirs. À ce propos, un concept intéressant a été dégagé il y a une vingtaine d’années en Afrique subsaharienne : le paradigme du « patient victime-vecteur ». Dans une situation à haute contagiosité, où les ressources sont rares, le patient est d’abord victime, donc il a le droit d’être pris en charge. Mais il n’est pas que victime, il est aussi vecteur. Autrement dit, il transmet, il contamine… Or, (...)

    #santépublique #éthique

  • Why the Dancing Robots Are a Really, Really Big Problem. | by James J. Ward | The Startup | Dec, 2020 | Medium
    https://medium.com/swlh/why-the-dancing-robots-are-a-really-really-big-problem-4faa22c7f899

    Yes, the cynical view is probably right (at least in part), but that’s not what makes this video so problematic, in my view. The real issue is that what you’re seeing is a visual lie. The robots are not dancing, even though it looks like they are. And that’s a big problem.

    Humans dance for all kinds of reasons. We dance because we’re happy or angry, we dance to be part of a community or we do it by ourselves, we dance as part of elaborate rituals or because Bruce Springsteen held out a hand to us at a concert. Dancing, in fact, is one of the things that humans have in common across cultures, geographies, and time — we love to dance, and whenever we do it, it’s because we are taking part in an activity we understand to have some kind of meaning, even if we don’t know what it is. Perhaps that’s the point, how can we even explain dancing? As Isadora Duncan once said, “If I could tell you what it meant there would be no point in dancing it.”

    Robots, though? Robots don’t dance. That’s not some sort of critique of a robot or shade-throwing. I don’t criticize my hammer for not being able to recite Seamus Heaney. Tools serve functions and move in the ways designed or concocted for them — but they have no innerworldly life that swells and expresses itself in dancing. We might like to anthropomorphize them, imbue them with humanness largely because we do that to everything. We talk to our toasters and cut deals with our cars (“Just make it ten more miles!”) because we relate to a world filled with things made by humans as though that world was filled with humans, or at least things with a little humanity. And so when we watch the video, we see robots moving in a way that we sometimes do or wish we could, we experience the music, the rhythmic motion, the human-like gestures, and they all combine to give us an impression of joyfulness, exuberance, and idea that we should love them, now that they can dance.

    But they can’t.

    No, robots don’t dance: they carry out the very precise movements that their — exceedingly clever — programmers design to move in a way that humans will perceive as dancing. It is a simulacrum, a trompe l’oeil, a conjurer’s trick. And it works not because of something inherent in the machinery, but because of something inherent in ours: our ever-present capacity for finding the familiar. It looks like human dancing, except it’s an utterly meaningless act, stripped of any social, cultural, historical, or religious context, and carried out as a humblebrag show of technological might. Also: the robots are terrible at doing the Mashed Potato.

    The moment we get high-functioning, human-like robots we sexualize them or force them to move in ways that we think are entertaining, or both. And this is where the ethics become so crucial. We don’t owe a robot human rights; they aren’t human, and we should really be spending our time figuring out how to make sure that humans have human rights. But when we allow, celebrate, and laugh at things like this Boston Dynamics video, we’re tacitly approving a view of the world where domination and control over pseudo-humans becomes increasingly hard to distinguish from the same desire for domination and control over actual humans.

    Any ethical framework would tell you this is troubling. You don’t need to know your consequentialism from your deontology to understand that cultivating and promoting a view of the world where “things that are human-like but less human than I am get to be used however I want” will be a problem.

    #Robots #Intelligence_artificielle #Danse #Ethique #Culture_numérique

    • voir peut-être aussi Stiegler (2016) :

      https://www.franceculture.fr/emissions/les-nuits-de-france-culture/la-nuit-revee-de-jean-pierre-vincent-2017-69-bernard-stiegler-je-refle

      Je réfléchis au rapport entre la technique et le mal […] Adorno et Horkheimer en 1944 disent que les industries culturelles sont en train de produire une nouvelle forme de barbarie. […] Ils soutiennent qu’à travers les industries culturelles, la raison se transforme en rationalisation, ce qui signifie pour moi la réduction de la raison au calcul, à la calculabilité. Ils montrent comment s’instaure un système qui est apparu dès les années 20 aux Etats-Unis, et qui va considérablement s’étendre avec la télévision. Il s’agit d’un système entre la production automatisée des automobiles, la consommation et la crétinisation qui va s’instaurer, d’après eux, avec les industries dites de programmes.

      Ce processus va bien plus loin encore selon moi avec les technologies numériques, ce qu’on appelle la data économie, mais je pense qu’il faut rouvrir ce dossier sur d’autres bases que celles de Adorno et Horkheimer (…) Nous vivons nous au 21ème siècle une véritable révolution des conditions de la pensée par une exploitation désormais absolument systématique des capacités de calcul artificiel qui est en train de totalement bouleverser notre horizon de pensée.

  • Des salariés de Google créent un syndicat après des mois de tensions internes
    https://www.lemonde.fr/pixels/article/2021/01/04/google-des-salaries-creent-un-syndicat-apres-des-mois-de-tensions-internes_6

    Ce syndicat, un des tout premiers au sein d’un fleuron de la Silicon Valley, ne s’occupera pas que des questions liées aux salaires et conditions de travail mais aussi des problématiques éthiques. En raison de divergences avec leur direction qui se multiplient, des salariés de Google ont annoncé, lundi 4 janvier, créer un syndicat, une décision qui coïncide avec une période de mécontentement grandissant envers les géants de la Silicon Valley. La Silicon Valley était parvenue jusqu’à présent à éviter (...)

    #Fitbit #Google #Verily #Waymo #YouTube #éthique #GigEconomy #syndicat #travail (...)

    ##Maven

  • La morale, une fable ?
    https://laviedesidees.fr/La-morale-une-fable.html

    À propos de : F. Jaquet et H. Naar, Qui peut sauver la morale ? Essai de métaéthique, Ithaque ; O. Desmons, S. Lemaire et P. Turmel (dir.), Manuel de métaéthique, Hermann. La métaéthique est l’étude des questions qui portent sur la morale sans être elles-mêmes des questions morales. Deux ouvrages cartographient cet univers fascinant.

    #Philosophie #éthique
    https://laviedesidees.fr/IMG/pdf/20201230_metaethique.pdf
    https://laviedesidees.fr/IMG/docx/20201230_metaethique.docx

  • La morale, une fable ?
    https://laviedesidees.fr/La-morale-est-elle-une-fable.html

    À propos de : F. Jaquet et H. Naar, Qui peut sauver la morale ? Essai de métaéthique, Ithaque ; O. Desmons, S. Lemaire et P. Turmel (dir.), Manuel de métaéthique, Hermann. La métaéthique est l’étude des questions qui portent sur la morale sans être elles-mêmes des questions morales. Deux ouvrages cartographient cet univers fascinant.

    #Philosophie #éthique
    https://laviedesidees.fr/IMG/pdf/20201230_metaethique.pdf
    https://laviedesidees.fr/IMG/docx/20201230_metaethique.docx

  • “I started crying”: Inside Timnit Gebru’s last days at Google | MIT Technology Review
    https://www.technologyreview.com/2020/12/16/1014634/google-ai-ethics-lead-timnit-gebru-tells-story

    By now, we’ve all heard some version of the story. On December 2, after a protracted disagreement over the release of a research paper, Google forced out its ethical AI co-lead, Timnit Gebru. The paper was on the risks of large language models, AI models trained on staggering amounts of text data, which are a line of research core to Google’s business. Gebru, a leading voice in AI ethics, was one of the only Black women at Google Research.

    The move has since sparked a debate about growing corporate influence over AI, the long-standing lack of diversity in tech, and what it means to do meaningful AI ethics research. As of December 15, over 2,600 Google employees and 4,300 others in academia, industry, and civil society had signed a petition denouncing the dismissal of Gebru, calling it “unprecedented research censorship” and “an act of retaliation.”

    The company’s star ethics researcher highlighted the risks of large language models, which are key to Google’s business.
    Gebru is known for foundational work in revealing AI discrimination, developing methods for documenting and auditing AI models, and advocating for greater diversity in research. In 2016, she cofounded the nonprofit Black in AI, which has become a central resource for civil rights activists, labor organizers, and leading AI ethics researchers, cultivating and highlighting Black AI research talent.

    Then in that document, I wrote that this has been extremely disrespectful to the Ethical AI team, and there needs to be a conversation, not just with Jeff and our team, and Megan and our team, but the whole of Research about respect for researchers and how to have these kinds of discussions. Nope. No engagement with that whatsoever.

    I cried, by the way. When I had that first meeting, which was Thursday before Thanksgiving, a day before I was going to go on vacation—when Megan told us that you have to retract this paper, I started crying. I was so upset because I said, I’m so tired of constant fighting here. I thought that if I just ignored all of this DEI [diversity, equity, and inclusion] hypocrisy and other stuff, and I just focused on my work, then at least I could get my work done. And now you’re coming for my work. So I literally started crying.

    You’ve mentioned that this is not just about you; it’s not just about Google. It’s a confluence of so many different issues. What does this particular experience say about tech companies’ influence on AI in general, and their capacity to actually do meaningful work in AI ethics?
    You know, there were a number of people comparing Big Tech and Big Tobacco, and how they were censoring research even though they knew the issues for a while. I push back on the academia-versus-tech dichotomy, because they both have the same sort of very racist and sexist paradigm. The paradigm that you learn and take to Google or wherever starts in academia. And people move. They go to industry and then they go back to academia, or vice versa. They’re all friends; they are all going to the same conferences.

    I don’t think the lesson is that there should be no AI ethics research in tech companies, but I think the lesson is that a) there needs to be a lot more independent research. We need to have more choices than just DARPA [the Defense Advanced Research Projects Agency] versus corporations. And b) there needs to be oversight of tech companies, obviously. At this point I just don’t understand how we can continue to think that they’re gonna self-regulate on DEI or ethics or whatever it is. They haven’t been doing the right thing, and they’re not going to do the right thing.

    I think academic institutions and conferences need to rethink their relationships with big corporations and the amount of money they’re taking from them. Some people were even wondering, for instance, if some of these conferences should have a “no censorship” code of conduct or something like that. So I think that there is a lot that these conferences and academic institutions can do. There’s too much of an imbalance of power right now.

    #Intelligence_artificielle #Timnit_Gebru #Google #Ethique

  • En France, un système qui fait perdre l’envie de #recherche

    Alternance de #contrats_courts et de périodes de #chômage, vacations payées aléatoirement, difficulté à être titularisé… « Libération » a recueilli les témoignages de nombreux jeunes chercheurs lessivés par le fonctionnement de l’université.

    La France perd ses jeunes chercheurs, dégoûtés du système. En 2018, le nombre de doctorats délivrés était en baisse de 4 %. Les carrières universitaires n’attirent plus. Ou du moins, elles font fuir une partie de ceux qui s’y aventurent quand ils découvrent la galère promise. Une journée de mobilisation a lieu ce jeudi contre la politique de recherche du gouvernement. Les jeunes chercheurs sont à la pointe du mouvement.

    « Il y avait treize doctorants dans mon laboratoire, seulement deux ont continué en post-doctorat. Tous les six mois, je me dis que je vais arrêter, et en fait non », témoigne Mélissa, post-doctorante en éthologie. Elle vit avec son compagnon, Geoffrey, lui aussi chercheur et âgé de 29 ans. Ils sont réunis « pour la première fois en six ans » dans le même appartement. La faute à leur boulot, qui les pousse à bouger dans tous les sens quitte à s’asseoir sur leur vie personnelle. Cette parenthèse à deux s’arrêtera dans trois mois. Mélissa sera alors à Zurich et Geoffrey à Niort. « On ne se plaint pas, on est déjà sur le même continent… »

    Etienne (1), lui, va changer de continent. Ce docteur en intelligence artificielle (IA) a vu de près les dégâts de la recherche à la française. La pression pour publier le plus possible d’articles scientifiques dans des revues, condition sine qua non pour remplir son CV et espérer être titularisé, a fini par le dégoûter : « On dit que c’est "publier ou périr", mais maintenant c’est plutôt "publier et périr" puisqu’il n’y a plus de postes. » Pour ce trentenaire, la désillusion grandit depuis plusieurs années : quand il était doctorant, il a dû finir sa thèse grâce aux indemnités chômage, se contentant de 900 euros mensuels pour vivre. « Mon encadrant principal a fait deux burn-out car il travaillait trop, ça ne donnait pas envie de continuer. » Mais il s’accroche.

    Après sa thèse, Etienne signe un contrat de deux ans de post-doc dans un labo de recherche, malgré les sirènes du privé qui lui promettent d’au moins doubler son salaire. Le déclic, pour changer de cap, il l’a eu en 2019. Il participe alors à une réunion de présentation de la politique française en IA, durant laquelle deux hauts fonctionnaires disent avoir pour projet de propulser la France dans le top 5 mondial. « Ils ne parlaient de recruter que des contrats précaires, des doctorants. Je suis allé leur poser la question : qu’en est-il pour les post-docs qui souhaitent rester en France ? Leur réponse a été assez surprenante : "Non, pas de création de postes fixes, monsieur, allez aux Etats-Unis." » Message reçu, mais pas de gaieté de cœur. Etienne entend bien partir travailler sur l’IA outre-Atlantique.
    « Très dévalorisant »

    Un grand gâchis humain. Quelques mots pour résumer ce à quoi ressemble la politique française en recherche. Libération a reçu plus de 200 témoignages de jeunes chercheurs déçus du système. Comme François (1), qui nous écrit : « La loi de programmation de la recherche m’a définitivement décidé, je ne vais même pas essayer de faire de la recherche dans le public. C’est d’autant plus dommage que, comme normalien, l’Etat a essentiellement payé pour que je le fasse. »

    La pression exercée sur le système conduit à de mauvaises pratiques. Xavier (1), ex-doctorant en astronomie, a vu la réputation du laboratoire passer avant l’éthique scientifique. « Le jour où on m’a demandé de cacher des résultats qui n’allaient pas dans le sens des promesses faites à l’Agence nationale de la recherche devant un public international, j’ai décidé de ne pas continuer dans la recherche, explique celui qui prépare l’agrégation de physique. J’adore la recherche, mais obtenir un poste est un parcours du combattant. Enchaîner les post-docs pendant six, huit, peut-être dix ans, qui veut ça ? »

    C’est exactement la situation que vit Alain (1). Depuis sa thèse de biologie soutenue en 2013, il alterne entre les contrats courts et les périodes de chômage. « Pour l’instant, l’objectif c’est de profiter du chômage pour écrire mes publications en retard, continuer à postuler pour des contrats et prier pour obtenir quelque chose. Ce serait très dévalorisant de me dire que j’ai autant persévéré pour au final abandonner. » Le problème du secteur n’est ni l’attractivité - il y a encore plus de dix candidats par poste ouvert - ni le manque de travail - les recherches et les étudiants continuent d’affluer. « Le premier problème, c’est le manque de financements », lâche Alain. De fait, dans les universités notamment, le besoin en enseignants-chercheurs est criant. Selon le Syndicat national de l’enseignement supérieur, les 150 000 vacataires recensés assurent, au moins, l’équivalent des heures d’enseignement de plus de 15 000 titulaires.

    A 34 ans, Maxime (1), docteur en sciences politiques, vit tantôt chez sa mère, tantôt chez sa compagne. Il a réalisé sa thèse « grâce à deux postes d’attaché temporaire d’enseignement et de recherche, et du chômage ». Depuis cinq ans, il jongle entre RSA et vacations à l’université. En théorie, il ne pourrait pas être employé de manière précaire par l’université sans avoir un travail fixe ailleurs. Alors il s’arrange. « Dans certains cas, un collègue me sert de prête-nom et je travaille au noir. Parfois, je me fais payer en autoentrepreneur. C’est assez dingue comme situation », explique-t-il. L’an dernier, Maxime estime avoir effectué plus de 277 heures d’enseignement, « plus qu’un service d’un titulaire ». Tout ça pour toucher à peine le smic : « Comme on est payé de manière aléatoire, certains mois c’est le RSA qui me permet de vivre. »
    « On m’avait prévenue »

    La situation est claire : les départements dans lesquels il travaille ne tiendraient pas sans des personnes comme lui. Il a bien essayé de quitter le milieu, mais faute de retours positifs, « la routine de l’université a repris le dessus. J’ai été sollicité pour des cours et des articles. Je tente encore, mais je ne sais pas pour combien de temps. J’ai été classé deuxième à un concours de maître de conférences, ça prouve bien que mon dossier n’est pas si nul… »

    Quadragénaire, Tiphaine se retrouve dans la même situation. Si elle a pu trouver un CDD de recherche pour une association nationale, elle a dû prendre une charge d’enseignement pour compléter son CV. Le système est si tendu qu’elle se retrouve à créer « un enseignement annuel de 80 heures » sans savoir où elle sera l’an prochain. « Je suis atterrée par l’ampleur de la précarité et l’exploitation des vacataires. […] On m’avait prévenue. Mais ça n’a pas suffi, car c’est un métier de passion, j’ai voulu aller jusqu’au bout. Maintenant, la désillusion se matérialise. »

    https://www.liberation.fr/france/2020/12/09/en-france-un-systeme-qui-fait-perdre-l-envie-de-recherche_1808191
    #ESR #recherche #France #précarité #université #titularisation #carrière_universitaire #travail #conditions_de_travail #mobilité #publish_or_perish #désillusion #indemnités_chômage #burn-out #contrats_précaires #gâchis #dévalorisation #LPPR #LPR #éthique #post-doc

  • Google, IA et éthique : « départ » de Timnit Gebru, Sundar Pichai s’exprime
    https://www.nextinpact.com/lebrief/45022/google-ia-et-ethique-imbroglio-sur-depart-timnit-gebru-sundar-pichai-sor

    Depuis une semaine, le licenciement par Google de la chercheuse Timnit Gebru fait couler beaucoup d’encre. Elle était chargée des questions d’éthique sur l’intelligence artificielle et l’une des rares afro-américaines spécialistes du sujet.

    L’imbroglio commence dès les premiers jours quand elle explique sur Twitter que sa hiérarchie avait accepté sa démission… qu’elle affirme n’avoir jamais donnée. Cette situation arrive après que la scientifique se soit plainte que Google « réduise au silence les voix marginalisées » et lui demande de rétracter un article.

    Une pétition a rapidement été mise en ligne sur Medium afin de demander des explications à l’entreprise, notamment sur les raisons de la censure. Actuellement, elle a été signée par plus de 6 000 personnes, dont 2 351 « googlers ». Sundar Pichai est finalement sorti du bois pour évoquer cette situation et promettre une enquête :

    « Nous devons accepter la responsabilité du fait qu’une éminente dirigeante noire, dotée d’un immense talent, a malheureusement quitté Google. »

    Marchant sur des œufs, il ajoute : « Nous devons évaluer les circonstances qui ont conduit au départ du Dr Gebru ». Dans son courrier, il parle bien de « départ » (departure en anglais), et ne prononce pas le mot licenciement. Pour lui, cette situation « a semé le doute et conduit certains membres de notre communauté, qui remettent en question leur place chez Google […] Je veux dire à quel point je suis désolé pour cela et j’accepte la responsabilité de travailler pour retrouver votre confiance ».

    Sur Twitter, Timnit Gebru n’est pas convaincue et s’explique : « Il ne dit pas "Je suis désolé pour ce que nous lui avons fait et c’était mal" […] Donc je vois ça comme "Je suis désolé pour la façon dont ça s’est passé, mais je ne suis pas désolé pour ce que nous lui avons fait." ».

    #Timnit_Gebru #Google #Intelligence_artificielle #Ethique

  • We read the paper that forced Timnit Gebru out of Google. Here’s what it says | MIT Technology Review
    https://www.technologyreview.com/2020/12/04/1013294/google-ai-ethics-research-paper-forced-out-timnit-gebru/?truid=a497ecb44646822921c70e7e051f7f1a

    The company’s star ethics researcher highlighted the risks of large language models, which are key to Google’s business.
    by

    Karen Hao archive page

    December 4, 2020
    Timnit Gebru
    courtesy of Timnit Gebru

    On the evening of Wednesday, December 2, Timnit Gebru, the co-lead of Google’s ethical AI team, announced via Twitter that the company had forced her out.

    Gebru, a widely respected leader in AI ethics research, is known for coauthoring a groundbreaking paper that showed facial recognition to be less accurate at identifying women and people of color, which means its use can end up discriminating against them. She also cofounded the Black in AI affinity group, and champions diversity in the tech industry. The team she helped build at Google is one of the most diverse in AI, and includes many leading experts in their own right. Peers in the field envied it for producing critical work that often challenged mainstream AI practices.

    A series of tweets, leaked emails, and media articles showed that Gebru’s exit was the culmination of a conflict over another paper she co-authored. Jeff Dean, the head of Google AI, told colleagues in an internal email (which he has since put online) that the paper “didn’t meet our bar for publication” and that Gebru had said she would resign unless Google met a number of conditions, which it was unwilling to meet. Gebru tweeted that she had asked to negotiate “a last date” for her employment after she got back from vacation. She was cut off from her corporate email account before her return.

    Online, many other leaders in the field of AI ethics are arguing that the company pushed her out because of the inconvenient truths that she was uncovering about a core line of its research—and perhaps its bottom line. More than 1,400 Google staff and 1,900 other supporters have also signed a letter of protest.
    Sign up for The Download - Your daily dose of what’s up in emerging technology
    Stay updated on MIT Technology Review initiatives and events?
    Yes
    No

    Many details of the exact sequence of events that led up to Gebru’s departure are not yet clear; both she and Google have declined to comment beyond their posts on social media. But MIT Technology Review obtained a copy of the research paper from one of the co-authors, Emily M. Bender, a professor of computational linguistics at the University of Washington. Though Bender asked us not to publish the paper itself because the authors didn’t want such an early draft circulating online, it gives some insight into the questions Gebru and her colleagues were raising about AI that might be causing Google concern.

    Titled “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” the paper lays out the risks of large language models—AIs trained on staggering amounts of text data. These have grown increasingly popular—and increasingly large—in the last three years. They are now extraordinarily good, under the right conditions, at producing what looks like convincing, meaningful new text—and sometimes at estimating meaning from language. But, says the introduction to the paper, “we ask whether enough thought has been put into the potential risks associated with developing them and strategies to mitigate these risks.”
    The paper

    The paper, which builds off the work of other researchers, presents the history of natural-language processing, an overview of four main risks of large language models, and suggestions for further research. Since the conflict with Google seems to be over the risks, we’ve focused on summarizing those here.
    Environmental and financial costs

    Training large AI models consumes a lot of computer processing power, and hence a lot of electricity. Gebru and her coauthors refer to a 2019 paper from Emma Strubell and her collaborators on the carbon emissions and financial costs of large language models. It found that their energy consumption and carbon footprint have been exploding since 2017, as models have been fed more and more data.

    Strubell’s study found that one language model with a particular type of “neural architecture search” (NAS) method would have produced the equivalent of 626,155 pounds (284 metric tons) of carbon dioxide—about the lifetime output of five average American cars. A version of Google’s language model, BERT, which underpins the company’s search engine, produced 1,438 pounds of CO2 equivalent in Strubell’s estimate—nearly the same as a roundtrip flight between New York City and San Francisco.

    Gebru’s draft paper points out that the sheer resources required to build and sustain such large AI models means they tend to benefit wealthy organizations, while climate change hits marginalized communities hardest. “It is past time for researchers to prioritize energy efficiency and cost to reduce negative environmental impact and inequitable access to resources,” they write.
    Massive data, inscrutable models

    Large language models are also trained on exponentially increasing amounts of text. This means researchers have sought to collect all the data they can from the internet, so there’s a risk that racist, sexist, and otherwise abusive language ends up in the training data.

    An AI model taught to view racist language as normal is obviously bad. The researchers, though, point out a couple of more subtle problems. One is that shifts in language play an important role in social change; the MeToo and Black Lives Matter movements, for example, have tried to establish a new anti-sexist and anti-racist vocabulary. An AI model trained on vast swaths of the internet won’t be attuned to the nuances of this vocabulary and won’t produce or interpret language in line with these new cultural norms.

    It will also fail to capture the language and the norms of countries and peoples that have less access to the internet and thus a smaller linguistic footprint online. The result is that AI-generated language will be homogenized, reflecting the practices of the richest countries and communities.

    Moreover, because the training datasets are so large, it’s hard to audit them to check for these embedded biases. “A methodology that relies on datasets too large to document is therefore inherently risky,” the researchers conclude. “While documentation allows for potential accountability, [...] undocumented training data perpetuates harm without recourse.”
    Research opportunity costs

    The researchers summarize the third challenge as the risk of “misdirected research effort.” Though most AI researchers acknowledge that large language models don’t actually understand language and are merely excellent at manipulating it, Big Tech can make money from models that manipulate language more accurately, so it keeps investing in them. “This research effort brings with it an opportunity cost,” Gebru and her colleagues write. Not as much effort goes into working on AI models that might achieve understanding, or that achieve good results with smaller, more carefully curated datasets (and thus also use less energy).
    Illusions of meaning

    The final problem with large language models, the researchers say, is that because they’re so good at mimicking real human language, it’s easy to use them to fool people. There have been a few high-profile cases, such as the college student who churned out AI-generated self-help and productivity advice on a blog, which went viral.

    The dangers are obvious: AI models could be used to generate misinformation about an election or the covid-19 pandemic, for instance. They can also go wrong inadvertently when used for machine translation. The researchers bring up an example: In 2017, Facebook mistranslated a Palestinian man’s post, which said “good morning” in Arabic, as “attack them” in Hebrew, leading to his arrest.
    Why it matters

    Gebru and Bender’s paper has six co-authors, four of whom are Google researchers. Bender asked to avoid disclosing their names for fear of repercussions. (Bender, by contrast, is a tenured professor: “I think this is underscoring the value of academic freedom,” she says.)

    The paper’s goal, Bender says, was to take stock of the landscape of current research in natural-language processing. “We are working at a scale where the people building the things can’t actually get their arms around the data,” she said. “And because the upsides are so obvious, it’s particularly important to step back and ask ourselves, what are the possible downsides? … How do we get the benefits of this while mitigating the risk?”

    In his internal email, Dean, the Google AI head, said one reason the paper “didn’t meet our bar” was that it “ignored too much relevant research.” Specifically, he said it didn’t mention more recent work on how to make large language models more energy-efficient and mitigate problems of bias.

    However, the six collaborators drew on a wide breadth of scholarship. The paper’s citation list, with 128 references, is notably long. “It’s the sort of work that no individual or even pair of authors can pull off,” Bender said. “It really required this collaboration.”

    The version of the paper we saw does also nod to several research efforts on reducing the size and computational costs of large language models, and on measuring the embedded bias of models. It argues, however, that these efforts have not been enough. “I’m very open to seeing what other references we ought to be including,” Bender said.

    Nicolas Le Roux, a Google AI researcher in the Montreal office, later noted on Twitter that the reasoning in Dean’s email was unusual. “My submissions were always checked for disclosure of sensitive material, never for the quality of the literature review,” he said.

    Now might be a good time to remind everyone that the easiest way to discriminate is to make stringent rules, then to decide when and for whom to enforce them.
    My submissions were always checked for disclosure of sensitive material, never for the quality of the literature review.
    — Nicolas Le Roux (@le_roux_nicolas) December 3, 2020

    Dean’s email also says that Gebru and her colleagues gave Google AI only a day for an internal review of the paper before they submitted it to a conference for publication. He wrote that “our aim is to rival peer-reviewed journals in terms of the rigor and thoughtfulness in how we review research before publication.”

    I understand the concern over Timnit’s resignation from Google. She’s done a great deal to move the field forward with her research. I wanted to share the email I sent to Google Research and some thoughts on our research process.https://t.co/djUGdYwNMb
    — Jeff Dean (@🠡) (@JeffDean) December 4, 2020

    Bender noted that even so, the conference would still put the paper through a substantial review process: “Scholarship is always a conversation and always a work in progress,” she said.

    Others, including William Fitzgerald, a former Google PR manager, have further cast doubt on Dean’s claim:

    This is such a lie. It was part of my job on the Google PR team to review these papers. Typically we got so many we didn’t review them in time or a researcher would just publish & we wouldn’t know until afterwards. We NEVER punished people for not doing proper process. https://t.co/hNE7SOWSLS pic.twitter.com/Ic30sVgwtn
    — William Fitzgerald (@william_fitz) December 4, 2020

    Google pioneered much of the foundational research that has since led to the recent explosion in large language models. Google AI was the first to invent the Transformer language model in 2017 that serves as the basis for the company’s later model BERT, and OpenAI’s GPT-2 and GPT-3. BERT, as noted above, now also powers Google search, the company’s cash cow.

    Bender worries that Google’s actions could create “a chilling effect” on future AI ethics research. Many of the top experts in AI ethics work at large tech companies because that is where the money is. “That has been beneficial in many ways,” she says. “But we end up with an ecosystem that maybe has incentives that are not the very best ones for the progress of science for the world.”

    #Intelligence_artificielle #Google #Ethique #Timnit_Gebru

  • More than 1,200 Google workers condemn firing of AI scientist Timnit Gebru
    https://www.theguardian.com/technology/2020/dec/04/timnit-gebru-google-ai-fired-diversity-ethics

    More than 1,500 researchers also sign letter after Black expert on ethics says Google tried to suppress her research on bias More than 1,200 Google employees and more than 1,500 academic researchers are speaking out in protest after a prominent Black scientist studying the ethics of artificial intelligence said she was fired by Google after the company attempted to suppress her research and she criticized its diversity efforts. Timnit Gebru, who was the technical co-lead of Google’s (...)

    #Google #algorithme #biométrie #facial #reconnaissance #licenciement #éthique

    https://i.guim.co.uk/img/media/e66281338e4e2ff1f94da89602c58600fb121707/0_0_5760_3456/master/5760.jpg

  • Google se sépare d’une chercheuse spécialiste des biais de l’IA : que s’est-il passé ?
    https://www.numerama.com/tech/673678-google-se-separe-dune-chercheuse-specialiste-des-biais-de-lia-que-s

    Une vive polémique est en train d’agiter le monde universitaire aux États-Unis, et plus particulièrement la recherche dans l’intelligence artificielle. Google s’est séparé d’une informaticienne spécialisée dans les biais algorithmiques, mais les conditions de ce départ sont controversées. C’est une affaire qui est en train de prendre une certaine ampleur aux États-Unis. Début décembre, il a été rapporté dans plusieurs médias américains que l’informaticienne éthiopienne Timnit Gebru, qui se consacre aux biais (...)

    #Google #algorithme #éthique #racisme #biais #discrimination #licenciement

    //c2.lestechnophiles.com/www.numerama.com/content/uploads/2020/12/timnit-gebru.jpg

  • Google Employees Say Scientist’s Ouster Was ’Unprecedented Research Censorship’
    https://www.npr.org/2020/12/03/942417780/google-employees-say-scientists-ouster-was-unprecedented-research-censorship?t=

    Hundreds of Google employees have published an open letter following the firing of a colleague who is an accomplished scientist known for her research into the ethics of artificial intelligence and her work showing racial bias in facial recognition technology. That scientist, Timnit Gebru, helped lead Google’s Ethical Artificial Intelligence team until Tuesday. She says she was forced out of the company following a dispute over a research paper and an email she subsequently sent to peers (...)

    #Google #algorithme #biométrie #éthique #racisme #facial #reconnaissance #sexisme #biais (...)

    ##discrimination