• How Earnest Research Into Gay Genetics Went Wrong | WIRED
    https://www.wired.com/story/how-earnest-research-into-gay-genetics-went-wrong

    Un excellent article sur les danger éthiques et sociaux de l’usage sans précaution des données génétiques, notamment les données massives obtenues soit par des actes volontaires (recherche d’ancêtres, et autres) soit au fil d’actes médicaux.

    Anonymiser les données ne suffit pas à garantir qu’il n’y aura pas de conséquences fâcheuses pour l’ensemble de la société.

    Un très bon papier.

    In late spring 2017, Andrea Ganna approached his boss, Ben Neale, with a pitch: He wanted to investigate the genetics of sexuality. Neale hesitated. One of the top geneticists in the country, Neale and his colleagues at the Broad Institute, a pioneering biotech hub in Boston, had a decade earlier developed software that made it much easier for scientists to study the vast amounts of genetic data that were beginning to flood in. It was the kind of tool that helped illuminate a person’s risk of developing, say, heart disease or diabetes. And now, as Ganna was proposing, the approach could be applied to the foundations of behavior, personality, and other social traits that in the past had been difficult to study.

    Ganna wanted to pounce on a new opportunity. A giant collection of carefully cataloged genomes, called the UK Biobank, was about to become available to researchers. A scientist could apply and then gain access to data from 500,000 British citizens—the largest public repository of DNA on the planet. To Ganna, the genetic origins of being gay or straight seemed like the kind of blockbuster question that might finally get an answer from a data set of this size.

    Neale wasn’t so sure. As a gay man himself, he worried that such research could be misconstrued or wielded to advance hateful agendas. On the other hand, a better understanding of how genetics influences same-sex attraction could also help destigmatize it.

    Then Ganna mentioned that another group was already pursuing the question using the UK Biobank: a geneticist named Brendan Zietsch, at the University of Queensland, and his colleagues. In 2008, Zietsch published a study suggesting that the genes straight people shared with their gay twins made them more successful at bedding heterosexual partners. Now he was going to further test this “fecundity hypothesis” with a much more powerful data set. He’d also proposed investigating the genetic associations between sexual orientation and mental health. Thinking his lab could add expertise coupled with caution to such a project, Neale agreed they should try to team up with Zietsch.

    “Armed with the knowledge that this research was going to be done, I thought it was important that we try and do it in a way that was responsible and represented a variety of different perspectives,” he says, noting that, because there is so much genetic data to work with these days, collaborations in his field are commonplace “But it was also important to me personally, as a gay man, to get involved.”

    From the outset, Neale expected some pushback and misunderstandings. That’s why he involved LGBTQ+ groups along the way, something not technically required for the kind of research he was doing. But he wasn’t prepared for scientists within his home institution to rise up and challenge the value and ethics of his work. And he was even less prepared for a company to exploit the results of the study—just a few weeks after it was published in the journal Science—to sell an app purporting to predict how attracted someone is to the same sex.

    #Données_génétiques #Big_data #Ethique #Recherche #Hubris #Génomique #Homosexualité #Fausse_science

  • CRISPR’s unwanted anniversary | Science
    https://science.sciencemag.org/content/366/6467/777.full

    Jennifer Doudna*
    Science 15 Nov 2019:
    Vol. 366, Issue 6467, pp. 777
    DOI: 10.1126/science.aba1751

    There are key moments in the history of every disruptive technology that can make or break its public perception and acceptance. For CRISPR-based genome editing, such a moment occurred 1 year ago—an unsettling push into an era that will test how society decides to use this revolutionary technology.

    In November 2018, at the Second International Summit on Human Genome Editing in Hong Kong, scientist He Jiankui announced that he had broken the basic medical mantra of “do no harm” by using CRISPR-Cas9 to edit the genomes of two human embryos in the hope of protecting the twin girls from HIV. His risky and medically unnecessary work stunned the world and defied prior calls by my colleagues and me, and by the U.S. National Academies of Sciences and of Medicine, for an effective moratorium on human germline editing. It was a shocking reminder of the scientific and ethical challenges raised by this powerful technology. Once the details of He’s work were revealed, it became clear that although human embryo editing is relatively easy to achieve, it is difficult to do well and with responsibility for lifelong health outcomes.

    It is encouraging that scientists around the globe responded by opening a deeper public conversation about how to establish stronger safeguards and build a viable path toward transparency and responsible use of CRISPR technology. In the year since He’s announcement, some scientists have called for a global but temporary moratorium on heritable human genome editing. However, I believe that moratoria are no longer strong enough countermeasures and instead, stakeholders must engage in thoughtfully crafting regulations of the technology without stifling it. In this vein, the World Health Organization (WHO) is pushing government regulators to engage, lead, and act. In July, WHO issued a statement requesting that regulatory agencies in all countries disallow any human germline editing experiments in the clinic and in August, announced the first steps in establishing a registry for future such studies. These directives from a global health authority now make it difficult for anyone to claim that they did not know or were somehow operating within published guidelines. On the heels of WHO, an International Commission on the Clinical Use of Human Germline Genome Editing convened its first meeting to identify the scientific, medical, and ethical requirements to consider when assessing potential clinical applications of human germline genome editing. The U.S. National Academy of Medicine, the U.S. National Academy of Sciences, and the Royal Society of the United Kingdom lead this commission, with the participation of science and medical academies from around the world. Already this week, the commission held a follow-up meeting, reflecting the urgent nature of their mission.

    Where is CRISPR technology headed? Since 2012, it has transformed basic research, drug development, diagnostics, agriculture, and synthetic biology. Future CRISPR-based discoveries will depend on increased knowledge of genomes and safe and effective methods of CRISPR delivery into cells. There needs to be more discussion about prioritizing where the technology will have the most impact as well as equitable, affordable access to its products. As for medical breakthroughs, clinical trials using CRISPR are already underway for patients with cancer, sickle cell disease, and eye diseases. These and many other future uses of genome editing will involve somatic changes in individuals, not heritable changes that are transmissible. But the rapidly advancing genome editing toolbox will soon make it possible to introduce virtually any change to any genome with precision, and the temptation to tinker with the human germ line is not going away.

    The “CRISPR babies” saga should motivate active discussion and debate about human germline editing. With a new such study under consideration in Russia, appropriate regulation is urgently needed. Consequences for defying established restrictions should include, at a minimum, loss of funding and publication privileges. Ensuring responsible use of genome editing will enable CRISPR technology to improve the well-being of millions of people and fulfill its revolutionary potential.

    ↵* J.D. is a cofounder of Caribou Biosciences, Editas Medicine, Scribe Therapeutics, and Mammoth Biosciences; scientific advisory board member of Caribou Biosciences, Intellia Therapeutics, eFFECTOR Therapeutics, Scribe Therapeutics, Mammoth Biosciences, Synthego, and Inari; and director at Johnson & Johnson. Her lab has research projects sponsored by Biogen and Pfizer.

    #CRISPR #Ethique_médicale #Biotechnologie

  • De l’explicabilité des systèmes : les enjeux de l’explication des décisions automatisées
    http://www.internetactu.net/2019/11/14/de-lexplicabilite-des-systemes-les-enjeux-de-lexplication-des-decision

    Etymologiquement, expliquer, c’est déployer, déplier, c’est-à-dire soulever les ambiguïtés qui se cachent dans l’ombre des plis. C’est donc également « ouvrir » (avec tout le sens que « l’ouverture » – open – a acquis dans le monde numérique), défaire, dépaqueter, c’est-à-dire non seulement enlever les paquets, dérouler les difficultés, mais aussi montrer les noeuds qu’ils forment et comprendre pourquoi ils se forment. Expliquer, c’est clarifier. Mais clarifier comment ? Pour qui ? Que faut-il expliquer (et donc (...)

    #algorithme #éthique #terms #technologisme #domination #AlgorithmWatch #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_

  • “Explainable AI” doesn’t work for online services – now there’s proof
    https://algorithmwatch.org/en/story/explainable-ai-doesnt-work-for-online-services-now-theres-proof

    New regulation, such as the GDPR, encourages the adoption of “explainable artificial intelligence.” Two researchers claim to have proof of the impossibility for online services to provide trusted explanations. Most algorithms labelled “artificial intelligence” automatically identify relationships in large data sets, unbeknownst to the humans who program them. No one at Facebook decides on what advertisements are displayed on your newsfeed. Instead, an algorithm learned that, based on about 900 (...)

    #algorithme #éthique #technologisme #domination #terms #AlgorithmWatch

  • Le business sécuritaire d’Amazon
    https://www.lemonde.fr/economie/article/2019/11/13/le-business-securitaire-d-amazon_6019004_3234.html

    Le géant de l’e-commerce est devenu un acteur majeur et controversé du secteur de la défense et de la sécurité, grâce à sa filiale d’hébergement de données ou ses visiophones connectés. Cette expérience a été, pour nous, rien de moins qu’une transformation. » Sur scène, devant 10 000 personnes conviées à un événement organisé par Amazon pour ses clients appartenant au secteur public, à Washington, en juin 2018, Sean Roche ne tarit pas d’éloges sur les bienfaits des services d’hébergement de données en ligne (le (...)

    #Palantir #Google #Microsoft #Ring #IBM #Amazon #GoogleCloud #AWS #algorithme #CCTV #Neighbors #Rekognition #sonnette #éthique #biométrie #militarisation #vidéo-surveillance #facial #reconnaissance #CloudComputing #Maven #BigData #surveillance (...)

    ##voisinage ##CIA ##drone

  • Le Pentagone utilisera l’intelligence artificielle « de manière éthique »
    https://www.lapresse.ca/international/etats-unis/201911/05/01-5248486-le-pentagone-utilisera-lintelligence-artificielle-de-maniere-eth

    Un article qui n’a aucun problème à ne pas rappeler les antécédents d’Esper et son sens de l’"éthique" à géométrie très variable
    https://www.cnn.com/2019/07/16/politics/esper-senate-hearing-warren-democrats/index.html
    https://seenthis.net/messages/794354

    #Esper, 55 ans, ancien soldat et lobbyiste du fabricant d’#armes #Raytheon Co, a reçu un soutien bipartisan fort en dépit de vives interrogations lors de l’audience de confirmation de la sénatrice démocrate Elizabeth Warren au sujet de ses liens avec Raytheon et de son refus de prolonger un engagement en matière d’#éthique qu’il avait signé en 2017 pour éviter les décisions impliquant la société.

    #IA

  • Libérons le design et soutenons le libre
    https://usbeketrica.com/article/ce-que-le-design-peut-avoir-d-ethique-est-d-etre-libre

    Le design ne peut pas être la solution éthique à des produits ou des services numériques qui ne le sont pas parce qu’ils exploitent l’attention des utilisateurs, les manipulent ou reposent sur des objectifs de surconsommation. Les designers devraient concentrer leur énergie sur la participation à des projets libres d’envergure afin de les améliorer.

    #design #consommation #éthique

  • Les algorithmes : entre tyrannie du « réel » et exigences de justice.
    https://www.academia.edu/20138015/Les_algorithmes_entre_tyrannie_du_r%C3%A9el_et_exigences_de_justice

    Antoinette Rouvroy, docteur en droit, chercheure au Fond National de la Recherche Scientifique Belge rattachée au Centre de Recherche Information, Droit et Société de l’Université (CRIDS) de l’Université de Namur répond à nos questions sur les données massives, les algorithmes et la gouvernementalité algorithmique. Elle nous conduit aux frontières du droit et de la philosophie. C’est une occasion exceptionnelle de nous interroger sur ces nouvelles dimensions de nos vies et du monde numérique. (...)

    #algorithme #solutionnisme #éthique #BigData #discrimination

  • DES DONNÉES ET DES HOMMES. DROITS ET LIBERTÉS FONDAMENTAUX DANS UN MONDE DE DONNÉES MASSIVES
    https://www.academia.edu/15730565/DES_DONN%C3%89ES_ET_DES_HOMMES._DROITS_ET_LIBERT%C3%89S_FONDAMENTAUX_DANS_

    Comprendre la rationalité des processus algorithmiques (datamining, machine learning) est donc un présupposé nécessaire à toute réflexion normative à propos des Big Data en termes d’Etat de droit et de droits et libertés fondamentaux. Il nous importera de tenir compte de l’évolution et de la diversité des processus de calcul impliqués dans les traitements de type Big Data. Les applications des nouvelles techniques d’analyse et d’exploitations des Big Data sont innombrables. La “classe” d’applications (...)

    #algorithme #solutionnisme #éthique #BigData

  • Germany’s data ethics commission releases 75 recommendations with EU-wide application in mind
    https://algorithmwatch.org/en/germanys-data-ethics-commission-releases-75-recommendations-with-eu-

    A new document presented to the German government argues for more regulations in automated decision-making. AlgorithmWatch welcomes some proposals. This Wednesday, the “data ethics commission” of the German government released a 240-page report (pdf). It contains 75 concrete recommendations regarding the digitization of society, many of which have to do with algorithmic decision-making. The 16-strong commission, which included 9 men, started work in 2018. It brought together a majority of (...)

    #algorithme #solutionnisme #éthique #BigData

  • Défaire la tyrannie du numérique ?
    http://www.internetactu.net/2019/10/23/defaire-la-tyrannie-du-numerique

    Contrairement à ce que laisserait entendre son titre – La tyrannie des algorithmes, Textuel, 2019 -, le petit livre d’entretien avec le philosophe et psychanalyste Michel Benasayag (Wikipédia) qui parait ce jour, n’évoque pas vraiment la réalité qu’exerce la tyrannie des algorithmes. Benasayag n’est pas Kate Crawford, Virginia Eubanks ou Cathy O’Neil. Il n’est pas un spécialiste du sujet. Tant mieux ! Son propos n’est pas de regarder comment, très concrètement, les algorithmes transforment nos (...)

    #algorithme #solutionnisme #éthique #domination

    /assets/images/logo_ia.png

  • L’humain conçu comme un ordinateur, sur la pauvreté des problématiques de l’IA
    https://theconversation.com/lhumain-concu-comme-un-ordinateur-sur-la-pauvrete-des-problematique

    Sur la pauvreté des problématiques concernant l’intelligence artificielle : prenons, pour illustrer cela, les questions que l’on pose au sujet du véhicule autonome. L’état limite « parfait » du fonctionnement des véhicules autonomes serait celui d’un système global entièrement régulé par le numérique, interdisant a priori tout accident car, dit-on, « le silicium ne se trompe jamais ». S’il y a problème, c’est dans la phase intermédiaire où circuleront ensemble des véhicules autonomes et d’autres qui ne le (...)

    #algorithme #solutionnisme #éthique #domination

  • La vie n’est pas donnée
    https://www.academia.edu/31846143/La_vie_nest_pas_donn%C3%A9e

    La gouvernementalité algorithmique met en œuvre une nouvelle forme de

    normativité qui semble parfaitement adéquate aux mouvements de la vie. Pourtant elle ne fait qu’immuniser, en temps réel, une actualité calculable contre tout ce qui pourrait la mettre en crise. Elle nous plonge dans un univers continu, lisse, sans accident, indemne. Une normativité proprement humaine consiste à assumer l’inadéquation de nos représentations par rapport au monde, l’irréductibilité de la temporalité humaine au temps (...)

    #algorithme #solutionnisme #éthique #domination

    • Ce n’est pas en tant que « sujets actuels » en tant que « personnes présentes » plus ou moins doués d’entendement et de volonté, ni même comme formes humaines résilientes que nous intéressons les « plateformes » comme Google, Amazon, Facebook, ou les services de renseignement nationaux. C’est seulement en tant qu’émetteurs et agrégats temporaires de données numériques, c’est-à-dire de signaux asignifiants mais calculables en masse à l’échelle industrielle. Ces signaux ne résultent la plupart du temps d’aucune transcription intentionnelle des individus, mais s’apparentent plutôt aux « traces » que laissent les animaux, traces qu’ils ne peuvent ni s’empêcher d’émettre, ni effacer, des « phéromones numériques ». Peut-être même, alors que nous devenons de plus en plus « prévisibles » dans nos choix de consommation, dans nos trajectoires urbaines etc., n’avons-nous jamais, en tant que « personnes » été moins significativement « visibles » et « audibles » que dans ce contexte de gouvernementalité algorithmique qui nous dispense de construire et d’énoncer, pour nous-mêmes et pour autrui, nos désirs, préférences et intentions. Un profil, ce n’est personne, mais ça dispense de devoir se confronter aux personnes.

    • L’espace public, c’est aussi l’espace dans lequel se crée de la consistance sociale en raison de l’exposition à l’incertitude collectivement ressentie. Les big data nous poussent à passer, à cet égard, d’une société actuarielle à une société post-actuarielle. Le calcul actuariel fonctionne avec la notion de probabilité, laquelle ménage (malgré elle) une part irréductible d’incertitude radicale. Le calcul “actuel” prétend épuiser le possible, c’est-à-dire neutraliser toute incertitude par “actualisation” anticipative du possible. Dans la « société actuarielle » ou « assurantielle », la charge de l’aléa, du sort aveugle, de l’excès du possible sur le probable, était répartie entre les membres de collectivités d’assurés ou prise en charge collectivement par l’État. Au lieu de mutualiser la charge de la part irréductible d’incertitude radicale qui résiste à tout calcul de probabilité, comme le ferait une assurance, l’idéologie des big data promet d’assigner à chacun son « coût réel » : les primes d’assurance vie pourraient être « individualisées » non plus en fonction de catégories actuarielles préétablies, mais en fonction du mode de vie individuel, des habitudes alimentaires, des données relatives à l’activité physique collectées grâce aux gadgets de « quantified self », du nombre d’heures quotidiennement passées devant un écran et de quantité d’autres caractéristiques individuelles corrélées sans que l’on sache pourquoi, à un plus ou moins bon état de santé. Cela signifierait, bien entendu, la fin de l’assurance. La rationalité algorithmique signe l’avènement d’une société post-actuarielle, post-assurancielle dans laquelle la notion même de risque disparaît en même temps que l’idée, ou plutôt la tolérance à l’idée qu’existe une part tragique, incompressible, d’incertitude radicale ou d’indécidabilité : celle-là même qui constitue le fond sur quoi le juge doit trancher. Il devient donc possible, dès-lors, de se passer de tout système de solidarité entre individus mis en concurrence à l’échelle quasi-moléculaire de la donnée numérique infra-personnelle. Le tournant algorithmique, on le voit, - sous prétexte d’objectiver les processus décisionnels -, ne se pose pas en rupture par rapport aux politiques néolibérales, mais offre à ces dernières des outils particulièrement puissants, d’autant plus puissants d’ailleurs qu’ils passent inaperçus.

      ping @freakonometrics

    • oui, j’ai l’impression que ca reprend des éléments dont je parlais https://f.hypotheses.org/wp-content/blogs.dir/253/files/2018/11/Risques114_Charpentier.pdf https://freakonometrics.hypotheses.org/files/2018/02/Risques-Charpentier-04.pdf ou encore http://freakonometrics.hypotheses.org/files/2017/11/Risques-Charpentier03.pdf
      sur l’assurance, je suis moins pessimiste car le ratio signal/bruit reste très faible, ce qui laisse une porte largement ouverte à la mutualisation de ce « bruit »

    • suite : le paramétrage de l’aléatoire pour l’échantillonage des bénéficiaires , ayant droits etc , solidarité expérimentale , nouveaux décideurs , la démo de série ( de a à z) , la série qui démontre ; l’agrégation n’est pas heterogène à la rentabilité d’un territoire dont l’immatériel peut cacher la spacialisation

  • Ce que les catastrophes technologiques disent de la technologie
    http://www.internetactu.net/2019/10/15/ce-que-les-catastrophes-technologiques-disent-de-la-technologie

    Les catastrophes technologiques mettent à vif les lacunes démocratiques de nos choix technologiques. Remédier aux catastrophes nécessite donc de réintroduire de la démocratie dans nos choix technologiques. Tel est le propos de la sociologue américaine Sheila Jasanoff que décrypte pour nous Irénée Régnauld. Si la science a participé à l’allongement de la durée de vie et à une meilleure connaissance du monde, il convient de ne pas se mettre des œillères : la civilisation technologique n’est pas toute rose ! (...)

    #Facebook #algorithme #solutionnisme #écologie #éthique #manipulation #domination (...)

    ##discrimination
    /assets/images/logo_ia.png

  • Briser les géants du numérique, la solution « ultime » selon Margrethe Vestager
    https://www.mediapart.fr/journal/economie/091019/briser-les-geants-du-numerique-la-solution-ultime-selon-margrethe-vestager

    Chargée à la fois de la concurrence et de la définition d’une politique numérique européenne, la commissaire danoise sortante a été auditionnée mardi par le Parlement européen. Elle veut « accélerer ». Mardi 8 octobre, c’était au tour des trois vice-président·e·s exécutif·ve·s désigné·e·s, Valdis Dombrovskis (letton, chargé de l’économie au service des personnes), Margrethe Vestager (danoise, pour « une Europe adaptée à l’ère numérique ») et Frans Timmermans (néerlandais, chargé du Green Deal européen), d’être (...)

    #Google #Amazon #Facebook #éthique #taxation #domination #BigData #bénéfices

    • Le seul truc que je ne pige pas, c’est que le titre de l’article ne cadre absolument pas avec le propos de l’interviewée, qui n’est qu’une néolibérale dont le discours suinte la loi du marché à tout va.

  • #UE : Sylvie Goulard, la candidate commissaire française, renvoyée en deuxième sess Sandro Calderon - 9 Octobre 2019 - RTBF
    https://www.rtbf.be/info/monde/europe/detail_ue-sylvie-goulard-la-candidate-commissaire-francaise-renvoyee-en-deuxiem

    Sylvie Goulard est priée de venir s’expliquer une deuxième fois devant le Parlement européen. La candidate commissaire française est sous forte pression. Une large partie des eurodéputés se posent encore beaucoup des questions sur son intégrité.

    Deux dossiers mettent la protégée du président Emmanuel Macron en difficultés. D’abord, une grosse rémunération perçue d’un groupe de réflexion américain du temps où Sylvie Goulard était eurodéputée. Mais c’est surtout une affaire d’emplois fictifs supposés qui provoque le plus de remous.

    La semaine dernière lors de son grand oral, Sylvie Goulard, qui brigue un portefeuille XXL avec le marché intérieur, l’industrie, le numérique et la défense, n’a pas convaincu les eurodéputés sur les questions éthiques. Et les 54 pages de réponses écrites qu’elle leur a envoyés entretemps n’ont pas suffisamment clarifié les choses.

    Il faut dire que la Française reste sur sa ligne de défense. Concernant l’enquête ouverte en France sur des assistants parlementaires fictifs présumés, elle réclame toujours le respect de la présomption d’innocence. Si elle venait à être inculpée, elle mettrait son mandat entre les mains d’Ursula von der Leyen, la présidente de la Commission. Sylvie Goulard ne démissionnerait de son propre chef qu’après une « condamnation définitive », précise-t-elle par écrit.

    Une mise au point insuffisante pour une majorité de groupes parlementaires. Et surtout pour le PPE. Les démocrates-chrétiens, allemands en particulier, mettent en doute l’éthique de la candidate française. C’est aussi pour eux une façon de se venger du Président français Emmanuel Macron qui avait dégommé Manfred Weber, leur candidat au poste de président de la Commission via la procédure dite des Spitzenkandidaten.

    La vengeance est un plat qui se mange froid. On verra demain si Sylvie Goulard en fera les frais.

    #Sylvie_Goulard #femme #corruption #enMarche + #emplois_fictifs #eurodéputés #éthique en toc

  • « L’attention est devenue le nouveau pétrole »
    https://usbeketrica.com/article/certaines-entreprises-du-numerique-n-ont-aucun-modele-d-affaire

    Mathématicien et médiateur scientifique à l’Ecole polytechnique fédérale de Lausanne (EPFL), Lê Nguyên Hoang revient avec nous sur les notions d’éthique by design et de transparence algorithmique. Objectif : faire en sorte que les intelligences artificielles de demain soient plus responsables que celles d’aujourd’hui. Sujet de discussion de plus en plus récurrent dans le milieu de la tech, la notion d’éthique by design vise à intégrer les notions d’éthique dès la conception d’un algorithme ou d’une (...)

    #YouTube #algorithme #éthique #manipulation #addiction

  • La voiture qui en savait trop ; les dilemmes moraux posés par l’intelligence artificielle
    https://www.placedeslibraires.fr/livre/9782379310393-la-voiture-qui-en-savait-trop-les-dilemmes-moraux-po

    Sur la route, si vous n’aviez pas le choix, préféreriez-vous épargner un homme ou une femme ? Un sportif ou un obèse ? Un sans-abri ou un cadre supérieur ? Deux jeunes filles ou deux mamies ? Accepteriez-vous de vous sacrifier avec vos passagers pour éviter d’écraser des enfants ?... Les voitures sans conducteur rouleront bientôt dans nos villes. Pour la première fois dans l’histoire de l’Humanité, une machine décidera seule qui sauver, sans que l’humain ait le temps de vérifier sa décision. Bien sûr, (...)

    #algorithme #voiture #éthique

  • Civilisation numérique : vers la fin de la blague ?
    https://usbeketrica.com/article/civilisation-numerique-vers-la-fin-de-la-blague

    Pour François Houste, directeur conseil au sein d’une agence de design digital, les Trente glorieuses du numérique sont passées : place à la prise de conscience des professionnels et des usagers pour favoriser la décroissance d’un marché très énergivore. La réflexion commence par une question, faisant débat lors d’un déjeuner entre collègues comme tant d’autres : Peut-on rire du numérique, et plus particulièrement de nos métiers ? On ne va pas refaire le débat, ni réinvoquer Pierre Desproges. On peut bien (...)

    #Alphabet #Google #algorithme #solutionnisme #écologie #éthique #domination

  • Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir »
    http://www.internetactu.net/2019/09/30/kate-crawford-lia-est-une-nouvelle-ingenierie-du-pouvoir

    Kate Crawford (@katecrawford) est la cofondatrice (avec Meredith Whittaker, @mer__edith) de l’AI Now Institute (@AINowInstitute, blog). Chercheuse à Microsoft Research, professeur à l’université de New York, elle est spécialiste de l’étude des implications sociales des systèmes techniques et notamment des effets du Big Data, des algorithmes et de l’Intelligence artificielle. À l’occasion de l’inauguration de la chaire invitée IA et Justice, ouverte à l’École normale supérieure, elle a livré une (...)

    #CambridgeAnalytica #Axon #Google #HireVue #IBM #Amazon #algorithme #Alexa #Echo #écologie #biométrie #facial #criminalité #BigData #éthique #discrimination #LGBT (...)

    ##criminalité ##santé
    /assets/images/logo_ia.png

  • La commune est à nous ! Comprendre le #municipalisme en 8 étapes en ligne

    Nous affirmons que la #commune appartient à ses habitants et qu’il est nécessaire de la reconquérir pour la gérer différemment (#féminisation, #collégialité, #bienveillance …). C’est ça le municipalisme !

    « La commune est à nous ! », accessible en ligne, répond à vos questions en 8 étapes pour comprendre la #radicalité_démocratique et construire une nouvelle #éthique_politique. Quelles sont les clés pour ouvrir collectivement les portes d’une #municipalité ? Quelles expériences existent déjà, quels sont leurs succès, leurs difficultés ? Quelles méthodes utiliser pour inclure les habitants ? Comment animer une #assemblée_citoyenne et parvenir à une décision portée par tous ?

    Les modules

    Au cours de 8 modules répartis sur 6 semaines vous aurez l’occasion de traiter des sujets des plus politiques aux plus pratiques :

    Module 1 : Présentation du MOOC et de son fonctionnement
    Module 2 : Qu’est-ce que le municipalisme et quelle est son histoire ?
    Module 3 : Quelles sont les étincelles qui amènent au municipalisme, le terreau favorable et les différentes stratégies de mobilisation qui en résultent ?
    Module 4 : Comment se préparer à des candidatures électorales et nouer des alliances sociales et politiques ?
    Module 5 : Sur quels principes, valeurs et processus reconstruire la confiance en la #démocratie et les institutions dans sa commune ?
    Module 6 : Que signifie organiser un système démocratique PAR, POUR et AVEC les gens ?
    Module 7 : Quelles #politiques_publiques et quels résultats pour répondre aux enjeux sociaux, écologiques et démocratiques ?
    Module 8 : Comment trouver des marges de manœuvre et des stratégies pour peser sur les échelles de décision supra locales ?

    Ces sujets seront portés par des habitants qui portent ces expériences et des spécialistes. Vous aurez la possibilité d’interagir avec eux ainsi qu’avec les participants-es lors des webinaires et des rencontres locales, et aurez à votre disposition de nombreuses ressources.

    https://la-commune-est-a-nous.commonspolis.org
    #mooc #cours
    ping @karine4 @nepthys

  • On a testé… le Fairphone 3, le smartphone qui se veut éthique
    https://www.lemonde.fr/pixels/article/2019/08/27/on-a-teste-le-fairphone-3-le-smartphone-qui-se-veut-ethique_5503304_4408996.

    Issu du commerce équitable, durable, ou encore responsable, ce smartphone Android tente d’introduire une dose d’éthique dans un marché où règne la loi du profit débridé. Nous l’avons testé, voici notre avis. Le Fairphone 3 est porteur d’un bel espoir : il ambitionne d’être écologiquement et socialement responsable. Nous avons testé un prototype très avancé de ce smartphone Android annoncé mardi 27 août, qui sortira début septembre au prix de 450 euros. Il arrive à point nommé car son prédécesseur, le (...)

    #smartphone #écologie #éthique #Fairphone_

  • The techlash has come to Stanford.
    https://slate.com/technology/2019/08/stanford-tech-students-backlash-google-facebook-palantir.html

    Palantir is about a 15-minute walk from Stanford University. That stone’s-throw convenience helped one morning in June when a group of Stanford students perched on the third story of a parking garage across the street from the data-analytics company’s entrance and unfurled a banner to greet employees as they walked into work: “OUR SOFTWARE IS SO POWERFUL IT SEPARATES FAMILIES.”

    The students were protesting Palantir software that U.S. Immigration and Customs Enforcement uses to log information on asylum-seekers, helping the agency make arrests of undocumented family members who come to pick them up. The activists are members of a campus group called SLAP—Students for the Liberation of All People—that was founded by Stanford freshmen the winter after Donald Trump was elected president. At first, the group focused on concerns shared by leftist activists around the country: On the day of Trump’s inauguration, for example, members blocked the doors of a Wells Fargo near campus to protest the bank’s funding of the Dakota Access Pipeline and its history of racist lending practices. These days, though, SLAP has turned its attention to the industry in its backyard: Big Tech.

    This might all sound like standard campus activism. But many of SLAP’s peers don’t see the group—and another, softer-edged student organization called CS+Social Good—as marginal or a nuisance. Even computer science students whom I interviewed told me they were grateful SLAP is making noise about Silicon Valley, and that their concerns reflect a growing campus skepticism of the technology industry, even among students training to join it.

    Many of the computer science students at Stanford I talked to oscillated as they described how they feel about companies like Facebook, Microsoft, Amazon, and Google. Some told me they would never work for one of these companies. Others would but hope to push for change from within. Some students don’t care at all, but even the ones who would never think twice about taking a job at Facebook aren’t blind to how the company is perceived. “It probably varies person to person, but I’m at least hopeful that more of the Stanford CS community is thoughtful and critical of the morality of choosing a place to work these days, rather than just chasing prestige,” Neel Rao, a computer science undergrad at Stanford, told me in an online chat. “And that a lot of this is due to increasing coverage of major tech scandals, and its effect on mainstream public sentiment and distrust.”

    But unlike Computer Professionals for Social Responsibility—and in contrast with the current direct-action approach of SLAP—CS+Social Good is primarily focused on changing computer science higher education from the inside. The organization has worked with the university to create new electives in Stanford’s CS department, like “A.I. for Social Good” and studio classes that allow students to partner with nonprofits on tech projects and get credits. And CS+Social Good has expanded to other campuses too—there are now more than a dozen chapters at campuses across the country. At Stanford, CS+Social Good counts more than 70 core members, though well over 1,000 students have attended its events or are enrolled in the classes it’s helped design.

    #Techlash #Stanford #Ethique #Informatique

  • « J’ai vingt ans et je n’aurai jamais d’enfants ». Elles ont moins de trente ans et choisissent de se faire opérer pour éviter d’enfanter.

    « Je n’ai jamais été intéressée par les enfants, la #parentalité ou le fait de transmettre mes gènes. J’ai une vie bien remplie qui me convient et assez de responsabilités à mon goût. » Charlotte a 25 ans et a choisi la #stérilisation_volontaire il y a moins d’un an. L’opération qu’elle a dû subir, elle l’assimile à un bon souvenir. Elle renchérit : « Il y avait cette idée de le faire une bonne fois pour toutes, de ne pas avoir à penser à ma #contraception, ni prendre des rendez-vous pour la renouveler tous les ans. Le risque de tomber enceinte était un stress continu pour moi. »

    Ce témoignage étonnant n’est pourtant pas isolé. De nombreuses jeunes femmes font aujourd’hui le choix de la stérilisation. Selon une gynécologue des Hôpitaux universitaires de Genève (#HUG), le phénomène risque de prendre de l’ampleur. Cinq Genevoises de 19 à 27 ans ont accepté de témoigner pour la « Tribune de Genève ».

    Un choix drastique

    Margot, Loredana et Laure (identités connues de la rédaction) ont moins de 22 ans et envisagent toutes les trois la stérilisation. Si leurs raisons varient, elles ont un point commun : aucune d’entre elles ne veut d’enfant. Laure ajoute même avec conviction : « Si un jour je veux un enfant, je préfère l’adopter. » Elle évoque également sa vision pessimiste de l’avenir de l’humanité. Un point sur lequel la rejoint Margot : « Je trouve égoïste de mettre au monde quelqu’un dans une situation aussi catastrophique sur le plan climatique et politique. Si je change d’avis, l’adoption existe et je trouve bien plus éthique de donner une chance à un enfant en foyer plutôt que d’en faire un moi même. »

    Le manque de choix dans les techniques de contraception est également un thème récurrent. Margot s’inquiète des conséquences que les #hormones pourraient avoir à long terme sur son #corps. Prendre la #pilule tous les jours ne la met pas en confiance. Laure ne supporte tout simplement pas les effets secondaires de la pilule et le #stérilet en cuivre lui impose des règles douloureuses.

    Si elles sont toutes sûres de leur choix, elles diffèrent sur le moment de l’opération. Laure et Loredana aimeraient la faire dès que possible mais se heurtent aux refus des gynécologues. La première soutient : « Si je pouvais commencer les démarches demain, je le ferais. » Margot est plus modérée et voit cela dans un futur lointain : « J’imagine que je me déciderai à trente ou trente-cinq ans, si je n’ai pas changé d’avis d’ici là. Ce qui voudra dire que je suis certaine de mon choix. »

    Il existe plusieurs techniques de stérilisations qui ont le même but : rendre les trompes de Fallope inutilisables afin d’empêcher les spermatozoïdes de rencontrer l’ovule. Les plus courantes consistent à ligaturer ou sectionner directement les trompes, dans ce cas l’opération est irréversible. Il est également possible de pincer les trompes avec des clips ou anneaux. Ici, l’opération pour revenir en arrière est possible avec de faibles chances de réussite et des risques non négligeables de grossesses extra-utérines. Selon le site médical Sexual health info, peu importe la technique utilisée, il faut considérer la stérilisation comme définitive.

    N’importe quelle personne majeure et capable de discernement peut demander une stérilisation. Les conditions sont les mêmes que pour toute opération : il faut le consentement libre et éclairé de la patiente et quarante-huit heures de réflexion.

    Selon notre interlocutrice des HUG, une gynécologue qui souhaite rester anonyme, la plupart du temps les stérilisations sont discutées durant la grossesse. Il est plus simple de stériliser une femme lors d’une césarienne. Ce sont des patientes qui ont généralement la quarantaine. À ce moment, la fertilité a de toute façon déjà diminué et la stérilisation permet d’en finir.

    Le principal obstacle à la stérilisation est l’opposition du médecin. Mélanie, 27 ans, est stérilisée depuis maintenant un an. Elle a dû consulter plusieurs gynécologues avant d’en trouver un qui accepte de l’opérer. « La première femme que j’ai vue m’a fait un sermon durant toute la séance. Elle me disait que je ne me rendais pas compte de ce que cela représentait, que j’allais changer d’avis ou rencontrer l’homme de ma vie et que c’était de toute façon hors de question de le faire pour elle. »

    La doctoresse des HUG explique : « Tout ce qu’un chirurgien fait, il doit le faire dans l’intérêt de sa patiente, c’est une grosse #responsabilité d’ouvrir le ventre d’une femme pour lui enlever la capacité de faire des enfants. À mon sens, on doit avoir le droit de refuser si on estime que ce qu’on fait n’est pas juste, sauf s’il y a un risque vital. À l’hôpital, la décision de stérilisation est discutée d’abord par le médecin qui rencontre la femme, puis avec le chef de clinique. Si le cas est compliqué, typiquement lorsque la femme est jeune, la discussion est reprise avec l’équipe au complet. »

    Le #refus_médical

    Notre interlocutrice explique ensuite les raisons qui poussent un médecin à refuser cette opération : « La question du #consentement_librement_éclairé ou non se pose. Est-ce qu’à vingt ans on a vraiment assez d’informations sur soi ? »

    Ces refus médicaux répétés ont poussé Charlotte et Mélanie à se rendre en #France pour y être opérées, dans des cliniques connues pour accepter les stérilisations sur des jeunes femmes. Toutes deux disent n’avoir aucune peur de regretter leur choix.

    « Je comprends pleinement les femmes qui se sentent frustrées après un refus, poursuit la médecin, je comprends également le sentiment d’#injustice à ne pas pouvoir disposer de son corps comme on le voudrait. Néanmoins, il y a un nombre non négligeable de femmes qui regrettent ensuite ce choix et qui veulent revenir en arrière. Plus la femme est jeune et plus elle a de chances de changer d’avis. » La spécialiste prévient que les opérations pour enlever les clips fonctionnent mal et que des techniques comme la PMA (Procréation médicalement assistée) sont longues, coûteuses et difficiles psychologiquement.

    « Pour finir, une stérilisation n’est pas une opération anodine, souligne-t-elle. Il s’agit d’une anesthésie générale et d’ouvertures dans le ventre. Si les complications sont rares, elles sont néanmoins réelles. Un bon chirurgien n’est pas uniquement un médecin qui opère bien, mais qui arrive aussi à mesurer toutes les implications de son travail. »

    Le droit à l’erreur

    La bioéthicienne Samia Hurst, professeure à l’Université de Genève, fait le point sur la situation : « La question du corps est importante en médecine et le #consentement du patient demeure fondamental. Dire non à un acte médical est un droit en or massif. Par contre, il y a une différence entre refuser un acte sur son corps et en exiger un. Si je refuse qu’on pratique un geste sur moi, un médecin doit aussi pouvoir refuser de le pratiquer. Demander d’agir n’est pas la même chose que de demander ne pas agir. »

    Elle questionne ensuite les raisons courantes d’un refus : « L’argument qui motive le plus souvent un refus est que les femmes ne devraient pas se faire stériliser car elles risquent de changer d’avis. C’est tout à fait vrai, les choix sont fluctuants. Les circonstances changent et les grandes décisions avec. Le problème avec ce raisonnement est qu’aucune décision de vie n’est totalement réversible. Se marier, avoir un enfant ou ne pas avoir d’enfant sont toutes des décisions qui auront un impact indélébile sur la suite de la vie d’un individu. »

    Samia Hurst remarque pourtant, « qu’on est beaucoup plus inquiets lorsqu’une femme prend la décision de ne pas avoir d’enfants plutôt que lorsqu’elle décide d’en avoir. Il y a une #norme_sociétale importante qui dit que les gens (et plus particulièrement les femmes) doivent avoir des enfants. Il demeure difficile de s’écarter de cette #norme pour les femmes qui veulent se stériliser et pour les médecins pratiquant l’opération. »

    La professeure d’#éthique conclut sur le #droit_à_l’erreur : « Accepter la #liberté de quelqu’un, c’est aussi lui laisser le droit de se tromper. Pour être libre, je dois prendre mes propres décisions, même si elles ne sont pas les bonnes. Un médecin n’a pas besoin d’adhérer à l’idée de sa patiente pour accéder à sa requête. »

    Militantisme ou manque de moyens

    Charlotte explique que, dans son cas, se stériliser est aussi une façon de donner un signal clair : « La société incite les femmes à vouloir des enfants et celles qui n’en veulent pas sont stigmatisées. On entend trop souvent dire que si on ne veut pas d’enfant à vingt ans, on va forcément changer d’avis plus tard. Pour moi, me stériliser était aussi un moyen de prouver à mon entourage ma volonté de ne pas enfanter. J’ai fait en sorte que mon corps ne soit pas capable d’avoir un enfant car je ne veux pas de cette vie. Je suis désormais enfin une femme libre et totalement détachée ! » Laure ne partage pas cette motivation mais la comprend : « Je pense que les femmes savent ce qu’elles veulent et qu’on ne doit pas choisir pour elles. »

    Aujourd’hui, aucun moyen de contraception féminin n’est dépourvu d’effet secondaire. De plus, la charge de devoir penser à la contraception au mieux tous les ans ou au pire tous les jours revient toujours aux femmes. Pour Laure, c’est ce déficit qui pose problème : « Si j’avais accès à une contraception sans hormones qui ne me demande pas de repasser sur la chaise du gynéco pendant trente minutes tous les cinq ans, je ne penserais même pas à la stérilisation. Je trouve qu’actuellement la recherche dans le domaine de la #contraception_féminine n’est pas assez poussée. »

    https://www.tdg.ch/geneve/actu-genevoise/j-vingt-ans-naurai-jamais-denfants/story/16727912

    #stérilisation #femmes #corps #femmes

    • Il y a un vrai problème aussi avec la manière dont le DIU est sous-vendu et les règles douloureuses sous-traitées. Le DIU peut être laissé en place 10 ans sans soucis, mais il semble que la secte des gynécos de France ait obtenu une AMM de 5 ans, juste pour faire tourner leur foutu tiroir-caisse, alors que le risque max de cette contraception, c’est justement d’être mal posée.
      Quant aux règles abondantes et douloureuses, j’en ai chié des années, jusqu’à ce que Winckler explique que, non, les anti-inflammatoires ne sont pas du tout contre-indiqués en cas de règles pourries sous DIU, au contraire, c’est même le truc recommandé pour réduire le flux.

      Une fois cette question réglée, le DIU et la contraception la moins chère, la moins contraignante et la plus efficace pour le moment. En plus, il y a un travail actuellement autour de la création d’un kit d’auto-pose.
      Ensuite, le principe, c’est quand même de ne plus penser à sa contraception pendant 10 ans, garanti sans hormones qui nous pourrissent la vie !

    • Quand j’ai réussie à bénéficier de la contraception définitive, juste après l’intervention la secrétaire médicale qui m’a dit etre militante féministe m’a gratifié de cette remarque :
      « - Vous ca va, vous pouvez être stériliser (j’avais 38 ans), mais les gamines de 20 ans qui ont la flemme de prendre la pilule, il n’en est pas question. »

  • These companies claim to provide “fair-trade” data work. Do they? - MIT Technology Review
    https://www.technologyreview.com/s/614070/cloudfactory-ddd-samasource-imerit-impact-sourcing-companies-for-d

    A lot of human labor goes into building artificial-intelligence systems. Much of it is in cleaning, categorizing, and labeling data before AIs ingest it to look for patterns. The AI Now Institute, an ethics body, refers to this work as the “hidden labor” of the AI pipeline, “providing the invisible human work that often backstops claims of AI ‘magic’ once these systems are deployed in products and services.”

    By contrast, most people doing data annotation don’t work in Manhattan offices but from their homes in places such as India, Kenya, Malaysia, and the Philippines. They log in to online platforms for anywhere from a few minutes to several hours a day, perhaps distinguishing between bunches of green onions and stalks of celery or between cat-eye and aviator-style sunglasses. As detailed in the recent book Ghost Work by Mary Gray and Siddharth Suri, most of them are gig workers with low pay, insecure employment, and no opportunity for career advancement.

    A small group of data annotation firms aims to rewrite that narrative. But these firms aiming to “do well by doing good” in AI data services are finding the path to enterprise enlightenment can be a rocky one.

    “It is really a race to the bottom,” says Daniel Kaelin, director of customer success at Alegion, a data annotation services company in Austin, Texas. “This whole industry is very, very competitive; everybody tries to find that little cheaper labor force somewhere else in the world.”
    What does “impact” really mean?

    Alegion is one of several platforms, including CloudFactory, Digital Divide Data (DDD), iMerit, and Samasource, that say they want to make AI data work dignified. They call themselves “impact” companies and claim to offer ethically sourced data labor, with better working conditions and career prospects than most firms in the industry. It’s like fair-trade coffee beans, but for enormous data sets.

    However, there are no regulations and only weak industry standards for what ethical sourcing means. And the companies’ own definitions of it vary widely.

    Troy Stringfield, who took over as Alegion’s global impact director in 2018, defends the “impact” label—which the seven-year-old company has adopted only in the past year or so—by saying impact means creating work that improves people’s lives. “It’s going in and saying, ‘What is a livable wage? What is getting them better than where they’re at?’” he says.

    But Sara Enright, project director at the Global Impact Sourcing Coalition (GISC), a member-funded industry body, says it’s doubtful that such work should be called impact sourcing: “If it is solely gig work in which an individual is accessing part-time wages through an hour a day here and there, that is not impact employment, because it does not actually lead to career development and ultimately poverty alleviation.”

    Getting into the US market

    In their bid to expand, companies like Alegion and iMerit are also trying to build a pool of data workers in the US, drawing on underprivileged and marginalized populations there. That gives them lucrative access to government, financial, and health care clients that demand stringent security measures, work with regulated medical and financial data, or need the work done in the US for other legal reasons.

    To recruit those US workers, the impact firms can go through companies like Daivergent, which serves as a conduit to organizations such as the Autism Society and Autism Speaks. (That’s where Campbell, whom we met earlier drawing boxes around cars, works.) Alegion also did a trial using workers provided through IAM23, a support group for military veterans.

    Unlike with fair-trade goods, there is little public pressure on the companies to be honest, because they provide their services to businesses, not directly to consumers. “Consumers can value ethical sourcing—for example, at Patagonia and various consumer brands—and you kind of buy into that as a consumer,” says iMerit’s Natarajan. But “it remains to be seen what ethical sourcing means in the b-to-b sector.” As a 2014 issue of Pulse, an outsourcing industry magazine, noted, companies would have to make a choice to use impact-conscious labor providers. Without laws or public pressure it’s not clear what can impel them to make such a choice, and without standards and accountability, it’s not clear how they should evaluate the providers.

    In the end it may be only regulation that changes labor practices. “There is no way to change employment from the inside of markets. Yes, they’re doing everything they can, and that’s like saying I’ve got a bicycle with no pedals, and I’m doing everything I can to ride it as quickly as this thing is built to go,” says Gray, the Ghost Work coauthor. “There is no organizing of the rights of workers and fair employment without involving civil society, and we haven’t done that yet.

    #Digital_labor #Travail #Intelligence_artificielle #Ethique

    • Je trouve admirable que, pendant que le discours des prometteurs et promotrices de l’intelligence artificielle et de l’informatisation à outrance insiste si souvent que cette informatisation, digitalisation, vont permettre de libérer le genre humain des tâches les plus répétitives et les moins satisfaisantes, en fait, en grattant un peu, on découvre que c’est le contraire, ce sont des humains qui nettoient fastidieusement les données pour que l’ordinateur fasse le boulot marrant de déduire de ces données propres des éléments statistiques intéressants.