• Built to Last
    https://logicmag.io/care/built-to-last

    When overwhelmed unemployment insurance systems malfunctioned during the pandemic, governments blamed the sixty-year-old programming language COBOL. But what really failed ? At the time of this writing, in July 2020, the COVID-19 pandemic has killed over 133,000 people in the United States. The dead are disproportionately Black and Latinx people and those who were unable, or not allowed by their employers, to work remotely. During the pandemic, we’ve seen our technological infrastructures (...)

    #obsolescence #sexisme #COVID-19 #santé #technologisme

    ##santé
    https://images.ctfassets.net/e529ilab8frl/tRbxY0DnXIP6QE7RBrNB9/8ae1e1cf7b4d7530e4d3500a154001dc/mar-hicks.png

    • Excerpt :

      Many of these men fancied themselves to be a cut above the programmers who came before, and they often perceived COBOL as inferior and unattractive, in part because it did not require abstruse knowledge of underlying computer hardware or a computer science qualification.

      Consciously or not, the last thing many male computer scientists entering the field wanted was to make the field easier to enter or code easier to read, which might undermine their claims to professional and “scientific” expertise.

      In a broader sense, hating COBOL was—and is—part of a struggle between consolidating and protecting computer programmers’ professional prestige on the one hand, and making programming less opaque and more accessible on the other. There’s an old joke among programmers: “If it was hard to write, it should be hard to read.” In other words, if your code is easy to understand, maybe you and your skills aren’t all that unique or valuable. If management thinks the tools you use and the code you write could be easily learned by anyone, you are eminently replaceable.

      one contemporary programmer, who works mainly in C++ and Java at IBM, told me, “Every new programming language that comes out that makes things simpler in some way is usually made fun of by some contingent of existing programmers as making programming too easy—or they say it’s not a ‘real language.’”

      “It’s about gatekeeping, and keeping one’s prestige and importance in the face of technological advancements that make it easier to be replaced by new people with easier to use tools.” Gatekeeping is not only done by people and institutions; it’s written into programming languages themselves.

      modern computing has started to become undone, and to undo other parts of our societies, through the field’s high opinion of itself, and through the way that it concentrates power into the hands of programmers who mistake social, political, and economic problems for technical ones, often with disastrous results.

      In order to care for technological infrastructure, we need maintenance engineers, not just systems designers—and that means paying for people, not just for products.

      Older systems have value, and constantly building new technological systems for short-term profit at the expense of existing infrastructure is not progress. In fact, it is among the most regressive paths a society can take.

      The blessing and the curse of good infrastructure is that when it works, it is invisible: which means that too often, we don’t devote much care to it until it collapses.

    • Intéressant comme une énigme crypto dans Spirou, mais le commentaire « using a single symbol » est trompeur car chaque nombre est l’assemblage de 4 symboles (unités en haut à gauche, dizaines en haut à droite, centaines en bas à droite, milliers en bas à gauche) reliés par une barre verticale. Tout pareil, en somme, que si nos 4 chiffres 1923 étaient reliés par une barre horizontale.

    • il y a un lien évident avec le système utilisé depuis l’Antiquité gréco-romaine pour compter sur ses doigts jusqu’à 9999, resté en usage jusque au XVIè siècle avec le triomphe des chiffres arabes qui a balayé ce système véritablement millénaire.

      cf. https://seenthis.net/messages/322631

      et le système en question (pas très lisible)

      (bien noter la différence entre 1 et 7 : dans le premier cas, le petit doigt est replié pour que son extrémité touche la base du doigt, dans le deuxième il vient franchement sur la paume ; idem pour les autres doigts)

      à l’époque, 2014 déjà …, je m’étais un peu entrainé à pratiquer, au début ça demande de mobiliser des muscles de la main totalement inutilisés actuellement, on finit par s’y faire, mais le début est laborieux

      depuis, j’ai tout perdu …

    • rapidement :
      • les nombres de 1 à 9 sont réalisés par les positions des doigts 3, 4 et 5 de la main gauche
      – représentés dans le système cistercien par la partie en haut à droite de la barre verticale

      • les nombres de 10 à 90 par les doigts 1 et 2 (pouce, index) de la main gauche
      – partie en haut à gauche de la barre

      et ça fonctionne de la même manière pour la main droite, dont les doigts 1 et 2 codent les centaines et les doigts 3 à 5 les milliers, en miroir de la main droite

      les moines cisterciens n’ont pas inventé un système de numération, ils ont adapté (la systématisation des positions de 1 à 9, quelle que soit le rang (unités, dizaines, centaines ou milliers) à une symétrie près et transcrit un système attesté depuis environ le Ve ou IVe siècle avant l’ère chrétienne et qui a traversé les âges inchangé pendant pratiquement deux millénaires

      les commerçants et changeurs qui utilisaient couramment ce sytème devait avoir des images mentales des nombres associés aux positions physiques des doigts qu’il était probablement relativement aisé ensuite d’associer aux symboles de la transcription

      EDIT : oups, j’ai été un peu vite, entre droite et gauche. Corrigé…

  • The GameStop Game Never Stops , Matt Levine, bloomberg.com
    https://www.bloomberg.com/opinion/articles/2021-01-25/the-game-never-stops

    “boredom markets hypothesis,” the notion that stocks these days are driven not by rational calculations about their expected future cash flows but by the fact that people are bored at home due to the pandemic and have nothing better to do but trade stocks with their buddies on Reddit. Why not trade GameStop, literally a stock about games?

  • Teams : La rentrée de Microsoft
    https://medor.coop/magazines/medor-n21-hiver-2020-2021/teams-la-rentree-microsoft

    Depuis le confinement, les écoles ont dû basculer en urgence vers le télé-enseignement. Quel outil choisir ? « Euh… On n’était pas préparé. » Le géant Microsoft, qui avait déjà travaillé le terrain, a foncé sur l’occasion pour inonder le marché. À quel prix ? Tous les élèves et les profs connectés pour continuer l’enseignement : un « changement de paradigme ». Voilà ce qu’a amené le confinement dans l’enseignement belge, où la question du numérique est aussi épineuse que celle du mariage des prêtres dans (...)

    #Microsoft #technologisme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #domination #données #enseignement (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##télétravail

  • I looked at all the ways Microsoft Teams tracks users and my head is spinning
    https://www.zdnet.com/article/i-looked-at-all-the-ways-microsoft-teams-tracks-users-and-my-head-is-spinning

    Microsoft Teams isn’t just there to make employees’ lives easier. It’s also there to give bosses data about so many things. My head is recovering from something of a pivot. You see, a couple of weeks ago Microsoft CEO Satya Nadella declared, in an interview with the Financial Times, that Teams could soon be a digital platform as important as the internet browser. Yes, Microsoft Teams. This startled me a touch. The world seems to have moved rather quickly of late. I thought of all those (...)

    #Microsoft #ProductivityScore #Windows #données #écoutes #surveillance #travail

  • US has ’moral imperative’ to develop AI weapons, says panel
    https://www.theguardian.com/science/2021/jan/26/us-has-moral-imperative-to-develop-ai-weapons-says-panel

    Draft Congress report claims AI will make fewer mistakes than humans and lead to reduced casualties The US should not agree to ban the use or development of autonomous weapons powered by artificial intelligence (AI) software, a government-appointed panel has said in a draft report for Congress. The panel, led by former Google chief executive Eric Schmidt, on Tuesday concluded two days of public discussion about how the world’s biggest military power should consider AI for national security (...)

    #Alphabet #Google #Microsoft #algorithme #robotique #éthique #militaire #arme

    https://i.guim.co.uk/img/media/c4d5bdc56149c16b78594a9c8b70d3f570bbba2d/0_129_3500_2100/master/3500.jpg

  • « On surveille l’individu non plus pour ce qu’il fait, mais pour ce qu’il est »
    https://www.lemonde.fr/idees/article/2021/01/25/fichiers-de-renseignement-on-surveille-l-individu-non-plus-pour-ce-qu-il-fai

    L’extension de la collecte des données relatives à « des opinions politiques, des convictions philosophiques, religieuses ou une appartenance syndicale » a été conçue avec la volonté d’écarter toute opposition ou contradiction, estime l’avocat pénaliste David Curiel.

    Tribune. Le 4 janvier, le Conseil d’Etat a rejeté les demandes en référé de plusieurs associations et syndicats, qui entendaient faire suspendre l’exécution de trois décrets du 4 décembre 2020 modifiant le traitement de données à caractère personnel. Ces trois décrets ont élargi les données pouvant être collectées dans les fichiers de renseignements suivants : le PASP (prévention des atteintes à la sécurité publique) destiné aux policiers, le Gipasp (gestion de l’information et prévention des atteintes à la sécurité publique), destiné aux gendarmes, et le EASP (enquêtes administratives liées à la sécurité publique), relatif aux enquêtes administratives.

    Les requérants soutenaient que les décrets étaient entachés d’illégalité, du fait notamment de l’atteinte considérable aux libertés fondamentales. Toutefois, le Conseil d’Etat a soutenu que les arguments avancés par les associations et les syndicats n’étaient pas de nature à faire naître un doute sérieux sur la légalité de ces dispositions. Il a en effet considéré que les trois décrets ne portaient pas une atteinte disproportionnée à la liberté d’opinion, de conscience et de religion, ou à la liberté syndicale.

    L’apport majeur de ces décrets réside dans les nouveaux articles R. 236-13 et R. 236-23 du code de la sécurité intérieure. Avant ces décrets, il était uniquement possible de ficher des données relatives à « des activités politiques, philosophiques, religieuses ou syndicales ». Cependant, depuis le 2 décembre 2020, et confirmé depuis le rejet des référés du 4 janvier, il est désormais possible de ficher des données relatives à « des opinions politiques, des convictions philosophiques, religieuses ou une appartenance syndicale » et également « des données de santé révélant une dangerosité particulière ». Cette évolution a été qualifiée de « terminologique » par le ministre de l’intérieur.

    Un boulevard pour l’Etat

    En réalité, elle est beaucoup plus profonde et lourde de sens. Sur la forme, tout d’abord, la Commission nationale de l’informatique et des libertés (CNIL) déclare qu’elle ne s’est pas prononcée sur cette modification, qui ne figurait pas dans le projet qui lui avait été soumis. Il est, dès lors, surprenant que le gouvernement n’ait pas présenté cette modification substantielle à la CNIL, dont l’essence même est de veiller à la protection des données personnelles contenues dans les fichiers et traitements informatiques. Sur la forme, toujours, ce texte a fait l’objet d’un décret, échappant de facto au débat contradictoire du Parlement, dont l’une des missions est de contrôler l’activité gouvernementale. Il s’en est retrouvé privé.

    Ces deux modalités d’élaboration du texte ne sont pas hasardeuses : elles démontrent une réelle volonté d’écarter toute opposition ou contradiction. De plus, la CNIL a un pouvoir de contrôle, consistant à vérifier sur place la mise en œuvre concrète de la loi. Pourtant, la nouvelle rédaction de l’article R. 236-9 prévoit désormais que ce contrôle peut être restreint afin « d’éviter de gêner des enquêtes, des recherches ou des procédures administratives ou judiciaires ou d’éviter de nuire à la prévention ou à la détection d’infractions pénales, aux enquêtes ou aux poursuites en la matière ou à l’exécution de sanctions pénales ».

    Disons-le clairement, c’est un boulevard pour l’Etat. La CNIL a été écartée a priori, elle l’est également a posteriori. Sur le fond, force est de constater que ces nouveaux décrets visent la collecte de données afin de lutter, notamment, contre la menace terroriste. A propos des lois scélérates, ces lois de 1893 et 1894 visant à réprimer le mouvement anarchiste, Léon Blum écrivait en 1898 : « Dirigées contre les anarchistes, elles ont eu pour résultat de mettre en péril les libertés élémentaires de tous les citoyens. »

    Changement de paradigme

    Car c’est bien de cela qu’il s’agit aujourd’hui, si ce n’est que le terrorisme a remplacé l’anarchisme. Ces nouveaux décrets opèrent un changement de paradigme : la prise en compte de l’individu non plus pour ce qu’il fait, mais pour ce qu’il est. L’individu est appréhendé comme suspect et comme celui qui risque de passer à l’acte. Car, gardons cela en tête, on ne fiche plus une activité avérée et incontestable mais une opinion politique, une conviction philosophique ou religieuse, une simple appartenance syndicale.

    De nombreuses questions doivent se poser sur ce nouveau fichage : la plus évidente, pourquoi collecter ces données ? Si un individu est interpellé pour avoir commis un délit, ce fichage peut-il être un argument supplémentaire pour le renvoyer devant un tribunal correctionnel ? Comment détermine-t-on si telle opinion politique ou telle conviction religieuse doit être fichée ? Comment ces fichiers vont être alimentés ? A ces questions, pourtant essentielles, nous n’avons aucune réponse.

    Cela interroge sur ce que l’on considère comme une information vraie, une source fiable, un renseignement utile, sur ce que l’on peut coder comme un danger potentiel, ce que l’on peut dire de son imminence alors même que celui-ci n’a pas encore eu lieu. Michel Foucault écrivait en 1975, dans Surveiller et Punir, que le simple fait de se savoir surveillé entraîne une forme d’obéissance. Les opinions, dès lors qu’elles sont examinées, recensées, fichées, servent une visée utilitariste, le contrôle de la population pour l’amener vers une forme de docilité. C’est en ce sens qu’il serait possible de penser un nouveau monopole conféré à l’Etat : celui de la surveillance légitime.

    David Curiel est avocat pénaliste au barreau de Paris

    #données #religion #EASP #Gipasp #Pasp #profiling #surveillance #syndicat #CNIL

  • The Guardian en pleine ébulition face à l’attaque forcenée de Google (et Facebook) contre la démocratie !

    Google threatens to shut down search in Australia if digital news code goes ahead, by Josh Taylor, 22 Jan 2021
    https://www.theguardian.com/media/2021/jan/22/google-threatens-to-shut-down-search-in-australia-if-digital-news-code-
    Google and Facebook are fighting legislation that would force them to enter into negotiations with news media companies for payment for content

    Google’s threat to withdraw its search engine from Australia is chilling to anyone who cares about democracy, by Peter Lewis, 22 Jan 2021
    https://www.theguardian.com/commentisfree/2021/jan/22/googles-threat-to-withdraw-its-search-engine-from-australia-is-chilling
    The tech giant’s Senate testimony shows how far it is prepared to go to resist real regulation
    Google signage

    Google threatens to leave Australia – but its poker face is slipping, by Alex Hern UK technology editor, 22 Jan 2021
    https://www.theguardian.com/technology/2021/jan/22/google-threatens-leave-australia-but-poker-face-slipping
    Analysis: tech firm’s refusal to pay news publishers comes as it agrees to do exactly that in France

  • « Pourquoi les anti-autoritaires sont diagnostiqué·es malades mental·es

    Au cours de ma carrière de psychologue, je me suis entretenu avec des centaines de personnes ayant été diagnostiqué·es par d’autres professionnels comme souffrant d’un trouble oppositionnel avec provocation, d’un déficit de l’attention avec hyperactivité, d’un trouble anxieux et d’autres maladies psychiatriques, et je suis frappé de voir (1) à quel point les personnes diagnostiquées sont essentiellement des anti-autoritaires, et (2) à quel point ces professionnels qui les ont diagnostiqué·es ne le sont pas.

    Les anti-autoritaires se posent la question de savoir si une autorité est légitime avant de la prendre au sérieux. Évaluer la légitimité des autorités consiste entre autre à déterminer si oui ou non les autorités savent réellement de quoi elles parlent, si elles sont honnêtes, et si elles se préoccupent de celleux qui respectent leur autorité. Et quand des anti-autoritaires estiment qu’une autorité est illégitime, iels contestent et résistent à cette autorité – de façon parfois agressive et parfois passive-agressive, parfois sagement et parfois non.

    Certain·es activistes se lamentent du peu d’anti-autoritaires qui semble exister aux États-Unis. Une des raisons à cela pourrait être que beaucoup de gens naturellement anti-autoritaires sont maintenant psychiatrisé·es et mis·es sous médicaments avant de parvenir à une prise de conscience politique concernant les autorités les plus oppressives de la société. »

    #psy #psychologue #psychiatre #anti_autoritaire #autorité #activiste #politique

    http://www.zinzinzine.net/anti-autoritaires-diagnostique-es-malades-mental-es.html

  • Loi « Sécurité globale » : désinformation, mode d’emploi sur France Inter et France 2 | Arnaud Galliere et Pauline Perrenot
    https://www.acrimed.org/Loi-Securite-globale-desinformation-mode-d-emploi

    Parce que les SDJ de nombreux médias se sont impliquées dans la mobilisation contre la proposition de loi « Sécurité globale », on aurait pu s’attendre à ce que cette dernière bénéficie d’un traitement de qualité. Ou, tout du moins, meilleur que la couverture d’ordinaire réservée aux contestations sociales. A fortiori sur les médias de service public. Pourtant, ce fut loin d’être le cas. Deuxième partie de notre étude des deux tranches d’information emblématiques de France 2 et de France Inter, du 15 au 20 novembre 2020. Source : Acrimed

  • Bumble, Tinder and Match are banning accounts of Capitol rioters
    https://www.washingtonpost.com/technology/2021/01/16/siege-dating-app-bans

    Bumble, Tinder and others are freezing out rioters with help from law enforcement — and, in some cases, their own photos. Other app users have taken matters into their own hands by striking up conversations with potential rioters and relaying their information to the FBI. Tinder, Bumble and other dating apps are using images captured from inside the Capitol siege and other evidence to identify and ban rioters’ accounts, causing immediate consequences for those who participated as police move (...)

    #Match #Tinder #violence #délation #extrême-droite #SocialNetwork #FBI #biométrie #facial (...)

    ##reconnaissance

  • Companies are now writing reports tailored for AI readers – and it should worry us, John Naughton, The Guardian, 5 Dec. 2020
    https://www.theguardian.com/commentisfree/2020/dec/05/companies-are-now-writing-reports-tailored-for-ai-readers-and-it-should

    A recent study suggests lengthy, complex corporate filings are increasingly read by, and written for, machines
    ‘A good deal of research in AI now goes into assessing how good computers are at extracting actionable meaning from a tsunami of data.’

  • Comment les forces de l’ordre ont saboté /et violenté/ la manifestation du 12 décembre 2020

    – Enquête chez mediapart : https://www.mediapart.fr/journal/france/030121/comment-les-forces-de-l-ordre-ont-sabote-la-manifestation-du-12-decembre-2
    – Bilan (provisoire) des Street-Médics : https://obs-medics.org/rapports/securite-globale-bilan-des-victimes-de-la-manifestation-du-12-decembre

    Mediapart a collecté et analysé des centaines de vidéos prises le 12 décembre à Paris lors de la manifestation contre la loi « Sécurité globale ». Notre enquête démontre le caractère illicite de plusieurs dizaines de charges policières effectuées ce jour-là et documente les arrestations arbitraires de manifestants, les coups portés sans raisons et la communication mensongère de Gérald Darmanin, notamment au regard du bilan judiciaire.

    Enquête vidéographiée de Sebastien Bourdon, Camille Polloni, Antton Rouget, Antoine Schirer : https://www.youtube.com/watch?v=LgG0cEaUAAw

    Au même moment, L’Observatoire des Street-médics publie son recensement des victimes de violences de la part des forces de l’ordre lors de la manifestation contre la loi Sécurité Globale du 12 décembre 2020. Ce rapport, établi à partir des bilans d’intervention et des témoignages des équipes de street-médics et secouristes volontaires, recense 50 personnes bléssées et prises en charge, dont plusieurs enfants, passants et journalistes.

    En outre, ce rapport fait état de violences nombreuses et graves de la part des forces de l’ordre envers les équipes de de street-médics pendant leur action de secours.

    Ce bilan n’est pas exhaustif​. Il ne comprend que les prises en charge réalisées par les équipes de street-médics en contact avec l’Observatoire et ne comptabilise pas les victimes prises en charge par les autres équipes, décontaminées des gaz lacrymogènes ou blessées sans être prises en charge. Le bilan qui suit ne peut donc pas et ne doit pas être considéré comme exhaustif ou représentatif de la totalité des victimes. Ce bilan est provisoire et sera mis à jour à la réception de nouveaux bilans d’intervention. /.../

    #violences_policieres #manipulation

  • Awful AI
    https://github.com/daviddao/awful-ai

    Awful AI is a curated list to track current scary usages of AI - hoping to raise awareness to its misuses in society

    Artificial intelligence in its current state is unfair, easily susceptible to attacks and notoriously difficult to control. Often, AI systems and predictions amplify existing systematic biases even when the data is balanced. Nevertheless, more and more concerning the uses of AI technology are appearing in the wild. This list aims to track all of them. We hope that Awful AI can be a platform to spur discussion for the development of possible preventive technology (to fight back!).

  • General Intelligence - by OneZero
    https://onezero.medium.com/general-intelligence/home

    Facebook’s Project Aria Is Google Maps — For Your Entire Life, Sep 17
    A new augmented reality headset will create a map of everything you see

    The U.S. May Soon Scan New Immigrants’ Faces, Iris, Voices, and DNA, Sep 10
    If enacted, the personal information of more than 70 percent of those applying for immigration will be entered into a DHS database.

    Border Patrol Used Facial Recognition to Scan More Than 16 Million Fliers — and Caught 7 Imposters, Sep 3
    A new report lays out CBP’s shoddy implementation of facial recognition technology

    400 Million Indians Might Soon Need To Use Facial Recognition To Access Their Bank Accounts, Aug 27
    Four banks are currently testing facial recognition systems for two week trial periods

    The Facial Recognition Industry Promises to Regulate Itself. Sure, OK., Aug 20
    Members of the industry group proposing ethics guidelines have broken those guidelines already

    Peter Thiel’s Former Chief of Staff Now Has a $60 Billion Pentagon Budget, Aug 13
    Meet the man tasked with staying ahead of China

    The U.S. Military Is Building Voice-Controlled War Robots, Aug 6
    And unlike Siri, they’ll be able to understand the speaker’s ‘intent’

    Rite Aid’s Secret Facial Recognition System Is the Tip of the Iceberg, Jul 30
    A stunning report on the company’s secret facial recognition program shows that banning government use of the technology isn’t enough

    New York May Soon Become the First State to Ban Facial Recognition in Schools, Jul 23
    The bill calls for a comprehensive study of the technology ‘prior to spending millions of dollars on technology that may not make our…

    You Can Buy a Random Facial Recognition Photo on China’s Black Market for Just $.07, Jul 16
    Sellers are offering packages of up to 20,000 face images

    A Facial Recognition Giant Refuses to Share Details About Its Algorithm Dataset, Jul 1
    NEC claims its systems aren’t biased — but rejects calls for transparency

    We Need to Know How Often Facial Recognition Fails, Jun 25
    Lawmakers are in a race against facial recognition companies

  • Vers un renouveau militant des questions technologiques ?
    http://www.internetactu.net/2020/07/15/vers-un-renouveau-militant-des-questions-technologiques

    Radical AI research CommunityLes chercheurs et praticiens de l’intelligence artificielle ont tendance à penser que l’IA est neutre ou bénéfique et que les problèmes qu’elle rencontre sont essentiellement liés aux données biaisées qu’elle utilise. Ils ont du mal à prendre la mesure des inégalités que leurs travaux exploitent et reproduisent explique l’artiste et chercheuse en IA Pratyusha Kalluri (@radical_ai), dans une tribune pour Nature (@nature), fondatrice du Radical AI Network, un réseau de (...)

    #éthique #technologisme #discrimination

    /assets/images/logo_ia.png

    • les algorithmes prennent des décisions contestables ayant des implications morales et sociales fortes, alors qu’elles demeurent souvent considérées comme techniques, a-morales si ce n’est neutres. Les résultats injustes et discriminatoires y sont traités comme des effets secondaires auxquels ont peut apporter des solutions techniques, plutôt que des problèmes qui masquent des hypothèses sous-jacentes aux solutions déployées, des opinions dans du code, dirait Cathy O’Neil. D’où l’importance pour les deux chercheurs de passer à une « éthique relationnelle », c’est-à-dire de reconnaître que ces biais sont inhérents à l’IA.

      les préjugés, l’équité et la justice sont des cibles mouvantes, tout comme les individus ou la société, qui évoluent au gré du temps. Il n’y a donc pas de réponse « définitive » à la question de la justice ou de l’éthique. Adopter une éthique relationnelle suppose donc d’examiner les conceptions et les solutions en continu, et d’interroger en permanence la définition même des termes et catégories que l’on utilise.

      Les acteurs du Tech for Good peinent à évaluer les relations entre les interventions techniques et leur impact social et ont tendance à penser que la réforme par la technologie est une stratégie appropriée pour le progrès social.

      L’informatique par exemple n’a pas pour l’instant développé de méthodologie rigoureuse pour examiner la relation entre les interventions algorithmiques qu’elle propose et leurs impacts sociaux à long terme.

      les informaticiens ont besoin d’appuyer leur expertise sur d’autres domaines, plus interdisciplinaire, ne donnant plus la priorité aux considérations techniques (comme l’amélioration de la précision ou de l’efficacité), mais avant tout à d’autres formes de connaissance et de critères.

      « lorsque nos données sont manipulées, déformées, volées, exploitées ou mal utilisées, nos communautés sont étouffées, empêchées ou réprimées, et notre capacité à nous autodéterminer et à prospérer est systématiquement contrôlée »

      toujours demander si une information ou champ d’information est nécessaire et son impact si on ne le renseigne pas.

      la technologie contribue à une « stratification sociale », c’est-à-dire combien elle fige l’organisation sociale et donc les inégalités. [...] « les personnes qui vivent dans des environnements où les droits sont faibles – communautés pauvres et ouvrières, communautés de migrants, communautés de couleur, minorités religieuses ou sexuelles – vivent déjà dans l’avenir numérique, c’est-à-dire dans la surveillance et la discipline qu’impose la technologie

      « La réalité est que les nouveaux outils de décision algorithmiques, les modèles prédictifs et les systèmes d’éligibilité automatisés font partie intégrante des machines politiques qui ont précédé. Ils s’inscrivent dans la profonde histoire de notre pays, qui a commencé à punir les pauvres avant que l’administration des programmes publics ne soit numérisée. Nous refusons également de considérer ces systèmes technologiques comme faisant partie de ce moment politique, qui est caractérisé par une haine absolue des pauvres. La haine absolue est endémique de tous les côtés du spectre politique. Notre culture politique fait d’eux des boucs émissaires : elle punit, stigmatise et criminalise les pauvres. »

      « Nous devons construire des outils explicitement politiques pour traiter les systèmes explicitement politiques dans lesquels ils fonctionnent. Nous devons les construire contre l’héritage de l’inégalité. Intentionnellement. » Or, rappelle-t-elle, « cela va à l’encontre de la formation des ingénieurs (qui sont accrochés à la notion de neutralité). Et c’est l’une des raisons pour lesquelles ce problème est un vrai défi ». Pour elle, « nous devons cesser de leur apprendre à ne pas se soucier du monde réel »

      « Au mieux, [les systèmes] ne sont pas fiables, au pire, ils sont des mascarades d’éthique technologiques qui contribuent à perpétuer les inégalités ».

      Désormais, si le numérique se retourne contre les gens comme une arme, alors nous devons aider les gens à s’en défendre, rappellent ces mouvements. Bien souvent, derrière nombre de ces luttes, désarmer le numérique est l’un des mots d’ordre pour changer l’action ! Passer de l’AI for good à l’AI for power & justice, l’un des chemins (« l’enjeu tient plus de la justice que de l’équité », disait très bien Kate Crawford).

  • Cet article n’a pas été écrit avec un smartphone
    https://www.mediapart.fr/journal/culture-idees/060720/cet-article-n-pas-ete-ecrit-avec-un-smartphone

    Les téléphones mobiles d’aujourd’hui font converger une somme de fonctions jamais vue dans l’histoire des technologies, dont la lecture des nouvelles, et parfois même leur écriture. Mais pas la rédaction de cette chronique de l’ouvrage remarquable que Nicolas Nova leur consacre. En dix ans, c’est un objet qui s’est installé sur les tables, dans les poches et dans les mains de plus de cinq milliards d’individus. Une définition pourrait être la description qu’en fait Nicolas Nova dans le livre tiré de sa (...)

    #smartphone #addiction #technologisme

    • « Comment nous réapproprier les médias numériques pour nous permettre de déployer une pluralité de régimes attentionnels sans que ceux-ci ne soient imposés par les concepteurs de ces dispositifs ? » La question que pose Nicolas Nova appelle selon lui des réponses collectives, régulatrices, institutionnelles, notamment en termes de formation, d’éducation. « Il y a une question qu’on élude souvent, c’est la dimension collective, l’État, la puissance publique, qui peut intervenir par la régulation et l’éducation. » Il ne suffit pas « de dire qu’il faut que chaque individu construise sa maîtrise des objets techniques », « on peut combiner une maîtrise individuelle avec une dimension plus collective de l’appréhension d’un phénomène technique comme le smartphone* ».

      C’est sûr, et les géants du numérique l’ont bien compris !

  • How watching an old British series full of racist tropes in Pakistan changed my perspective on whether such shows should be banned Imran Khan, AlJazeera, 18th june 2020
    https://aje.io/vx5e4

    In Britain, the racist nature of the show [Mind Your Language] was its appeal. Here in Pakistan, it was the British attitude they were laughing at; the lack of understanding of anyone else’s culture.

  • Profession philosophe Épisode 62 :
    Bernard Stiegler : « Il ne faut pas rejeter les techniques mais les critiquer et les transformer » Le 11/06/2020 dans les chemins de la philosophie
    https://www.franceculture.fr/emissions/les-chemins-de-la-philosophie/profession-philosophe-6262-bernard-stiegler-il-ne-faut-pas-rejeter-les

    L’invité du jour :

    Bernard Stiegler, philosophe retraité de l’université de Compiègne-utc, enseigne la philosophie en Chine à l’université de Nanjing et à l’école d’art de Hangzhou, président de l’IRI (institut de recherche et d’innovation) et président de l’association des amis de la génération Thunberg

    Pratiquer la philosophie en philosophe
    En prison, j’ai commencé à pratiquer la philosophie comme je crois doivent le faire les philosophes. Je pense qu’on peut étudier l’histoire de l’art sans se vouloir artiste, je ne crois pas qu’on puisse étudier la philosophie de l’extérieur sauf à faire ce qu’on appelle l’histoire des idées… il faut se mettre sur le même plan que celui qu’on lit, on tente d’en refaire l’expérience de pensée, d’abord on lui fait crédit sur ce qu’il dit : il faut dire oui à ce qu’on est en train de lire, c’est ma position dans la vie… et en philosophie c’est une position requise.
    Bernard Stiegler

    L’expérience du silence
    Pendant des années, en prison, j’étais enfermé avec moi-même, je ne pratiquais que l’écriture. Un des aspects très importants pour moi de l’expérience carcérale c’est l’expérience du silence absolu. Ça m’est arrivé de rester silencieux pendant des mois, sans dire un mot. J’y ai découvert un phénomène qui, je crois, a peu été étudié par les philosophes, davantage par les religieux, et parfois par des philosophe religieux comme saint Augustin : l’expérience du silence dans lequel tout à coup, ça se met à parler.
    Bernard Stiegler

    Soigner ce qui est menaçant dans la technique
    Trump semble chercher la guerre civile : pour en être arrivé là, il faut vraiment que l’humanité soit tombée très bas dans ce que j’appelle la “dénoétisation”. Je crois que le rôle de la philosophie, et plus largement des savoirs, même des savoirs empiriques y compris le savoir de la mère par rapport à l’enfant, c’est toujours de cultiver la possibilité de penser par soi-même et soigner ce qui, dans la technique, est toujours menaçant, et qui le sera toujours, car la technique ne peut pas être bonne.
    Bernard Stiegler

    Combattre la toxicité de la technologie en se l’appropriant
    Rien n’est plus effrayant aujourd’hui que la gouvernementalité algorithmique et cependant je pense que l’humanité ne peut pas éviter de développer des moyens qui passent par la cybernétique. Je pense qu’il ne faut pas rejeter ces techniques mais il faut les critiquer, ce qui ne veut pas dire simplement les dénoncer mais les transformer. "Stopcovid" est une application qui pose beaucoup de problèmes, et m’en pose à moi aussi… Quand on veut combattre le côté toxique d’une technologie, il faut commencer par se l’approprier…
    Bernard Stiegler