• Un algorithme de Facebook confond des personnes noires avec des singes
    https://www.rtbf.be/info/medias/detail_un-algorithme-de-facebook-confond-des-personnes-noires-avec-des-singes?i

    Un algorithme de recommandation de Facebook a demandé à des utilisateurs s’ils souhaitaient voir d’autres "vidéos sur les primates" sous une vidéo d’un tabloïd britannique montrant des personnes noires, a révélé le New York Times vendredi. https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html

    La vidéo du Daily Mail, vieille de plus d’un an, est intitulée "un homme blanc appelle les flics contre des hommes noirs à la marina". Elle ne montre que des personnes, pas de singes.


    Facebook apologized on Friday for mislabeling and said it was looking into its recommendation feature to “prevent this from happening again.”Credit...Jim Wilson/The New York Times

    En dessous, la question "voir plus de vidéos sur les primates ?" avec les options "Oui / Rejeter" s’est affichée sur l’écran de certains utilisateurs, d’après une capture d’écran diffusée sur Twitter par Darci Groves, une ancienne designer du géant des réseaux sociaux.

    "C’est scandaleux", a-t-elle commenté, appelant ses ex-collègues de Facebook à faire remonter l’affaire.

    "C’est clairement une erreur inacceptable", a réagi une porte-parole de Facebook, sollicitée par l’AFP. "Nous présentons nos excuses à quiconque a vu ces recommandations insultantes."

    #Facebook #intelligence_artificielle #racisme

  • La voiture autonome ? Une catastrophe écologique Celia Izoard pour Reporterre
    https://reporterre.net/La-voiture-autonome-Une-catastrophe-ecologique

    L’industrie automobile prépare activement la généralisation des véhicules autonomes. Problème : leur mise en œuvre à grande échelle aurait des conséquences écologiques très néfastes.

    Dans le principe, la prouesse technologique consistant à remplacer par des machines les innombrables opérations complexes qu’effectue une personne au volant paraît difficilement compatible avec l’idée de sobriété. Un des derniers modèles, présenté en janvier au dernier Consumer’s Electronic Show de Las Vegas, le SUV Range Rover équipé par l’entreprise Valeo, comporte pas moins de quatre ou cinq caméras, huit lidars (qui permettent de mesurer les distances à partir d’un faisceau laser), plusieurs radars longue portée, un ordinateur central de grande puissance, une caméra trifocale sur le pare-brise et d’autres capteurs. La généralisation de ces véhicules impliquerait, pour abaisser les coûts de façon acceptable, le lancement d’une production de masse de tous ces objets, en supplément de l’électronique déjà présente dans les véhicules actuels. Aux États-Unis, la National Mining Association rappelle régulièrement aux décideurs que « la sophistication croissante des produits de l’industrie automobile va faire exploser la demande en métaux et la compétition pour ces ressources » [1]. En clair, impossible d’obtenir la matière première de tous ces superalliages sans provoquer une augmentation de l’activité minière, qui compte parmi les industries les plus polluantes [2].

    Deuxième problème : la croissance exponentielle des #données (le #data). La conduite automatisée repose sur de gigantesques volumes d’informations que les divers capteurs transmettent aux algorithmes de traitement d’images. Selon Brian Krzanich, PDG d’Intel, un véhicule autonome va générer et consommer, pour huit heures de conduite, environ 40 téraoctets de données, soit l’équivalent de 40 disques durs d’ordinateur. « En circulation, chacun de ces véhicules produira autant de données que 3.000 utilisateurs d’ #internet », précise-t-il [3]. Or la facture énergétique du traitement et du stockage du big data est déjà préoccupante. En France, les #datacenters consommaient déjà en 2015 plus d’électricité que la ville de Lyon. En 2017, ils ont consommé à eux seuls 3 % de l’électricité produite dans le monde, soit 40 % de plus qu’un pays comme le Royaume-Uni [4].

    « L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance » 
    Enfin, la généralisation des véhicules autonomes nécessite le déploiement de la #5G et le renouvellement des infrastructures routières. « Il est probable que l’environnement deviendra plus standardisé et proactif à mesure que sera développée une infrastructure plus communicante, résume un article de la Harvard Business Review. Il faut s’imaginer des transmetteurs radio à la place des feux rouges, des réseaux sans fil permettant aux véhicules de communiquer entre eux et avec les infrastructures, et des unités de bord de route fournissant des informations en temps réel sur la météo, le trafic, et d’autres paramètres [5]. »

    L’Union européenne finance plusieurs projets de ce type via le programme #Codecs, notamment le projet #Cooperative_ITS_Corridor, une autoroute expérimentale connectée desservant #Amsterdam, #Francfort et #Vienne. Une portion test de 8 km est déjà équipée d’une « unité de bord de route » (comprenant une antenne 5G et des ordinateurs) tous les 500 m et d’une caméra tous les 100 m. On imagine la quantité de matériel nécessaire pour équiper ne serait-ce que toutes les autoroutes d’Europe ! Le projet est loin d’être marqué par la sobriété, et moins encore si l’on imagine « des caméras avec des unités de communication (...) installées sur les feux rouges pour avertir le conducteur du passage “au vert” », comme les auteurs du Livre blanc #Mobility_Nation, le rapport du Boston Consulting Group remis au gouvernement pour accélérer l’essor du #transport_autonome [6].


    Un prototype de véhicule autonome Nissan, en 2014.

    On peut dès lors s’interroger sur la dénomination de ces véhicules : autonomes, vraiment ? André Gorz montrait déjà en 1973 à quel point l’automobile, qui dépend d’un approvisionnement en pétrole et d’une infrastructure gigantesque, reposait sur une autonomie largement fictive : « Ce véhicule allait obliger [l’automobiliste] à consommer et à utiliser une foule de services marchands et de produits industriels que seuls des tiers pouvaient lui fournir. L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance [7]. » La démonstration paraît encore plus probante pour ces véhicules qui ne pourraient « rouler tout seuls » qu’à la condition de modifier radicalement leur environnement en déployant autour d’eux un ensemble de macrosystèmes techniques.

    « Un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite » 
    Pour les entreprises, les véhicules dits autonomes participent pourtant de la « #mobilité_durable ». Leur argumentaire a largement été repris par le gouvernement : dans les « Neuf solutions de la nouvelle France industrielle » du président macron, les véhicules autonomes figurent en bonne place dans le volet « #mobilité_écologique ». Quels sont les arguments ? D’une part, l’interconnexion des véhicules et des infrastructures va réduire les embouteillages en permettant d’ajuster les itinéraires en temps réel. Ensuite, la conduite autonome, plus fluide, consommerait moins d’ #énergie. Surtout, le transport autonome serait porteur de la fameuse révolution de l’ #autopartage : on pourrait délaisser son véhicule personnel au profit des services de #robots-taxis en #covoiturage. Mais en analysant cette promesse, on constate qu’elle sert surtout à contrebalancer le principal problème que pose le transport autonome : le redoutable #effet_rebond, tel que les économies d’énergie procurées par une technique vont susciter l’augmentation de la consommation.

    Selon un rapport de Morgan Stanley, il paraît vraisemblable que les premiers véhicules autonomes opérationnels à grande échelle seront des #camions de transport routier. Ils seraient pilotés à distance sur des routes complexes et en conduite automatique sur autoroute ; ces camions pourraient circuler en convois, avec un seul chauffeur à la tête de plusieurs véhicules. Étant donné que la paie des chauffeurs représente environ 40 % du coût du transport, les grandes entreprises du secteur s’attendent à une baisse historique des prix, qui donnerait à la route un avantage certain par rapport au #ferroviaire [8]. Que ce soit pour du fret ou de la livraison, on aurait là une incitation à augmenter le nombre de marchandises en circulation, pour le plus grand profit des monopoles de la vente en ligne. Et comment les particuliers, les actifs surmenés par exemple, résisteraient-ils à la tentation de se faire livrer tout et n’importe quoi à domicile ?

    Selon ce même rapport, les véhicules autonomes pourraient concurrencer les transports en commun, d’une part en diminuant de deux tiers le coût d’un #taxi, d’autre part en rendant la voiture personnelle plus attractive : « Si l’automobile devient un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite, le consommateur pourrait échapper aux désagréments des transports publics en optant pour la “conduite” d’un véhicule autonome personnel. » La voiture autonome renforcerait ainsi le phénomène de suburbanisation, rendant acceptable de vivre plus loin de son travail en permettant à beaucoup de commencer leur journée dès l’aube dans une sorte de bureau privatif mobile. Elle permettrait à de nouveaux usagers — enfants, personnes très âgées — de se déplacer facilement, ce qui augmenterait encore, comme l’a confirmé une étude de l’université de Leeds, le nombre de véhicules sur les routes [9]. En gros, concluent les chercheurs, à partir du moment où il ne sera plus nécessaire de toucher le volant, les effets négatifs se multiplieront.


    Un prototype de voiture sans chauffeur d’Uber à San Fransisco, en novembre 2016.

    « Au plan environnemental, la voiture autonome est a priori catastrophique, puisqu’elle va faciliter le recours à l’automobile », confirme Bertrand-Olivier Ducreux, du service transport et mobilités de l’Agence pour l’environnement et la maîtrise de l’énergie (Ademe). Ce service est notamment chargé de l’appel à projets « expérimentation du véhicule routier autonome » qui subventionne les entreprises du secteur via le plan d’investissement d’avenir. « La position de l’ #Ademe, c’est de tenter d’orienter les véhicules autonomes vers une mobilité vertueuse, en faisant en sorte qu’ils soient utilisés comme un service d’autopartage. L’idéal, pour nous, c’est une navette de six, huit places sans conducteur. » Par exemple, un véhicule Uber sans chauffeur qui viendrait chercher plusieurs clients effectuant des trajets semblables.

    « Une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers » 
    En admettant l’idée de confier l’avenir des transports collectifs à Uber et autres géants du net, la promotion de ces robots-taxis pourrait-elle suffire à enrayer ce qui ressemble à une étape de plus vers la #surconsommation ? Pour Thomas Le Gallic, chercheur en prospective au sein du laboratoire Ville Mobilité Transport, le pari est risqué. « Les études concluent que les véhicules autonomes pourraient aussi bien doubler que diviser par deux la consommation d’énergie associée à la mobilité des personnes. Mais l’augmentation semble plus probable, parce que les gens seront incités à faire des trajets plus longs. Pour moi, une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers. Mais ce n’est pas la tendance qui se dessine. »

    Ainsi, loin de l’étiquette « mobilité écologique » sous laquelle les pouvoirs publics investissent dans les véhicules autonomes, il faudrait inverser le constat : pour que cette innovation ne soit pas catastrophique, il faudrait une politique extrêmement volontariste.

    Cela impliquerait que le gouvernement, de manière assez invraisemblable, décide de rendre la voiture personnelle prohibitive pour la remplacer par une ambitieuse politique de transports publics et de navettes. Est-ce vraiment le projet ? L’État prévoit-il de se donner les moyens de limiter drastiquement les ventes des constructeurs automobiles ? Est-ce vraiment ce qu’Emmanuel Macron avait en tête, lors de son discours de mars 2018 sur l’ #intelligence_artificielle, quand il déclarait vouloir mener la « bataille essentielle » de la voiture autonome parce que « la #France est une grande nation automobile, et nous y avons notre rôle historique » ?

    En mai 2018, l’État avait déjà dépensé près de 200 millions d’euros pour subventionner la #recherche en véhicules autonomes [10]. C’est sans commune mesure avec ce que pourrait ensuite coûter la mise en œuvre de la 5G, la refonte des infrastructures routières, les mesures de #cybersécurité, soit les investissements publics colossaux nécessaires à leur déploiement, auxquels il faut ajouter le coût social de la mise au chômage de plusieurs centaines de milliers de chauffeurs professionnels.

    Si l’objectif est de mener la « révolution de l’autopartage » et d’en finir avec la voiture personnelle, a-t-on besoin des véhicules autonomes ? Ces investissements ne pourraient-ils pas tout aussi bien servir à mener une aussi ambitieuse politique de transports collectifs avec conducteurs en finançant les trains, les bus et les navettes que réclament les habitants des campagnes et de la France périurbaine pour délaisser leur voiture personnelle ?

    Notes
    [1] « Minerals Drive the Auto Industry », American Mining Association, 10/02/14.
    [2] Cf. Revue Z, n° 12, « Trésors et conquêtes », Agone, 2018.
    [3] « Just one autonomous car will use 4000 GB of data per day », Network World, 7/12/16.
    [4] « Quand le stockage de données consommera plus d’énergie que le monde n’en produit », L’Usine nouvelle, 29/06/18.
    [5] « To Make Self-Driving Cars Safe, We Also Need Better Roads and Infrastructure », 14/08/18.
    [6] « Réinventer la mobilité urbaine et périurbaine à l’horizon 2030 », novembre 2017. Le Boston Consulting Group est une émanation du Forum économique mondial financé par 1.000 multinationales réalisant un chiffre d’affaires supérieur à 3 milliards d’euros.
    [7] « L’idéologie sociale de la bagnole », Le Sauvage, automne 1973.
    [8] Blue Paper on Autonomous Cars, 2013.
    [9] « Self-driving Cars : Will They Reduce Energy Use ? », University of Leeds, 2016 ; « Will Self-driving Cars Be Good or Bad for the Planet ? », geekwire.com, 25/02/16.
    [10] Développement des véhicules autonomes : orientations stratégiques pour l’action publique, mai 2018.

  • Joel Burgess sur Twitter :

    Among Skyrim players, you’ll occasionally see this tip: if you see a wild fox, follow it and you’ll be led to treasure.

    Sometime shortly after shipping, we saw this going around online, and an informal investigation started. Who made foxes do this?!

    https://twitter.com/JoelBurgess/status/1428008043556622336

    Des joueurs ont découvert que suivre les renards dans le jeu vidéo Skyrim permettait de découvrir des trésors. Or, personne au sein de l’équipe de développement n’avouait avoir codé un tel comportement. Un fil Twitter sur le gameplay émergeant spontanément des règles du jeu édictées pour d’autres raisons.

    #jeux_vidéo #jeu_vidéo #jeu_vidéo_skyrim #jeu_vidéo_pnj_renard #jeu_vidéo_npc #jeu_vidéo_développement #jeu_vidéo_gameplay #jeu_vidéo_jouabilité #gameplay #jouabilité #gameplay_émergeant #jeu_vidéo_gameplay_émergeant #ai #ia #intelligence_artificielle

  • Data et nouvelles technologies, la face cachée du contrôle des mobilités

    Dans un rapport de juillet 2020, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle (#EU-Lisa) présente l’#intelligence_artificielle (#IA) comme l’une des « #technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

    L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme #Frontex ou EU-Lisa, ont été particulièrement actives dans l’expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de #surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

    La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

    http://migreurop.org/article3021.html

    Pour télécharger la note :
    migreurop.org/IMG/pdf/note_12_fr.pdf

    #migrations #réfugiés #asile #frontières #mobilité #mobilités #données #technologie #nouvelles_technologies #coronavirus #covid #IOM
    #migreurop

    ping @etraces

    voir aussi :
    Migreurop | Data : la face cachée du contrôle des mobilités
    https://seenthis.net/messages/900232

    • European funds for African IDs: migration regulation tool or privacy risk?

      The first person you meet after you land at Blaise Diagne Airport in Dakar is a border guard with a digital scanner.

      The official will scan your travel document and photograph and take a digital print of your index fingers.

      It’s the most visible sign of the new state-of-the-art digital biometrics system that is being deployed in the airport with the help of EU funding.

      The aim is to combat the increasingly sophisticated fake passports sold by traffickers to refugees.

      But it also helps Senegal’s government learn more about its own citizens.

      And it’s not just here: countries across West Africa are adopting travel documentation that has long been familiar to Europeans.

      Passports, ID cards and visas are all becoming biometric, and a national enrolment scheme is underway.

      In Europe too, there are proposals to create a biometric database of over 400 million foreign nationals, including fingerprints and photographs of their faces.

      The new systems are part of efforts to battle illegal migration from West Africa to the EU.

      ‘Fool-proof’ EU passport online

      Many are still plying the dangerous route across the Sahara and the Mediterranean to reach Europe, but a growing number are turning to the criminal gangs selling forged passports to avoid the treacherous journey over desert and sea.

      There’s a burgeoning market in travel documents advertised as ‘fake but real”.

      Prices vary according to the paperwork: an EU Schengen transit visa costs €5,000, while a longer-stay visa can be twice as high.

      Some forgers have even mastered the ability to incorporate holograms and hack the biometric chips.

      “Morphing” is an image processing technique that merges two people’s photographs into a single new face that appears to contain entirely new biometric data.

      Frontex, the EU’s border guard agency, says 7,000 people were caught trying to enter the Schengen area in 2019 carrying such documents — but it admits the true figure could be much higher.

      Sending migrants back

      Last year, the largest number of travellers with fake documents arrived via Turkish and Moroccan international airports.

      Many were caught in Italy, having arrived via Casablanca from sub-Saharan countries like Ghana, Mali, Nigeria and Senegal.

      A Frontex team responsible for deporting migrants without the correct paperwork was deployed this year at Rome’s Fiumicino Airport.

      It’s the first sign of a new European Commission regulation expanding the agency’s role, which includes access to biometric data held by member states, according to Jane Kilpatrick, a researcher at the civil liberties think-tank Statewatch.

      “The agency’s growing role in the collection of data, it links overtly to the agency’s role in deporting individuals from the EU,” she said.

      Over 490,000 return decisions were issued by member states last year, but only a third were actually sent back to a country outside the EU.

      There are multiple reasons why: some countries, for example, refuse to accept responsibility for people whose identity documents were lost, destroyed or stolen.

      Legally binding readmission agreements are now in place between the EU and 18 other countries to make that process easier.
      There are no records

      But a bigger problem is the fact that many African countries know very little about their own citizens.

      The World Bank estimates the continent is home to roughly half of the estimated one billion people on the planet who are unable to prove their identities.

      An absence of digitisation means that dusty registers are piling up in storage rooms.

      The same goes for many borders: unlike the scene at Dakar’s airport, many are still without internet access, servers, scanners and cameras.

      That, the Commission says, is why EU aid funds are being used to develop biometric identity systems in West African countries.

      The EU Trust Fund for Africa has allotted €60 million to support governments in Senegal and Côte d’Ivoire in modernising their registry systems and creating a national biometric identity database.

      Much of the funding comes through Civipol, a consulting firm attached to France’s interior ministry and part-owned by Milipol, one of the most important arms trade fairs in the world.

      It describes the objective of the programme in Côte d’Ivoire as identifying “people genuinely of Ivorian nationality and organising their return more easily”.
      Data security concerns

      European sources told Euronews that the EU-funded projects in West Africa were not designed to identify potential migrants or deport existing ones.

      A Commission spokesperson insisted no European entity — neither Frontex, nor member states, nor their partners — had access to the databases set up by West African countries.

      But the systems they are funding are intimately connected to anti-migration initiatives.

      One is the Migrant Information and Data Analysis System (MIDAS), a migration database that can send automatic queries to Interpol watchlists to detect travel documents and people possibly linked to organised crime, including human trafficking.

      Connections like these, and the role of French arms giants like Thales in the growing biometric market, has led data protection experts to become worried about possible abuses of privacy.
      World’s newest biometric market

      As Africa becomes the coveted market for biometric identification providers, the watchdog Privacy International has warned it risks becoming a mere testing ground for technologies later deployed elsewhere.

      So far 24 countries on the continent out of 53 have adopted laws and regulations to protect personal data.

      A letter by Privacy International, seen by Euronews, says EU must “ensure they are protecting rights before proceeding with allocating resources and technologies which, in absence of proper oversight, will likely result in fundamental rights abuses.”

      It has published internal documents tracking the development of Senegal’s system that suggest no privacy or data protection impact assessments have been carried out.

      Civipol, the French partner, denies this: it told Euronews that the Senegalese Personal Data Commission took part in the programme and Senegalese law was respected at every stage.

      Yet members of Senegal’s independent Commission of Personal Data (CDP), which is responsible for ensuring personal data is processed correctly, admit implementation and enforcement remained a challenge — even though they are proud of their country’s pioneering role in data governance in Africa.

      For the Senegalese cyber activist Cheick Fall, the charge is more serious: “Senegal has sinned by entrusting the processing of these data to foreign companies.”

      https://www.euronews.com/2021/07/30/european-funds-for-african-ids-migration-regulation-tool-or-privacy-risk

      #biométrie #aéroport #Afrique #étrangers #base_de_données_biométrique #empreintes_digitales #passeports #visas #hologramme #Morphing #image #photographie #Frontex #EU_Trust_Fund_for_Africa #Trust_Fund #Civipol #Milipol #armes #commerce_d'armes #Côte_d’Ivoire #Afrique_de_l'Ouest #Migrant_Information_and_Data_Analysis_System (#MIDAS) #Interpol #Thales #Sénégal #Senegalese_Personal_Data_Commission #Commission_of_Personal_Data (#CDP)

  • Siri, l’assistant vocal d’Apple ? C’est une taupe !
    https://www.telerama.fr/debats-reportages/siri-lassistant-vocal-dapple-cest-une-taupe-6822626.php

    En Irlande, des sous-traitants d’Apple sont chargés de retranscrire nos conversations privées via l’assistant vocal Siri, implantée dans nos téléphones. Et tout cela, en toute impunité. L’une de ces “petites oreilles”, Thomas Le Bonniec, lance l’alerte.

    Le son existe-t-il sans oreilles pour l’entendre ? Au troisième millénaire, nous parlons de plus en plus à nos appareils quotidiens. Pour leur dicter, d’une injonction de la voix, une liste de courses ou pour leur demander la météo du jour. Où s’agglomèrent ces petites grappes de mots, s’il n’y a pas d’ouïe pour recevoir notre parole ? Thomas Le Bonniec le sait : pendant quelques mois, il a été à l’autre bout du fil, chargé de prêter attention à la vie des autres. « Je ne suis pas la Stasi, jure-t-il. Apple, en revanche… » Très officiellement, Siri, l’assistant vocal maison, est « une entité non humaine dont le rôle est d’aider les individus à accomplir des tâches avec aisance, efficacité et plaisir ». Plus prosaïquement, c’est une intelligence artificielle, perfectible, qu’il faut nourrir et entraîner. Manuellement. Grâce à des individus dotés d’un libre arbitre, capables de dire non. Comme Thomas Le Bonniec

    #Intelligence_artificielle #Vie_privée #transcription #Assistant_vocal #Siri #surveillance

  • Une toute nouvelle Tesla « Plaid » prend feu avec le conducteur au volant

    Une toute nouvelle Tesla Model S « Plaid » a pris feu en Pennsylvanie aux Etats-Unis, avec son conducteur au volant, lequel a eu du mal à sortir du véhicule, selon les autorités et les avocats de l’automobiliste. L’accident s’est passé mardi soir à Haverford, non loin de Philadelphie, ont détaillé dans un communiqué vendredi les pompiers de Lower Merion.

    « En raison de l’ampleur du feu et du type de véhicule impliqué » , plusieurs compagnies ont été dépêchées sur place, ont précisé les pompiers qui ont dû arroser la voiture pendant plus de deux heures pour éteindre l’incendie. Selon des avocats affirmant représenter le conducteur, ce dernier était au volant lorsque le véhicule s’est spontanément embrasé. Il a temporairement été coincé à l’intérieur avant de pouvoir en sortir. L’essentiel de la carrosserie et de l’intérieur du véhicule ont brûlé, montrent des photos postées sur le site des pompiers. . . . . . . .

    Dans un message transmis à l’AFP, Mark Geragos du cabinet Geragos & Geragos, qui dit représenter le conducteur, a estimé qu’il s’agissait d’une situation « effrayante » et « d’un problème majeur évident ».

    La suite : https://www.rtbf.be/info/monde/detail_une-toute-nouvelle-tesla-plaid-prend-feu-avec-le-conducteur-au-volant?id
    #tesla #piege_à_cons #elon_musk #baudruche #Actualités_High-Tech #High_Tech #voiture_électrique #IA #algorithme #intelligence_artificielle #technologisme

  • « Le discours de l’écologie (dé)coloniale est une arnaque totale » (2/2)
    https://collectiflieuxcommuns.fr/?1057-Le-discours-de-l-ecologie-de-coloniale

    Voir la partie précédente (.../...) Déconnexion d’avec le peuple et sa nature Quentin : Tu as raison Rimso, la campagne est presque complètement industrialisée, mais il reste malgré tout un peu plus d’un demi million d’agriculteurs aujourd’hui et il y en a encore beaucoup qui tentent d’en faire une aventure humaine avec des vraies relations aux animaux, aux espèces, aux systèmes d’élevage, aux systèmes agricoles, à l’agrosystème. Il y a aussi tout un mouvement de néo ruralité. Donc c’est quelque chose (...) #Podcasts

    / #Lieux_Communs, #Écologie, #Politique, #Écologisme, #Gauchisme, #Primitivisme, #Entretien, #Pseudo-subversion, #Science, (...)

    #Technoscience

  • Polluer avec Elon Musk et les « mineurs » de bitcoin chinois Philippe Mabille

    Ne dites plus « je spécule sur les cryptos » mais « je pollue avec Elon Musk dans une « mine » à charbon chinoise ». Depuis que le fondateur de Tesla s’est rendu compte que sa proposition de payer sa voiture électrique en bitcoin avait un bilan carbone désastreux, rien ne va plus pour la monnaie digitale. Coup de com’ du trublion ou, comme l’affirme dans notre interview un expert acquis à la cause, les conséquences des « pressions » menées par les anti-bitcoins ? Preuve, s’il en est, que le bitcoin, qui représente déjà la consommation énergétique de l’Italie, devient un problème macro et politique.

    Que s’est-il passé entre le 24 mars, lorsque le fantasque milliardaire a lancé sur Twitter son « you can now buy a Tesla with bitcoin » et son changement de pied de cette semaine ? Réponse : 1 milliard de dollars de gains sur son investissement de 1,5 milliard dans la crypto-vedette et surtout une volée de bois, vert évidemment, de la part de quelques détracteurs qui ont fait les comptes : comme le mix énergétique en Chine utilise principalement des centrales à charbon, il y a là de quoi remettre en cause la lutte contre le réchauffement de la planète. Tout cela en quelques clics... . . .

    La suite : https://www.latribune.fr/opinions/editos/polluer-avec-elon-musk-et-les-mineurs-de-bitcoin-chinois-884652.html

    #tesla #elon_musk #électricité #énergie #spacex #bitcoin #espace #silicon_valley #intelligence_artificielle #voiture_électrique #en_vedette #technologisme #automobile #capitalisme #transhumanisme #technologie #énergie #ia

  • « Le discours de l’écologie (dé)coloniale est une arnaque totale » (1/2) - Lieux Communs
    https://collectiflieuxcommuns.fr/?1056-Le-discours-de-l-ecologie-de-coloniale


    Partager n’est pas approuver.

    J’aimerais solliciter l’#intelligence_collective de #seenthis sur ce truc que j’ai trouvé extrêmement réactionnaire.

    • bééé 95% de ce que poste ce site (qui a un compte ici) est réactionnaire hein, essentiellement sur le sujet anti-antiracistes (contre les mouvements autonomes antiracistes venant des personnes subissant directement le racisme, dans leur pluralité)

      Parce que si on revient au sens des mots, un indigène c’est quelqu’un qui habite, qui vit dans le pays de ses ancêtres. Nous sommes les indigènes, c’est nous les indigènes. Cela était pointé déjà en 2005 dès l’appel des Indigènes de la République, la contradiction avait été formulée notamment par J. C. Michéa qui avait écrit une page là-dessus qui était très claire et c’était absolument évident. Un indigène c’est donc quelqu’un qui vit dans le pays de ses ancêtres et un colon c’est quelqu’un qui vient dans un pays étranger et qui veut y imposer sa culture. Donc nous avons là des attitudes non pas décoloniale mais coloniale et une inversion absolue du sens des mots, que l’on voit un peu partout ; les pseudos-antiraciste à la Houria Bouteldja, etc., on s’en aperçoit, enfin le grand public est en train de s’apercevoir, que ce sont des racistes – ont dit racialistes mais ce sont des racistes. Les (anti)indigènes ne sont pas des indigènes, les (dé)coloniaux ne sont pas des décoloniaux. En fait ce sont des gens qui sont animés – on pourrait discuter des raisons – d’une haine de l’Occident, ça commence à se savoir et aussi, maintenant, des blancs. Et l’écologie est un prétexte en fait pour arriver à infiltrer les milieux et, de fait, détruire les discours, détruire l’institution.

      Encore des années plus tard, ils continuent de pérorer sur cette soi-disant inversion, alors que c’est pourtant clair depuis la création : le nom se base sur le statut du Code de l’indigénat qui donnait un statut à part aux « indigènes de la République », qui n’étaient pas considérés comme des citoyens. Et ce mouvement dit donc depuis 15 ans que les descendant⋅es de ces colonisés *sont toujours considéré⋅es comme des « indigènes de la République », non réellement citoyen⋅nes comme les autres.

      Je ne vois pas ce qu’il y a de compliqué à comprendre, et qui n’a rien à voir avec leur définition « dictionnaro-centrée » du mot « indigène ». Leur discours c’est de la demi-culture, on dirait des ados qui ont trouvé une définition dans le dictionnaire et qui refont le monde à partir de ça… Au lieu de partir des cours d’Histoire.

      https://fr.wikipedia.org/wiki/Indig%C3%A9nat

    • on dirait des ados qui ont trouvé une définition dans le dictionnaire et qui refont le monde à partir de ça

      Les « ados » ont surtout déterré une momie pour constituer un culte sectaire singeant les discours de l’ultra-gauche.

    • Pas vu, pas lu, pas entendu : Ce n’est pourtant pas la médisance qui m’étouffe, je pense à Pièces & main d’œuvre ici aussi, en [RSS] et bien d’autres, suffit de chercher ; Ben tiens les Dupont & Dupont du PAF sont sur « seenthis » ; Étaient là en 2012 avec quelques vidéo plus disponible depuis, leur compte YouTube est clôturé @zemmour_naulleau sont partout.

    • Oui, ce sont des réacs, mais leur trajet vers la « défense de l’Occident » est singulier (malgré une certaine convergence objective, si on se fie au type de dégoût que peut causer leur écrits, rien à voir avec Zemmour !), c’est une déjà longue dérive depuis la pensée de Castoriadis et ses reliquats de conseillisme et de démocratie radicale à un « retour » à la Grèce comme lieu de naissance de la démocratie, de la pensée critique à la défense de l’Europe qui l’a vu naître.
      Ça donne des positions et des textes insupportables qui - au mieux- s’appuient sur l’exemple de bien des désignés « Musulman.e.s » qui sont (restent) des mécréants et ne peuvent être assigné.e.s à un retour au religieux et qui subissent une double stigmatisation, comme « étrangers » par la société française et comme « kouffars » dans des quartiers populaires où diverses idéologies inspirées de l’islam travaillent à consolider leur emprise sur les comportements (en particulier des femmes). Leurs cochoncetés sont à un indice de plus de la décomposition de la gauche (minoritaire inclue) mais aussi un écho de la misère d’imaginaires sociaux qui consolident des normalités ramifiées, de l’insertion économique, miroir aux alouettes pour tant de « relégués » racistes [racisés !!, contrairement à ce qu’a écrit le correcteur auto] et de précaires en tout genre, à l’économie informelle mafieuse de la drogue, en passant (en « sortant » ?) par la réassurance identitaire religieuse (une religion qui n’est même plus « l’esprit d’un monde sans esprit », tout juste un éventuel reliquat de chaleur dans le monde glacé de la concurrence).

    • Tu peux toujours ignorer ce genre de réacs. J’ai mis zemmour & nauleau comme j’aurais pu en mettre un autre, ils sont inévitable même sur « seenthis » qui est un réseau social certes pas comme les autres mais qui reste une porte ouverte à toutes les fenêtres.
      https://seenthis.net/messages/915635
      La liberté d’expression, tout ça, tout ça me dérange pas plus que ça dans la mesure ou je peux les éviter, voire les bloquer s’ils m’emmerdent.

    • Merci @monolecte.

      Évidemment comme vous j’ai vomi deux fois en lisant l’article dès le premier paragraphe.

      Comme on n’a pas compris l’article, il faut censurer de suite. On dirait du Valeurs Actuels ou pire La Décroissance (bande de réacs !!). En plus j’ai cru comprendre qu’ils disent du mal de nos amis Bouteldja et Ouassak (Bande de raciste !)

      Ils n’ont pas compris la grande subtilité du concept du décolonialisme. Ah.. Des militants lambda ayant la prétention de comprendre sans même avoir fait Paris VIII.

      Foutez-moi ça au Goulag, voilà l’intelligence que collectivement nous pourrions avoir.

    • C’est plus perfide que la censure en effet. « Ce que tu viens de dire est d’extrême droite et me fait vomir. Nonobstant je suis ouvert à un débat pluraliste. » On ne prend pas la peine d’argumenter, on vomit.

      Étrangement, on s’attaque à des gens qui ont concrètement des racistes, antiféministes, homophobes, bigotes. À ceux-là qui vous ouvrez les bras sans sourciller.

      Étrangement, les arguments de réduction ad hitlerium (ad zemourium) ne s’applique pas à vos alliées. Comment tolérez des gens aussi ouvertement contre l’avortement et marchant avec LMPT tout en faisant des procès d’intention à d’autre ? Comment fonctionne votre cerveau ?

      https://cortecs.org/language-argumentation/moisissures-argumentatives/#8._Le_d%C3%A9shonneur_par_association_(et_son_cas_particulier_:_le_reducti

    • huhu @mad_meg carrément et ça vaut encore plus pour le contenu de l’émission elle-même, cette nuit j’avais justement commencé à écrire un truc comme quoi super l’argumentation de l’homme de paille et que dans leur émission + là, ça faisait inversion du même genre que « les femmes parlent trop » quand ce sont les mecs qui monopolisent la parole… et puis flemme fatigue à1h

    • Mais qui ouvre les bras : encore de l’homme de paille. Est-ce que tu as vu une personne ici dire « je suis 100% d’accord avec les idées de Machin » ?

      Vous avez passé 1h à ne faire aucune argumentation justement, et à ne jamais se baser sur les idées concrètes des gens pour argumenter une critique contre eux, tu sais le genre de truc de base qu’on apprend au lycée « Machin a dit ceci dans tel livre/média - citation - et nous ne sommes pas d’accord car… ». Au lieu de ça il n’y a que procès d’intention et association « nous on pense que son agenda caché c’est… », « machin est proche de… alors… ». C’est de l’argumentation ça ?

      Quant à ici-même, t’appelles ça une réflexion logique, rationnelle, de penser que parce qu’on vous critique vous, qui critiquez d’autres personnes, ça veut dire qu’on est 100% d’accord avec ces autres personnes automatiquement ? Et après ça se roule dans l’héritage grec, terreau de notre civilisation… mais allez réviser la logique élémentaire peut-être d’abord. :D

      Par ailleurs c’est encore très exactement une inversion puisque c’est TOI qui fait du déshonneur par association en mettant tout le monde dans le même sac, en disant qu’on est des censeurs goulaguistes parce qu’on critique votre pseudo-critique. Mais lol inversé, ce qui fait lol aussi !

  • Vivre et en finir avec le mépris de la vie

    Raoul Vaneigem

    https://lavoiedujaguar.net/Vivre-et-en-finir-avec-le-mepris-de-la-vie

    Retour parodique au passé

    Le crime contre l’humanité est l’acte fondateur d’un système économique qui exploite l’homme et la nature. Le cours millénaire et sanglant de notre histoire le confirme. Après avoir atteint des sommets avec le nazisme et le stalinisme, la barbarie a recouvré ses falbalas démocratiques. De nos jours, elle stagne et, refluant comme un ressac dans une passe sans issue, elle se répète sous une forme parodique.

    C’est ce ressassement caricatural que les gestionnaires du présent s’emploient à mettre en scène. On les voit nous convier benoîtement au spectacle d’un délabrement universel où s’entremêlent goulag sanitaire, chasse à l’étranger, mise à mort des vieux et des inutiles, destruction des espèces, étouffement des consciences, temps militarisé du couvre-feu, fabrique de l’ignorance, exhortation au sacrifice, au puritanisme, à la délation, à la culpabilisation.

    L’incompétence des scénaristes attitrés ne diminue en rien l’attrait des foules pour la malédiction contemplative du désastre. Au contraire ! Des millions de créatures rentrent docilement à la niche où elles se recroquevillent jusqu’à devenir l’ombre d’elles-mêmes.

    Les gestionnaires du profit sont arrivés à ce résultat auquel seule une réification absolue aurait pu prétendre : ils ont fait de nous des êtres apeurés par la mort au point de renoncer à la vie. (...)

    #Raoul_Vaneigem #vivre #humanité #barbarie #goulag_sanitaire #sacrifice #profit #mentalité_carcérale #réclusion #renversement #envoûtement #autodéfense_sanitaire #autonomie #intelligence_sensible #conscience #renaissance #éveil #individu #danser

    • « L’imagination et l’exagération, qui n’est qu’une des ressources de l’imagination, cherchent à rattraper le décalage entre la mégamachine telle qu’elle est déjà là aujourd’hui et le “focus imaginarius” vers lequel elle tend, à savoir le remplacement de l’homme, un remplacement qui équivaudrait pour ce dernier à la “fin des temps” [Zeitende]. »

      « Sa méthode : l’exagération. À ses yeux, c’est une qualité. Cette exagération se révèle indispensable, selon lui, pour faire voir ce qui n’existe éventuellement qu’à l’état d’ébauche ou de trace, ou bien ce qui est dénié, négligé, voilé. Ou pour faire entendre ce qui semble d’abord inaudible. »

      Ces commentaires sur Günther Anders pourraient s’appliquer à Vaneigem.

  • A Lille, des locataires essuient les plâtres d’un bailleur public 100 % Internet Nicolas Lee - mediacites

    La révolution numérique vire parfois au cauchemar. Dans un immeuble neuf mais truffé de défauts, des locataires de CDC Habitat sont confrontés à un service client entièrement dématérialisé capable de rester plusieurs semaines aux abonnés absents.

    Moisissures sur les murs, dégâts des eaux, prises électriques défectueuses, système de ventilation inopérant… le bâtiment B du 291 boulevard Victor Hugo à Lille a beau être flambant neuf, les problèmes n’ont cessé de s’accumuler depuis son inauguration en décembre 2020. « On ne pensait pas avoir autant de soucis », souffle Fostine, jeune salariée en communication arrivée avec son compagnon parmi les premiers locataires.


    Depuis le boulevard Victor Hugo à Lille, le bâtiment flambant neuf de CDC Habitat. Photo : Nicolas Lee

    Sur les 32 logements de l’immeuble, au moins 10 occupants rapportent des imperfections et des défaillances dans leur foyer. Ce n’est pas la seule galère qu’ils partagent. Tous sont confrontés au même dialogue impossible avec leur bailleur : la Caisse des Dépôts et Consignations Habitat (CDC Habitat). Et à l’obligation de passer par un service client 100 % web.

    « Sans faille côté client »
    
Cela fait maintenant trois ans, en 2017, que l’entreprise publique, plus gros bailleur de France, a pris le tournant de la dématérialisation totale de ses relations avec les locataires. Une décision qui concerne quelque 500 000 logements.« Sans faille côté client », assure Tristant d’Inguimbert, le directeur délégué du service client. De l’entretien qui évalue l’éligibilité à la location jusqu’à la signature du bail sur une tablette numérique, en passant par la communication avec le bailleur après l’emménagement : tout se passe par internet.

    Fostine a trouvé la procédure de location dématérialisée plutôt efficace : « Là-dessus, j’ai rien à redire », reconnaît-elle. Mais les ennuis commencent lorsqu’elle remarque une fuite d’eau importante dans la salle de bain. La jeune locataire contacte alors le bailleur sur l’application « CDC Habitat et moi ». Quelques jours sont nécessaires . . .

    La suite payante : https://www.mediacites.fr/decryptage/lille/2021/04/30/a-lille-des-locataires-essuient-les-platres-dun-bailleur-public-100-inter

     #ia #algorithme #révolution_numérique #intelligence_artificielle #technologisme #bigdata #bêtise #CDC_Habitat #cauchemar #immobilier #dématérialisation #sevice_client #locataire #logement #internet #Lille #PS

  • Le comité d’#éthique de la #défense publie son rapport sur l’intégration de l’#autonomie des #systèmes_d’armes_létaux
    http://lignesdedefense.blogs.ouest-france.fr/archive/2021/04/29/le-comite-d-ethique-de-la-defense-publie-son-rapp

    La France s’est dotée en 2019 d’un comité d’éthique de la défense (il a été officiellement installé le 10 janvier 2020) structure de réflexion permanente sur les enjeux éthiques des nouvelles technologies dans le domaine de la défense.

    Après la publication de ses premiers travaux sur le soldat augmenté, le comité d’éthique de la défense vient de remettre son avis sur l’intégration de l’autonomie dans les systèmes d’armes létaux. Ce rapport est consultable ici [https://dicod.hosting.augure.com/Augure_Dicod/r/ContenuEnLigne/Download?id=C45E2746-B009-4043-B390-2F82B89F590C&filename=Comi

    Pour résumer : l’humain reste au cœur des décisions d’usage de la force létale.

    La ministre des #Armées s’exprimera sur cet avis indépendant rendu par le comité d’éthique de la défense, lorsque ses conclusions auront fait l’objet d’études d’appropriation au sein des services du ministère.

    La question de l’intégration de l’autonomie dans les systèmes d’armes létaux avait été choisi par le ministère des Armées, conscient de la mesure des enjeux stratégiques, juridiques et éthiques soulevés par le développement des applications militaires de l’#Intelligence_artificielle (IA), et en particulier par l’émergence potentielle de Systèmes d’armes létaux pleinement autonomes (SALA).

    Les conclusions du comité d’éthique de la défense confortent sans surprise les positions prises par la France depuis plusieurs années sur le sujet des SALA : la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes.

    Le rapport s’attache à identifier ce que recouvre la notion d’autonomie et présente avec pédagogie les définitions existantes. Au terme de cette analyse, le comité a choisi d’établir une stricte distinction entre les SALA et les Systèmes d’armes létaux intégrant de l’autonomie (SALIA) mais incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales.

    Les SALIA (systèmes d’armes létaux intégrant de l’autonomie), comme le précise le ministère, sont des systèmes comportant des fonctions automatisées, mais sous contrôle humain, dans des conditions qui garantissent :
    – le respect du principe constitutionnel de nécessaire libre disposition de la force armée,
    – le respect du principe de continuité de la chaîne de commandement de l’ordre à son application,
    – le respect des principes du #droit_international humanitaire.

    Un SALIA ne pourrait prendre d’initiatives létales sans contrôle humain. Il ne pourrait pas modifier seul ses conditions de fonctionnement.

    #armement

  • En Californie, accident mortel avec une Tesla apparemment sans conducteur
    https://www.rts.ch/info/monde/12133551-en-californie-accident-mortel-avec-une-tesla-apparemment-sans-conducteu

    Deux hommes sont morts au Texas dans l’accident d’une Tesla à bord de laquelle il n’y avait apparemment personne derrière le volant, ont indiqué dimanche le Wall Street Journal et la chaîne de télévision locale KPRC2.
    Le véhicule roulait à vive allure quand il s’est écrasé samedi soir contre un arbre et a pris feu, selon ces médias. Les autorités n’ont retrouvé que deux individus, l’un à la place du passager et l’autre sur le siège arrière.

    https://www.rts.ch/2021/04/19/04/13/12133544.image?w=1280&h=720
    « Les premiers éléments de l’enquête, qui n’est pas encore terminée, montrent qu’il n’y avait personne au volant du véhicule », a indiqué un responsable de la police du comté de Harris, Mark Herman, au Wall Street Journal.

    Ils n’avaient pas encore déterminé dimanche si l’airbag du siège du conducteur s’était déployé et si le système d’assistance à la conduite du véhicule était enclenché au moment de la collision.

    Un véhicule pas encore autonome, selon Tesla
    Sur son site internet, Tesla prévient que les systèmes d’assistance à la conduite qu’ils proposent ne rendent pas le véhicule autonome et que la supervision active d’un conducteur reste nécessaire.

    Mais des vidéos montrent régulièrement des Tesla avec des conducteurs endormis ou sans les mains sur le volant pendant un temps prolongé.
    ats/ther
    #tesla #piege_à_cons #elon_musk #baudruche #Actualités_High-Tech #High_Tech #voiture_électrique #IA #algorithme #intelligence_artificielle #technologisme

    • Les géants du numérique nous prennent-ils pour des idiots ? Anouch Seydtaghia

      Deux Américains sont morts dans l’accident d’une Tesla Model S au Texas. D’après les forces de police, il n’y avait personne au volant au moment des faits. Sommes-nous devenus naïfs face à la technologie ou est-ce la faute des géants de la tech ?

      Un accident mortel lors duquel personne ne conduisait la Tesla Model S, semble-t-il. La voiture est sortie de la route et a heurté un arbre avant de prendre feu. Dans un tweet publié le 18 avril toutefois, le PDG de Tesla, Elon Musk, est formel. Selon lui, l’Autopilot n’était pas en marche au moment de l’accident et il assure que le « Full-Driving System » n’avait pas été acheté pour ce véhicule.

      Est-ce de la faute de Tesla, qui joue sans cesse avec les mots en affirmant que ses voitures sont presque autonomes ? Ou est-ce la faute des occupants du véhicule, qui ont mis leur destin entre les mains d’une technologie non aboutie ?

      Même si ce type d’accident est extrêmement rare, il met en lumière certaines de nos faiblesses, dont celle de trop faire confiance à la technologie.

      Reconnaissance vocale
      Aujourd’hui, les systèmes de reconnaissance vocale sur smartphone font des merveilles. Nous passons de plus en plus de temps, dans les voitures, à dicter nos messages en roulant. Même si nous gardons les yeux sur la route, c’est une source de distraction.
      Plus la technologie évolue, plus la tentation d’aller plus loin est grande, comme de participer à une vidéoconférence depuis son véhicule. Il semblerait que certains installent leur téléphone sur le tableau de bord, ce qui est un comportement illégal et irresponsable.
      Quand les services sont performants et la qualité de connexion puissante, il est difficile, pour certains, de résister à l’envie de pousser de nouvelles limites, quitte à adopter des comportements dangereux.

      Lève la tête avec Google
      Certains géants du numérique pensent alors que les utilisateurs ont besoin d’une application pour que notre téléphone nous enjoigne à regarder autour de nous dans l’espace public. C’est ce qu’estime Google avec l’application « Heads up » qui incitera à regarder devant nous si un mouvement de marche est détecté par le téléphone. Pour l’instant, cette fonctionnalité n‘est disponible que sur les smartphones Pixel de Google.

      En d’autres mots, la société qui nous a rendu accro aux smartphones nous fournit un outil pour éviter de se cogner contre un lampadaire.

      Bien sûr, la technologie permet d’accomplir des choses extraordinaires, mais il faudrait évaluer ce que la technologie nous apporte concrètement, sans « avaler » toutes les innovations comme des moutons. Il est temps d’être un peu plus critique, un peu plus responsable et surtout… un peu moins connecté.

      Source : https://www.rts.ch/info/culture/12152127-les-geants-du-numerique-nous-prennentils-pour-des-idiots.html

  • Les méthodes douteuses des firmes de renseignement privées israéliennes exposées
    https://fr.timesofisrael.com/les-methodes-douteuses-des-firmes-de-renseignement-privees-israeli

    Selon un reportage, une agence de renseignements aurait usurpé l’identité de journalistes, soulevant des questions sur la régulation et les limites de l’industrie

    Un reportage a accusé, la semaine dernière, une firme israélienne des renseignements d’avoir usurpé l’identité de journalistes pour obtenir de manière illicite des informations d’opposants à un membre de la famille royale émiratie – mettant en lumière ces entreprises israéliennes de cyber-renseignements qui acceptent de travailler pour des régimes totalitaires.

    Une enquête du Times of Israël a révélé que le propriétaire de la firme en question, Bluehawk CI, a été traduit devant la justice au sein de l’État juif, dans le passé, et notamment pour fraude. Le ministère de la Défense a choisi de ne pas répondre à une requête de commentaire du Times of Israël concernant la raison pour laquelle il n’avait pas été amené à réguler les activités menées par la firme à l’étranger.

    Selon un reportage paru le 6 avril sur le site du Daily Beast , des individus qui avaient prétendu, début 2020, être journaliste pour Fox News et reporter pour le journal italien La Stampa avaient approché deux hommes qui s’opposaient aux autorités de Ras Al Khaimah, l’un des sept émirats constituant les Émirats arabes unis (EAU). Selon le Daily Beast , les deux individus qui avaient usurpé l’identité des deux journalistes avaient tenté d’extraire des informations aux deux hommes concernant leurs conflits judiciaires respectifs avec l’émirat.

    L’article publié sur le site souligne comment Israël, ces dernières années, a fait naître une industrie de firmes d’espionnage privées qui, de toute évidence, ne sont pas régulées – avec certains officiers militaires israéliens qui offrent au secteur privé les compétences qu’ils ont acquises dans les unités de renseignement secrètes, vendant souvent leur savoir-faire à des personnalités douteuses ou à des régimes autoritaires.

    Le Daily Beast aurait réussi à établir l’identité de la firme privée de renseignement en contactant Facebook, qui a révélé que les comptes utilisés par les deux journalistes présumés étaient associés à Bluehawk CI.

    Bluehawk CI s’est refusé, de son côté, à tout commentaire.

    Un porte-parole du ministère de la Défense a noté que Bluehawk CI n’apparaissait pas sur sa liste de vendeurs approuvés, mais il n’a pas répondu à une question de suivi sur le rôle présumé du ministère en termes de régulation initiale des initiatives de l’entreprise.

    Selon la loi sur le contrôle des exportations, tout exportateur d’équipements de défense ou de savoir-faire particulier, dans le secteur, doit d’abord s’inscrire et recevoir une autorisation de la part de l’Agence de contrôle des exportations de la Défense au sein de l’État juif.

    Bluehawk CI est l’une des firmes de renseignement privées les moins connues dans le pays. Fondée en juin 2018, elle offre des solutions dans les domaines de la cybertechnologie et des renseignements, notamment dans la « gestion du génie social et de la campagne de relations publiques » et dans les « enquêtes de renseignement complexes », selon son site internet.

    La compagnie a été fondée par Guy Klisman, ancien major au sein de Tsahal – elle lui appartient encore aujourd’hui. Klisman est aussi directeur académique de l’Institut d’innovation Pafos à Chypre, un institut d’études en cybersécurité fondé par Uriel Reichman, professeur de droit à la tête de l’Institut interdisciplinaire de Herzliya. La compagnie de Klisman, Bluehawk CI, est l’un des sponsors de l’équipe de basket du Hapoel Tel Aviv.

    Des documents judiciaires révèlent qu’avant de fonder l’entreprise, Klisman a été mis en examen à deux reprises par les procureurs israéliens – une fois pour contrefaçon et une autre pour répondre de multiples débits non-autorisés réalisés sur la carte de crédit de l’une de ses connaissances. Il a plaidé coupable dans le premier dossier. La mise en examen a finalement été annulée dans le second.

    https://www.youtube.com/watch?v=XifQHRaSWdQ&feature=emb_imp_woyt

    Selon le Daily Beast , au mois de février 2020, une personne prétendant s’appeler « Samantha », journaliste de Fox News, a contacté un homme nommé Oussama El Omari par courriel. El Omari est l’ancien directeur-général de l’Autorité chargée de la zone de libre-échange de Ras Al Khaimah. Il a été condamné par contumace aux Émirats arabes unis pour « détournement de fonds et abus de pouvoir » suite à une bataille de succession à Ras Al Khaimah. El Omari, pour sa part, a dénoncé des inculpations purement politiques.

    « Samantha » aurait tenté d’obtenir des informations sur ses affaires judiciaires l’opposant à Ras Al Khaimah. Contacté par le Daily Beast , Facebook aurait déclaré à ce dernier que le compte de « Samantha » était lié à Bluehawk CI.

    Selon le site d’information, un autre utilisateur de Facebook prétendant être un journaliste pour La Stampa , un journal italien, a contacté Khater Massaad, autre adversaire du régime actuel de Ras Al Khaimah. Massaad était à la tête du fonds souverain de Ras Al Khaimah, RAKIA, jusqu’en 2021. Il a été condamné par une cour émiratie en 2015 pour détournement de fonds au sein de RAKIA, des accusations qui, selon Massaad, étaient tronquées et politiquement motivées.

    Le faux journaliste, que Facebook a lié à Bluehawk CI, a de la même façon tenté d’extraire des informations sur sa relation avec les gouvernants de Ras Al Khaimah, a fait savoir le Daily Beast .

    « Coût de la vie élevé »
    La normalisation récente des liens entre Israël et les Émirats arabes unis a été une aubaine pour les entreprises de renseignement et de cybersécurité, avec des entreprises comme NSO Group, spécialisée dans le hacking téléphonique, Synaptech Capital, spécialisée dans le capital-risque, et Cellebrite, qui ont toutes conclu des accords lucratifs dans ces émirats du désert.

    La cybersécurité est l’un des premiers secteurs technologiques en Israël en terme d’investissements récoltés, selon l’Autorité de l’innovation israélienne.

    Pour Bluehawk CI, travailler aux EAU a pu être une source de liquidités désespérément nécessaire.

    En 2015, avant de fonder Blackhawk CI, Klisman et son épouse – ils ont depuis divorcé – ont déclaré leur faillite devant les tribunaux israéliens. Le couple était endetté à hauteur de centaines de milliers de shekels, dettes qu’ils avaient attribuées au « coût de la vie élevé » au sein de l’État juif.

    Israël est l’un des pays les plus chers au monde. Tel Aviv a récemment intégré la cinquième place des villes les plus chères sur le globe.

    En 2016, les procureurs israéliens ont mis en examen Klisman pour avoir contrefait des documents judiciaires et des assignations de huissiers de justice pour tenter d’empêcher l’armée israélienne de saisir son salaire pour payer des créditeurs. Un juge l’a reconnu coupable, mais il n’a pas été officiellement condamné et a dû effectuer 250 heures de service communautaire. Klisman s’est retiré de Tsahal à la fin de l’année 2017 et a fondé son entreprise six mois plus tard.

    Au mois de janvier 2018, Klisman a été accusé par la police des fraudes d’avoir utilisé la carte de crédit d’une femme rencontrée via un groupe WhatsApp consacré au tennis pour procéder à des achats non-autorisés à hauteur de 1 577 shekels. Une année plus tard, le gouvernement a retiré cette mise en examen.

    Klisman n’a pas donné suite à une requête de commentaire de la part du Times of Israël .

    Tandis que la personnalité qui a eu recours aux services de Bluehawk reste indéterminée, Radha Stirling, directeur-général de Detained à Dubaï – une entreprise qui représente des clients dans des conflits juridiques avec les gouvernements aux EAU – a la certitude qu’il s’agit bien du gouvernement de Ras Al Khaimah.

    « C’est monstrueux », a déclaré Stirling dans un communiqué de presse.

    « En confiant par contrat une mission d’espionnage à une firme privée, le gouvernement de Ras Al Khaimah tente d’échapper à la responsabilité de devoir rendre des comptes pour espionner des ressortissants étrangers en-dehors de sa juridiction – mais c’est bien là une violation majeure. Les EAU et Israël doivent assumer leurs responsabilités », a-t-il ajouté.

    Où placer la ligne rouge de l’éthique ?
    Selon un rapport émis par la cyberadministration israélienne, fin 2018, Israël comptait 421 cyber-entreprises actives dont 7 % – soit une trentaine – sont spécialisées dans le « cyber-renseignement ».

    Elad Ratson, ex-diplomate israélien, qui est aussi le fondateur et le directeur-général de Vayehee, une compagnie qui utilise les technologies pour contrer les Fake-news , la désinformation venant de l’étranger ou ce qu’il qualifie « d’armes en ligne d’obstruction massive », a déclaré au Times of Israël qu’il pensait que ce nombre était supérieur, selon ses propres estimations.


    Elad Ratson. (Autorisation)

    La plus grande partie des firmes de cyber-renseignements israéliennes sont spécialisées dans l’OSINT, ou « renseignements open-source », a-t-il noté. « C’est un secteur d’expertise des services israéliens de renseignement. Il y a une forte quantité de données, en ligne, qui sont ouvertement disponibles et les services israéliens de renseignement sont connus pour leur usage efficace de l’apprentissage automatique et de l’intelligence artificielle et pour extraire des informations de qualité de cet océan de données. »

    La majorité des firmes israéliennes de renseignement se concentrent sur l’OSINT (Renseignement d’Origine Source Ouverte) passif, poursuit-il, en collectant des données qui sont largement disponibles.

    D’autres s’engagent toutefois également dans ce qu’il appelle « l’ingénierie de perception » ou la manipulation du point de vue d’une cible par le biais de méthodes appelées « duperie en ligne ». De telles firmes, affirme-t-il, peuvent souvent avoir mauvaise réputation en résultat de leurs activités. L’une des plus célèbres est Black Cube.

    Toutefois, Ratson estime que de nombreuses entreprises de cyber-renseignement se fixent des lignes rouges en termes d’éthique et qu’elles ne les franchissent pas.

    « Contrairement aux autres ministères en Israël, celui de la Défense a un bureau de régulation des exportations qui est fort. Les cyber-entreprises israéliennes font attention à ne pas travailler avec le ‘mauvais’ type de client et à ne pas se mettre, pour cela, dans une situation délicate vis-à-vis du ministère de la Défense », commente-t-il.

    Toutefois, la « tentation est élevée », ajoute Ratson. « Parfois, quand il y a beaucoup d’argent sur la table, certaines entreprises ont pu tenter de fermer un peu les yeux sur l’éthique. Et c’est là qu’on a pu voir apparaître, dans les médias, une couverture internationale négative concernant des firmes de cyber-renseignement israéliennes. »

    #Émirats_arabes_unis #EAU #israel #Tel_Aviv #espionnage #espionnage_privé #Bluehawk_CI #renseignement #cybertechnologie #cybersécurité #cyber-renseignement #Tsahal #fonds souverain #RAKIA #NSO_Group #hacking #Synaptech_Capital #Cellebrite #Detained #cyberadministration #cyber-entreprises actives #cyber-renseignement #Vayehee #Fake-news #cyber-renseignements #OSINT renseignements_open-source #IA #intelligence_artificielle #ingénierie_de_perception #duperie_en_ligne #Black_Cube #journalistes

  • The new lawsuit that shows facial recognition is officially a civil rights issue | MIT Technology Review
    https://www.technologyreview.com/2021/04/14/1022676/robert-williams-facial-recognition-lawsuit-aclu-detroit-police/?truid=a497ecb44646822921c70e7e051f7f1a

    Robert Williams, who was wrongfully arrested because of a faulty facial recognition match, is asking for the technology to be banned.

    The news: On January 9, 2020, Detroit Police wrongfully arrested a Black man named Robert Williams due to a bad match from their department’s facial recognition system. Two more instances of false arrests have since been made public. Both are also Black men, and both have taken legal action to try rectifying the situation. Now Williams is following in their path and going further—not only by suing the Detroit Police for his wrongful arrest, but by trying to get the technology banned.

    The details: On Tuesday, the ACLU and the University of Michigan Law School’s Civil Rights Litigation Initiative filed a lawsuit on behalf of Williams, alleging that his arrest violated Williams’s Fourth Amendment rights and was in defiance of Michigan’s civil rights law. The suit requests compensation, greater transparency about the use of facial recognition, and that the Detroit Police Department stop using all facial recognition technology, either directly or indirectly.

    The significance: Racism within American law enforcement makes the use of facial recognition, which has been proven to misidentify Black people at much higher rates, even more concerning.

    #Reconnaissance_faciale #Racisme #Droits_humains #Intelligence_artificielle

  • The Limits of Political Debate | The New Yorker
    https://www.newyorker.com/news/annals-of-populism/the-limits-of-political-debate

    In 2016, a debate champion was consulting on the project, and he noticed that, for all of its facility in extracting facts and claims, the machine just wasn’t thinking like a debater. Slonim recalled, “He told us, ‘For me, debating whether to ban prostitution, or whether to ban the sale of alcohol, this is the same debate. I’m going to use the same arguments. I’m just going to massage them a little bit.’ ” If you were arguing for banning prostitution or alcohol, you might point to the social corrosion of vice; if you were arguing against, you might warn of a black market. Slonim realized that there were a limited number of “types of argumentation,” and these were patterns that the machine would need to learn. How many? Dan Lahav, a computer scientist on the team who had also been a champion debater, estimated that there were between fifty and seventy types of argumentation that could be applied to just about every possible debate question. For I.B.M., that wasn’t so many. Slonim described the second phase of Project Debater’s education, which was somewhat handmade: Slonim’s experts wrote their own modular arguments, relying in part on the Stanford Encyclopedia of Philosophy and other texts. They were trying to train the machine to reason like a human.

    In February, 2019, the machine had its first major public debate, hosted by Intelligence Squared, in San Francisco. The opponent was Harish Natarajan, a thirty-one-year-old British economic consultant, who, a few years earlier, had been the runner-up in the World Universities Debating Championship. Before they appeared onstage, each contestant was given the topic and assigned a side, then allotted fifteen minutes to prepare: Project Debater would argue that preschools should be subsidized by the public, and Natarajan that they should not. Project Debater scrolled through LexisNexis, assembling evidence and categorizing it. Natarajan did nothing like that. (When we spoke, he recalled that his first thought was to wonder at the topic: Was subsidizing preschools actually controversial in the United States?) Natarajan was kept from seeing Project Debater in action before the test match, but he had been told that it had a database of four hundred million documents. “I was, like, ‘Oh, good God.’ So there was nothing I could do in multiple lifetimes to absorb that knowledge,” Natarajan told me. Instead, he would concede that Project Debater’s information was accurate and challenge its conclusions. “People will say that the facts speak for themselves, but in this day and age that is absolutely not true,” Natarajan told me. He was prepared to lay a subtle trap. The machine would be ready to argue yes, expecting Natarajan to argue no. Instead, he would say, “Yes, but . . .”

    The first time I watched the San Francisco debate, I thought that Natarajan won. He had taken the world that Project Debater described and tipped it on its side, so that the audience wondered whether the computer was looking at things from the right angle, and that seemed the decisive maneuver. In the room, the audience voted for the human, too: I.B.M. had beaten Kasparov, and beaten the human champions of “Jeopardy!,” but it had come up short against Harish Natarajan.

    But, when I watched the debate a second time, and then a third, I noticed that Natarajan had never really rebutted Project Debater’s basic argument, that preschool subsidies would pay for themselves and produce safer and more prosperous societies. When he tried to, he could be off the cuff to the point of ridiculousness: at one point, Natarajan argued that preschool could be “actively harmful” because it could force a preschooler to recognize that his peers were smarter than he was, which would cause “huge psychological damage.” By the end of my third viewing, it seemed to me that man and machine were not so much competing as demonstrating different ways of arguing. Project Debater was arguing about preschool. Natarajan was doing something at once more abstract and recognizable, because we see it all the time in Washington, and on the cable networks and in everyday life. He was making an argument about the nature of debate.

    #Débat #Politique #Intelligence_artificielle #Argumentation

  • European countries should lift the taboo on Afrophobia and start addressing this phenomenon
    https://www.youtube.com/watch?v=FKs5N0mq7A4&feature=emb_logo

    “Racism and racial discrimination against people of African descent remain a widespread yet unacknowledged problem in Europe. It is time to recognise it and take measures to combat Afrophobia more effectively”, said today the Council of Europe Commissioner for Human Rights, Dunja Mijatović, releasing a report on the topic ahead of the International Day for the Elimination of Racial Discrimination.

    The report is based on the discussions that the Commissioner held on 24 November 2020 with human rights defenders working on combating Afrophobia. It highlights that people of African descent continue to be exposed to particularly grave forms of racism and racial discrimination, including racial stereotyping, racist violence, racial profiling in policing and criminal justice, and practices which perpetuate social and economic inequalities.

    This situation is compounded by the prevailing denial of the problem and a lack of public debate on Afrophobia in Europe. Cases and patterns of human rights violations affecting people of African descent are not given adequate consideration, even when they are reliably attested.

    The report also points to the limited research and equality data, the insufficient efforts to address the legacy of colonialism and the slave trade, and the lack of educational and awareness-raising efforts that contribute to the invisibility of the problem.

    The Commissioner underlines the important work carried out by human rights defenders of African descent and NGOs working on combating Afrophobia. She regrets the threats to their lives and safety and the various forms of pressure they are subjected to, such as harassment and attacks in the media online and offline, as well as surveillance and censorship.

    Human rights activists of African descent are also regularly sanctioned for occupying the public space, for example in conducting demonstrations. They face a higher risk of being profiled by automated tools and there appears to be inadequate police protection and a lack of prosecution for attacks against human rights defenders, often carried out by right-wing extremist groups.

    “There is a wealth of international standards and guidelines underlying states’ obligations to combat racism and racial discrimination, paying particular attention to persons of African descent. Member states should implement them as a matter of urgency to reverse the situation”, said the Commissioner.

    She recommends making the fight against racism and racial discrimination a top priority and showing a clear commitment to addressing the legacy of colonialism and the slave trade. “There is a need to overcome the resistance to the acknowledgment of responsibility for these violations”, says the Commissioner. She also stresses the need to reflect historical slavery and the colonial past, as well as their present-day ramifications, in school curricula.

    The Commissioner also draws attention to the importance of taking steps to stamp out racial profiling and impunity for racist crimes committed by law enforcement agents; taking action against all forms of incitement to hatred against people of African descent and enhancing protection against hate crimes; strengthening measures to combat discrimination in access to education, employment, housing and health care, and ensuring that artificial intelligence systems do not discriminate.

    Lastly, the Commissioner stresses member states’ obligation to provide protection and support to human rights defenders working to combat Afrophobia, facilitating a safe and free environment for them to carry out their work without unnecessary or disproportionate legal, political or administrative obstacles. They must be given a voice in national policy and should have more opportunities for dialogue at regional level. “It is time that European countries face the roots and present forms of racism and discrimination and start building more inclusive societies”, concluded the Commissioner.

    https://www.coe.int/en/web/commissioner/-/european-countries-should-lift-the-taboo-on-afrophobia-and-start-addressing-thi
    #Afrophobie #discriminations #racisme #discriminations_raciales #conseil_de_l'Europe #Europe #rapport #droits_humains #stéréotypes #violence #violence_raciale #profilage_ethnique #inégalités #colonialisme #esclavage #invisibilisation #harcèlement #censure #surveillance #responsabilité #éduction #intelligence_artificielle #IA #AI

    Pour télécharger le rapport:


    https://rm.coe.int/combating-racism-and-racial-discrimination-against-people-of-african-d/1680a1c0b6

    ping @cede @isskein @_kg_ @karine4

  • Fear itself is the real threat to democracy, not tall tales of Chinese AI | Artificial intelligence (AI) | The Guardian
    https://www.theguardian.com/commentisfree/2021/mar/06/fear-itself-is-the-real-threat-to-democracy-not-tall-tales-of-chinese-a
    https://i.guim.co.uk/img/media/618c29133c23689c1d0f2b9438a245cd7189f119/728_1148_4260_2556/master/4260.jpg?width=1200&height=630&quality=85&auto=format&fit=crop&overlay-ali

    Pathological anxiety about China runs through the entire document like the words in a stick of Blackpool rock. “On a level playing field,” it burbles, “the United States is capable of out-innovating any competitor.” But apparently there is “a fundamental difference in the US and China’s approaches to AI innovation that puts American AI leadership in peril”. The playing field, it seems, is not level because US tech companies “are not instruments of state power”. Since “China is organised, resourced, and determined to win the technology competition”, the US approach has to change. What’s needed, apparently, is “a hybrid approach meshing government and private-sector efforts to win the technology competition”.

    Pause, for a moment, to extract the signal from this message. First, the gobbledegook about “AI” is in fact almost entirely about machine learning, a flaky technology that has an insatiable demand for detailed data about humans and their activities. The Chinese are ahead because their tech companies have to turn all their data over to the authorities; Americans are hobbled because, while their state can always get the data from the tech companies that hoover it up, sometimes it has to jump through legal hoops to get it. The “hybrid approach” that is deemed necessary involves “meshing” the US government with the country’s tech companies.

    Now what might that imply? You only have to ask the question to know the answer. If American tech giants are finally recognised as strategic partners of the US government in the coming existential hegemonic struggle with China, then Washington’s enthusiasm for curbing said monopolies will rapidly decrease. Indeed, this may already be happening, if an inspection of the number of tech-company insiders who have been recruited by Biden is anything to go by. And the argument made to the US Congress by, among others, Mark Zuckerberg – that shackling US tech giants will guarantee Chinese hegemony – will once again find a ready audience in Washington.

    #Chine #Nouvelle_guerre_froide #Intelligence_artificielle

  • Timnit Gebru was fired from Google — then the harassers arrived - The Verge
    https://www.theverge.com/22309962/timnit-gebru-google-harassment-campaign-jeff-dean

    TimnitTimnit Gebru had expected her colleagues to rally around her when she was abruptly fired from Google on December 2nd. She was a well-respected AI ethics researcher, her termination as controversial as it was sudden. What she hadn’t anticipated was becoming a catalyst for labor activism in Silicon Valley — or the subject of a harassment campaign that surfaced alongside her supporters.

    Her firing came weeks after Google managers asked her to retract a paper on the dangers of large language models, like the ones that power the company’s search engine. Gebru pushed back, saying the company needed to be more transparent about the publication process. Employees saw the termination as a blatant act of retaliation, and thousands of workers, researchers, and academics signed an open letter demanding an explanation.

    In early December, as media attention mounted and tech workers across the country came to her defense, Gebru waited to see how Google would respond. What is this company capable of? she asked herself. She didn’t have to wait long to find out.
    “Twitter enabled Gebru’s colleagues to stand up for her; it also made her vulnerable to a small but very active group of harassers”

    On December 4th, Jeff Dean, Google’s head of AI, published his views on Gebru’s dismissal. He said she had resigned — a fact she openly disputed — and that her paper hadn’t met the bar for publication. His words lay the groundwork for a very different type of campaign, one which used the groundswell of support surrounding Gebru’s firing as a stand-in for the ills of cancel culture. Twitter enabled Gebru’s colleagues to stand up for her; it also made her vulnerable to a small but very active group of harassers.

    Over the next two months, Pedro Domingos, a professor emeritus at the University of Washington, and Michael Lissack, a Wall Street whistleblower turned admitted harasser, promoted the narrative that Gebru’s work was “advocacy disguised as science.” They said she’d created a toxic environment at Google and was “obsessed with being a victim.” They wrote off her supporters as sycophants and “deranged activists.”

    On Twitter, the campaign gained momentum with the help of anonymous accounts. Gebru suspected they were sock puppets, fake profiles created for the sole purpose of harassment, since many had popped up around her firing. Some claimed to work in tech, using phrases like “pro-DEI minority,” “She/them,” and “LBGTQ Latinx” in their bios. When Emily M. Bender, a computational linguistics professor at the University of Washington and Gebru’s co-author on the paper, reported one of these accounts for harassment, Domingos implied she was being prejudiced.
    ““He enables these people, and gets to distance himself because he’s not the one saying ‘go back to Africa’””

    To Gebru, the harassment wouldn’t be possible without Jeff Dean, who stayed quiet about the campaign for months, despite being tagged in numerous posts. “He enables these people, and gets to distance himself because he’s not the one saying ‘go back to Africa,’” she says. “Pedro [Domingos] is smart enough not to say these types of things, too. They hide behind civility and enable the trolls. That’s how they get away with it.”

    #Timnit_Gebru #Cyberharcèlement #Ethique #Intelligence_artificielle

  • #Google. Deuxième chercheuse licenciée dans l’équipe « Éthique et #intelligence_artificielle »

    Deux mois après #Timmit_Gebru, c’est dont la responsable de l’équipe #Éthique_et_intelligence_artificielle que Google licencie. Elle avait dénoncé le licenciement de la chercheuse, mais plus généralement le déni des pratiques discriminatoires de l’entreprise.

    –-> dépêche AFP, enrichie, d’après France 24

    Les libertés académiques et la protection économique dûe aux chercheuses et aux chercheurs s’applique-t’elle dans les grandes firmes qui soutiennent des activités de recherche ? La question se pose avec le second licenciement opéré par Google dans son équipe Éthique et intelligence artificielle.

    #Margaret_Mitchell, qui a fondé l’équipe de recherche en éthique et intelligence artificielle de Google, a été « virée » (« I am fired »), a-t-elle annoncée vendredi sur Twitter, un mois après sa #suspension qui avait déjà valu des critiques au géant des technologies.

    « Après avoir passé en revue le comportement de cette directrice, nous avons confirmé qu’il y a eu de multiples infractions à notre #code_de_conduite, ainsi que de nos règlements sur la sécurité, y compris l’exfiltration de documents confidentiels sensibles et de données privées sur d’autres employés »,

    a déclaré un porte-parole du groupe californien à l’AFP.

    En janvier, Margaret Mitchell s’était vue refuser l’accès à son compte professionnel, quelques semaines après le renvoi d’un membre de son équipe, Timnit Gebru.

    « Ce sont des attaques contre les personnes qui essaient de rendre la technologie de Google plus #éthique »,

    avait réagi un porte-parole du #Alphabet_Workers_Union, le syndicat récemment formé par des employés du groupe.

    Google reproche à la chercheuse en éthique et intelligence artificielle d’avoir téléchargé un grand nombre de documents liés à son ancienne collègue et de les avoir ensuite partagés avec des personnes extérieures.

    Mais la société fait face à des critiques car Margaret Mitchell accuse l’entreprise de l’avoir forcée à se rétracter sur des résultats de recherche.

    Sous son tweet de vendredi – « j’ai été virée » – les messages de soutien abondaient.

    « J’imagine que ça veut dire que l’IA éthique n’a pas sa place dans une société capitaliste »,

    a commenté #Chelsea_Manning, l’ancienne analyste militaire qui a été condamnée pour trahison après avoir transmis des documents classés secret défense à WikiLeaks.

    Le 19 janvier, deux jours avant sa suspension, l’informaticienne avait critiqué publiquement le directeur exécutif du groupe, #Sundar_Pichai, sur le thème du racisme.

    « Disons que vous avez un problème parce que vous n’arrêtez pas de vous aliéner les femmes noires et que vous leur causez des torts importants »,

    avait-elle tweeté au-dessus d’un lien vers un article de CNN intitulé « Le patron de Google rencontre des dirigeants d’universités noires après des accusations de #racisme ».

    « Vous pouvez : A) essayer de réparer vos torts B) essayer de trouver plus de personnes noires pour vous apprécier (l’approche symbolique et superficielle). Bonne chance… ».

    En décembre, plus de 1.400 employés de Google et près de 2000 autres personnes ont signé une lettre appelant l’entreprise à expliquer pourquoi Timnit Gebru avait été renvoyée et pour quelles raisons elle avait dû se rétracter.

    Ils demandaient aussi à Alphabet de s’engager « sans équivoque » en faveur de l’intégrité de la recherche et de la liberté académique.

    https://academia.hypotheses.org/31162
    #AI #IA #licenciement

  • Contrôle et surveillance en temps de pandémie

    https://lavoiedujaguar.net/Controle-et-surveillance-en-temps-de-pandemie

    https://contrepoints.media/fr/posts/controle-et-surveillance-en-temps-de-pandemie

    La pandémie a révélé les conséquences d’années de coupes budgétaires des gouvernements et de politiques favorisant la privatisation graduelle de nos systèmes publics de santé, au profit d’une vision mettant de l’avant la rentabilité économique de la santé.

    Pour faire face à la pandémie de la Covid-19, au lieu de proposer des investissements dans nos services publics, de nombreux États ont opté massivement pour l’implantation de mesures répressives, telles que le confinement strict et le couvre-feu, et d’une panoplie de mesures de contrôle et de surveillance.

    L’urgence et le climat de peur servent à forcer le consensus et à fabriquer le consentement de la population aux diverses mesures mises de l’avant pour nous sortir de la crise sanitaire. Nous acceptons jour après jour la mise en place de mesures de contrôle social qui, il y a à peine quelques mois, auraient été impensables. Le traitement médiatique de la pandémie n’est pas étranger à l’acceptation sociale des changements drastiques qui nous sont imposés.

    Ainsi, la majorité des États se tournent vers le privé pour nous offrir des solutions technologiques. (...)

    #pandémie #contrôle #surveillance #intelligence_artificielle #Montréal #Davos

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.

    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces

  • The global landscape of AI ethics guidelines | Nature Machine Intelligence
    https://www.nature.com/articles/s42256-019-0088-2

    In the past five years, private companies, research institutions and public sector organizations have issued principles and guidelines for ethical artificial intelligence (AI). However, despite an apparent agreement that AI should be ‘ethical’, there is debate about both what constitutes ‘ethical AI’ and which ethical requirements, technical standards and best practices are needed for its realization. To investigate whether a global agreement on these questions is emerging, we mapped and analysed the current corpus of principles and guidelines on ethical AI. Our results reveal a global convergence emerging around five ethical principles ( transparency, justice and fairness, non-maleficence, responsibility and privacy) , with substantive divergence in relation to how these principles are interpreted, why they are deemed important, what issue, domain or actors they pertain to, and how they should be implemented. Our findings highlight the importance of integrating guideline-development efforts with substantive ethical analysis and adequate implementation strategies.

    #Intelligence_artificielle #Ethique

  • Artificial intelligence : #Frontex improves its maritime surveillance

    Frontex wants to use a new platform to automatically detect and assess „risks“ on the seas of the European Union. Suspected irregular activities are to be displayed in a constantly updated „threat map“ with the help of self-learning software.

    The EU border agency has renewed a contract with Israeli company Windward for a „maritime analytics“ platform. It will put the application into regular operation. Frontex had initially procured a licence for around 800,000 Euros. For now 2.6 million Euros, the agency will receive access for four workstations. The contract can be extended three times for one year at a time.

    Windward specialises in the digital aggregation and assessment of vessel tracking and maritime surveillance data. Investors in the company, which was founded in 2011, include former US CIA director David Petraeus and former CEO’s of Thomson Reuters and British Petroleum. The former chief of staff of the Israeli military, Gabi Ashkenazi, is considered one of the advisors.

    Signature for each observed ship

    The platform is based on artificial intelligence techniques. For analysis, it uses maritime reporting systems, including position data from the AIS transponders of larger ships and weather data. These are enriched with information about the ship owners and shipping companies as well as the history of previous ship movements. For this purpose, the software queries openly accessible information from the internet.

    In this way, a „fingerprint“ is created for each observed ship, which can be used to identify suspicious activities. If the captain switches off the transponder, for example, the analysis platform can recognise this as a suspicuous event and take over further tracking based on the recorded patterns. It is also possible to integrate satellite images.

    Windward uses the register of the International Maritime Organisation (IMO) as its database, which lists about 70,000 ships. Allegedly, however, it also processes data on a total of 400,000 watercraft, including smaller fishing boats. One of the clients is therefore the UN Security Council, which uses the technology to monitor sanctions.

    Against „bad guys“ at sea

    The company advertises its applications with the slogan „Catch the bad guys at sea“. At Frontex, the application is used to combat and prevent unwanted migration and cross-border crime as well as terrorism. Subsequently, „policy makers“ and law enforcement agencies are to be informed about results. For this purpose, the „risks“ found are visualised in a „threat map“.

    Windward put such a „threat map“ online two years ago. At the time, the software rated the Black Sea as significantly more risky than the Mediterranean. Commercial shipping activity off the Crimea was interpreted as „probable sanction evasions“. Ship owners from the British Guernsey Islands as well as Romania recorded the highest proportion of ships exhibiting „risky“ behaviour. 42 vessels were classified as suspicious for drug smuggling based on their patterns.

    Frontex „early warning“ units

    The information from maritime surveillance is likely to be processed first by the „Risk Analysis Unit“ (RAU) at Frontex. It is supposed to support strategic decisions taken by the headquarters in Warsaw on issues of border control, return, prevention of cross-border crime as well as threats of a „hybrid nature“. Frontex calls the applications used there „intelligence products“ and „integrated data services“. Their results flow together in the „Common Integrated Risk Analysis Model“ (CIRAM).

    For the operational monitoring of the situation at the EU’s external borders, the agency also maintains the „Frontex Situation Centre“ (FSC). The department is supposed to provide a constantly updated picture of migration movements, if possible in real time. From these reports, Frontex produces „early warnings“ and situation reports to the border authorities of the member states as well as to the Commission and the Council in Brussels.

    More surveillance capacity in Warsaw

    According to its own information, Windward’s clients include the Italian Guardia di Finanza, which is responsible for controlling Italian territorial waters. The Ministry of the Interior in Rome is also responsible for numerous EU projects aimed at improving surveillance of the central Mediterranean. For the training and equipment of the Libyan coast guard, Italy receives around 67 million euros from EU funds in three different projects. Italian coast guard authorities are also installing a surveillance system for Tunisia’s external maritime borders.

    Frontex now wants to improve its own surveillance capacities with further tenders. Together with the fisheries agency, The agency is awarding further contracts for manned maritime surveillance. It has been operating such a „Frontex Aerial Surveillance Service“ (FASS) in the central Mediterranean since 2017 and in the Adriatic Sea since 2018. Frontex also wants to station large drones in the Mediterranean. Furthermore, it is testing Aerostats in the eastern Mediterranean for a second time. These are zeppelins attached to a 1,000-metre long line.

    https://digit.site36.net/2021/01/15/artificial-intelligence-frontex-improves-its-maritime-surveillance
    #intelligence_artificielle #surveillance #surveillance_maritime #mer #asile #migrations #réfugiés #frontières #AI #Windward #Israël #complexe_militaro-industriel #militarisation_des_frontières #David_Petraeus #Thomson_Reuters #British_Petroleum #armée_israélienne #Gabi_Ashkenazi #International_Maritime_Organisation (#IMO) #thread_map #Risk_Analysis_Unit (#RAU) #Common_Integrated_Risk_Analysis_Model (#CIRAM) #Frontex_Situation_Centre (#FSC) #Frontex_Aerial_Surveillance_Service (#FASS) #zeppelins

    ping @etraces

    • Data et nouvelles technologies, la face cachée du contrôle des mobilités

      Dans un rapport de juillet 2020, l’Agence européenne pour la gestion opérationnelle des systèmes d’information à grande échelle (#EU-Lisa) présente l’intelligence artificielle (IA) comme l’une des « technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

      L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme Frontex ou EU-Lisa, ont été particulièrement actives dans l’#expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

      La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

      http://www.migreurop.org/article3021.html

      Pour télécharger le rapport :
      www.migreurop.org/IMG/pdf/note_12_fr.pdf

      ping @karine4 @rhoumour @_kg_ @i_s_

    • La #technopolice aux frontières

      Comment le #business de la #sécurité et de la #surveillance au sein de l’#Union_européenne, en plus de bafouer des #droits_fondamentaux, utilise les personnes exilées comme #laboratoire de recherche, et ce sur des #fonds_publics européens.

      On a beaucoup parlé ici ces derniers mois de surveillance des manifestations ou de surveillance de l’espace public dans nos villes, mais la technopolice est avant tout déployée aux #frontières – et notamment chez nous, aux frontières de la « forteresse Europe ». Ces #dispositifs_technopoliciers sont financés, soutenus et expérimentés par l’Union européenne pour les frontières de l’UE d’abord, et ensuite vendus. Cette surveillance des frontières représente un #marché colossal et profite grandement de l’échelle communautaire et de ses programmes de #recherche_et_développement (#R&D) comme #Horizon_2020.

      #Roborder – des essaims de #drones_autonomes aux frontières

      C’est le cas du projet Roborder – un « jeu de mots » entre robot et border, frontière en anglais. Débuté en 2017, il prévoit de surveiller les frontières par des essaims de #drones autonomes, fonctionnant et patrouillant ensemble. L’#intelligence_artificielle de ces drones leur permettrait de reconnaître les humains et de distinguer si ces derniers commettent des infractions (comme celui de passer une frontière ?) et leur dangerosité pour ensuite prévenir la #police_aux_frontières. Ces drones peuvent se mouvoir dans les airs, sous l’eau, sur l’eau et dans des engins au sol. Dotés de multiples capteurs, en plus de la détection d’activités criminelles, ces drones seraient destinés à repérer des “#radio-fréquences non fiables”, c’est-à-dire à écouter les #communications et également à mesurer la #pollution_marine.
      Pour l’instant, ces essaims de drones autonomes ne seraient pas pourvus d’armes. Roborder est actuellement expérimenté en #Grèce, au #Portugal et en #Hongrie.

      Un #financement européen pour des usages « civils »

      Ce projet est financé à hauteur de 8 millions d’euros par le programme Horizon 2020 (subventionné lui-même par la #Cordis, organe de R&D de la Commission européenne). Horizon 2020 représente 50% du financement public total pour la recherche en sécurité de l’UE. Roborder est coordonné par le centre de recherches et technologie de #Hellas (le #CERTH), en Grèce et comme le montre l’association #Homo_Digitalis le nombre de projets Horizon 2020 ne fait qu’augmenter en Grèce. En plus du CERTH grec s’ajoutent environ 25 participants venus de tous les pays de l’UE (où on retrouve les services de police d’#Irlande_du_Nord, le ministère de la défense grecque, ou encore des entreprises de drones allemandes, etc.).

      L’une des conditions pour le financement de projets de ce genre par Horizon 2020 est que les technologies développées restent dans l’utilisation civile, et ne puissent pas servir à des fins militaires. Cette affirmation pourrait ressembler à un garde-fou, mais en réalité la distinction entre usage civil et militaire est loin d’être clairement établie. Comme le montre Stephen Graham, très souvent les #technologies, à la base militaires, sont réinjectées dans la sécurité, particulièrement aux frontières où la migration est criminalisée. Et cette porosité entre la sécurité et le #militaire est induite par la nécessité de trouver des débouchés pour rentabiliser la #recherche_militaire. C’est ce qu’on peut observer avec les drones ou bien le gaz lacrymogène. Ici, il est plutôt question d’une logique inverse : potentiellement le passage d’un usage dit “civil” de la #sécurité_intérieure à une application militaire, à travers des ventes futures de ces dispositifs. Mais on peut aussi considérer la surveillance, la détection de personnes et la #répression_aux_frontières comme une matérialisation de la #militarisation de l’Europe à ses frontières. Dans ce cas-là, Roborder serait un projet à fins militaires.

      De plus, dans les faits, comme le montre The Intercept (https://theintercept.com/2019/05/11/drones-artificial-intelligence-europe-roborder), une fois le projet terminé celui-ci est vendu. Sans qu’on sache trop à qui. Et, toujours selon le journal, beaucoup sont déjà intéressés par Roborder.

      #IborderCtrl – détection d’#émotions aux frontières

      Si les essaims de drones sont impressionnants, il existe d’autres projets dans la même veine. On peut citer notamment le projet qui a pour nom IborderCtrl, testé en Grèce, Hongrie et #Lettonie.

      Il consiste notamment en de l’#analyse_d’émotions (à côté d’autres projets de #reconnaissances_biométriques) : les personnes désirant passer une frontière doivent se soumettre à des questions et voient leur #visage passer au crible d’un #algorithme qui déterminera si elles mentent ou non. Le projet prétend « accélérer le #contrôle_aux_frontières » : si le #détecteur_de_mensonges estime qu’une personne dit la vérité, un code lui est donné pour passer le contrôle facilement ; si l’algorithme considère qu’une personne ment, elle est envoyée dans une seconde file, vers des gardes-frontières qui lui feront passer un #interrogatoire. L’analyse d’émotions prétend reposer sur un examen de « 38 #micro-mouvements du visage » comme l’angle de la tête ou le mouvement des yeux. Un spectacle de gadgets pseudoscientifiques qui permet surtout de donner l’apparence de la #neutralité_technologique à des politiques d’#exclusion et de #déshumanisation.

      Ce projet a également été financé par Horizon 2020 à hauteur de 4,5 millions d’euros. S’il semble aujourd’hui avoir été arrêté, l’eurodéputé allemand Patrick Breyer a saisi la Cour de justice de l’Union Européenne pour obtenir plus d’informations sur ce projet, ce qui lui a été refusé pour… atteinte au #secret_commercial. Ici encore, on voit que le champ “civil” et non “militaire” du projet est loin de représenter un garde-fou.

      Conclusion

      Ainsi, l’Union européenne participe activement au puissant marché de la surveillance et de la répression. Ici, les frontières et les personnes exilées sont utilisées comme des ressources de laboratoire. Dans une optique de militarisation toujours plus forte des frontières de la forteresse Europe et d’une recherche de profit et de développement des entreprises et centres de recherche européens. Les frontières constituent un nouveau marché et une nouvelle manne financière de la technopolice.

      Les chiffres montrent par ailleurs l’explosion du budget de l’agence européenne #Frontex (de 137 millions d’euros en 2015 à 322 millions d’euros en 2020, chiffres de la Cour des comptes européenne) et une automatisation toujours plus grande de la surveillance des frontières. Et parallèlement, le ratio entre le nombre de personnes qui tentent de franchir la Méditerranée et le nombre de celles qui y laissent la vie ne fait qu’augmenter. Cette automatisation de la surveillance aux frontières n’est donc qu’une nouvelle façon pour les autorités européennes d’accentuer le drame qui continue de se jouer en Méditerranée, pour une “efficacité” qui finalement ne profite qu’aux industries de la surveillance.

      Dans nos rues comme à nos frontières nous devons refuser la Technopolice et la combattre pied à pied !

      https://technopolice.fr/blog/la-technopolice-aux-frontieres

    • Artificial Intelligence - based capabilities for European Border and Coast Guard

      In 2019, Frontex, the European Border and Coast Guard Agency, commissioned #RAND Europe to carry out an Artificial intelligence (AI) research study.

      The purpose of the study was to provide an overview of the main opportunities, challenges and requirements for the adoption of AI-based capabilities in border managament. Frontex’s intent was also to find synergies with ongoing AI studies and initiatives in the EU and contribute to a Europe-wide AI landscape by adding the border security dimension.

      Some of the analysed technologies included automated border control, object recognition to detect suspicious vehicles or cargo and the use of geospatial data analytics for operational awareness and threat detection.

      As part of the study, RAND provided Frontex in 2020 with a comprehensive report and an executive summary with conclusions and recommendations.

      The findings will support Frontex in shaping the future landscape of AI-based capabilities for Integrated Border Management, including AI-related research and innovation projects which could be initiated by Frontex (e.g. under #EU_Innovation_Hub) or recommended to be conducted under the EU Research and Innovation Programme (#Horizon_Europe).

      https://frontex.europa.eu/media-centre/news/news-release/artificial-intelligence-based-capabilities-for-european-border-and-co

    • Pour les réfugiés, la #biométrie tout au long du chemin

      Par-delà les murs qui poussent aux frontières du monde depuis les années 1990, les réfugiés, migrants et demandeurs d’asile sont de plus en plus confrontés à l’extension des bases de #données_biométriques. Un « #mur_virtuel » s’étend ainsi à l’extérieur, aux frontières et à l’intérieur de l’espace Schengen, construit autour de programmes et de #bases_de_données.

      Des réfugiés qui paient avec leurs #iris, des migrants identifiés par leurs #empreintes_digitales, des capteurs de #reconnaissance_faciale, mais aussi d’#émotions… Réunis sous la bannière de la « #frontière_intelligente », ces #dispositifs_technologiques, reposant sur l’#anticipation, l’#identification et l’#automatisation du franchissement de la #frontière grâce aux bases de données biométriques, ont pour but de trier les voyageurs, facilitant le parcours des uns et bloquant celui des autres.

      L’Union européenne dispose ainsi d’une batterie de bases de données qui viennent compléter les contrôles aux frontières. Depuis 2011, une agence dédiée, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle, l’#EU-Lisa, a pour but d’élaborer et de développer, en lien avec des entreprises privées, le suivi des demandeurs d’asile.

      Elle gère ainsi plusieurs bases compilant des #données_biométriques. L’une d’elles, le « #Entry_and_Exit_System » (#EES), sera déployée en 2022, pour un coût évalué à 480 millions d’euros. L’EES a pour mission de collecter jusqu’à 400 millions de données sur les personnes non européennes franchissant les frontières de l’espace Schengen, afin de contrôler en temps réel les dépassements de durée légale de #visa. En cas de séjour prolongé devenu illégal, l’alerte sera donnée à l’ensemble des polices européennes.

      Se brûler les doigts pour ne pas être enregistré

      L’EU-Lisa gère également le fichier #Eurodac, qui consigne les empreintes digitales de chacun des demandeurs d’asile de l’Union européenne. Utilisé pour appliquer le #règlement_Dublin III, selon lequel la demande d’asile est déposée et traitée dans le pays européen où le migrant a été enregistré la première fois, il entraîne des stratégies de #résistance.

      « On a vu des migrants refuser de donner leurs empreintes à leur arrivée en Grèce, ou même se brûler les doigts pour ne pas être enregistrés dans Eurodac, rappelle Damien Simonneau, chercheur à l’Institut Convergences Migrations du Collège de France. Ils savent que s’ils ont, par exemple, de la famille en Allemagne, mais qu’ils ont été enregistrés en Grèce, ils seront renvoyés en Grèce pour que leur demande y soit traitée, ce qui a des conséquences énormes sur leur vie. » La procédure d’instruction dure en effet de 12 à 18 mois en moyenne.

      La collecte de données biométriques jalonne ainsi les parcours migratoires, des pays de départs jusqu’aux déplacements au sein de l’Union européenne, dans un but de limitation et de #contrôle. Pour lutter contre « la criminalité transfrontalière » et « l’immigration clandestine », le système de surveillance des zones frontières #Eurosur permet, via un partage d’informations en temps réel, d’intercepter avant leur arrivée les personnes tentant d’atteindre l’Union européenne.

      Des contrôles dans les pays de départ

      Pour le Transnational Institute, auteur avec le think tank Stop Wapenhandel et le Centre Delàs de plusieurs études sur les frontières, l’utilisation de ces bases de données témoigne d’une stratégie claire de la part de l’Union européenne. « Un des objectifs de l’expansion des #frontières_virtuelles, écrivent-ils ainsi dans le rapport Building Walls (https://www.tni.org/files/publication-downloads/building_walls_-_full_report_-_english.pdf), paru en 2018, est d’intercepter les réfugiés et les migrants avant même qu’ils n’atteignent les frontières européennes, pour ne pas avoir à traiter avec eux. »

      Si ces techniques permettent de pré-trier les demandes pour fluidifier le passage des frontières, en accélérant les déplacements autorisés, elles peuvent également, selon Damien Simonneau, avoir des effets pervers. « L’utilisation de ces mécanismes repose sur l’idée que la #technologie est un facilitateur, et il est vrai que l’#autonomisation de certaines démarches peut faciliter les déplacements de personnes autorisées à franchir les frontières, expose-t-il. Mais les technologies sont faillibles, et peuvent produire des #discriminations. »

      Ces #techniques_virtuelles, aux conséquences bien réelles, bouleversent ainsi le rapport à la frontière et les parcours migratoires. « Le migrant est confronté à de multiples points "frontière", disséminés un peu partout, analyse Damien Simonneau. Cela crée des #obstacles supplémentaires aux parcours migratoires : le contrôle n’est quasiment plus lié au franchissement d’une frontière nationale, il est déterritorialisé et peut se produire n’importe où, en amont comme en aval de la frontière de l’État. »

      Ainsi, la « politique d’#externalisation de l’Union européenne » permet au contrôle migratoire de s’exercer dans les pays de départ. Le programme européen « #SIV » collecte par exemple dès leur formulation dans les #consulats les données biométriques liées aux #demandes_de_visas.

      Plus encore, l’Union européenne délègue une partie de la gestion de ses frontières à d’autres pays : « Dans certains États du Sahel, explique Damien Simonneau, l’aide humanitaire et de développement est conditionnée à l’amélioration des contrôles aux frontières. »

      Un programme de l’Organisation internationale pour les migrations (OIM), le programme #MIDAS, financé par l’Union européenne, est ainsi employé par 23 pays, majoritairement en Afrique, mais aussi en Asie et en Amérique. Son but est de « collecter, traiter, stocker et analyser les informations [biométriques et biographiques] des voyageurs en temps réel » pour aider les polices locales à contrôler leurs frontières. Mais selon le réseau Migreurop, ces données peuvent également être transmises aux agences policières européennes. L’UE exerce ainsi un droit de regard, via Frontex, sur le système d’information et d’analyse de données sur la migration, installé à Makalondi au Niger.

      Des réfugiés qui paient avec leurs yeux

      Un mélange des genres, entre organisations humanitaires et États, entre protection, logistique et surveillance, qui se retrouve également dans les #camps_de_réfugiés. Dans les camps jordaniens de #Zaatari et d’#Azarq, par exemple, près de la frontière syrienne, les réfugiés paient depuis 2016 leurs aliments avec leurs iris.

      L’#aide_humanitaire_alimentaire distribuée par le Programme alimentaire mondial (PAM) leur est en effet versée sur un compte relié à leurs données biométriques. Il leur suffit de passer leurs yeux dans un scanner pour régler leurs achats. Une pratique qui facilite grandement la gestion #logistique du camp par le #HCR et le PAM, en permettant la #traçabilité des échanges et en évitant les fraudes et les vols.

      Mais selon Léa Macias, anthropologue à l’EHESS, cela a aussi des inconvénients. « Si ce paiement avec les yeux peut rassurer certains réfugiés, dans la mesure où cela les protège contre les vols, développe-t-elle, le procédé est également perçu comme une #violence. Les réfugiés ont bien conscience que personne d’autre au monde, dans une situation normale, ne paie ainsi avec son #corps. »

      Le danger de la fuite de données

      La chercheuse s’inquiète également du devenir des données ainsi collectées, et se pose la question de l’intérêt des réfugiés dans ce processus. « Les humanitaires sont poussés à utiliser ces nouvelles technologies, expose-t-elle, qui sont vues comme un gage de fiabilité par les bailleurs de fonds. Mais la #technologisation n’est pas toujours dans l’intérêt des réfugiés. En cas de fuite ou de hackage des bases de données, cela les expose même à des dangers. »

      Un rapport de Human Rights Watch (HRW) (https://www.hrw.org/news/2021/06/15/un-shared-rohingya-data-without-informed-consent), publié mardi 15 juin, alerte ainsi sur des #transferts_de_données biométriques appartenant à des #Rohingyas réfugiés au Bangladesh. Ces données, collectées par le Haut-commissariat aux réfugiés (HCR) de l’ONU, ont été transmises par le gouvernement du Bangladesh à l’État birman. Si le HCR a réagi (https://www.unhcr.org/en-us/news/press/2021/6/60c85a7b4/news-comment-statement-refugee-registration-data-collection-bangladesh.html) en affirmant que les personnes concernées avaient donné leur accord à ce #transfert_de_données pour préparer un éventuel retour en Birmanie, rien ne permet cependant de garantir qu’ils seront bien reçus si leur nom « bipe » au moment de passer la frontière.

      https://www.rfi.fr/fr/technologies/20210620-pour-les-r%C3%A9fugi%C3%A9s-la-biom%C3%A9trie-tout-au-long-du-chemin

      #smart_borders #tri #catégorisation #déterritorialisation #réfugiés_rohingyas

      –---

      Sur les doigts brûlés pour ne pas se faire identifier par les empreintes digitales, voir la scène du film Qu’ils reposent en paix de Sylvain George, dont j’ai fait une brève recension :

      Instant tragique : ce qu’un migrant appelle la « prière ». Ce moment collectif où les migrants tentent de faire disparaître leurs empreintes digitales. Étape symbolique où ils se défont de leur propre identité.

      https://visionscarto.net/a-calais-l-etat-ne-peut-dissoudre