• Hypermarchés, la chute de l’empire

    Le modèle de l’hypermarché a-t-il fait son temps ? Ce concept révolutionnaire du « tout sous le même toit », popularisé en 1963 par Carrefour, a conquis le monde entier. Aujourd’hui pourtant, le pionnier français, comme ses concurrents, a un genou à terre. En cause notamment, la crise du gigantisme, associé à une déshumanisation du commerce et à la surconsommation, pointée du doigt à l’heure des grands défis écologiques, mais aussi la concurrence du e-commerce. Désormais, tout le secteur cherche à sauver ce qui peut l’être, quitte à verser dans des pratiques à la limite de la légalité. Pour obtenir des prix toujours plus bas, sans lesquels elles seraient désertées, les grandes enseignes mettent les fournisseurs de plus en plus sous pression.

    http://www.film-documentaire.fr/4DACTION/w_fiche_film/19158_1

    #film #film_documentaire #documentaire
    #consommation #grande_distribution #Amazon #hypermarchés #hypermarché #Marcel_Fournier #Carrefour #consommation_de_masse #prix #crise #guerre_des_prix #fournisseurs #omerta #RCD #rétorsions #justice #distributeurs #coopernic #CWT #AgeCore #Horizon_International #Suisse #accords_internationaux #Genève #Nestlé #pratiques_commerciales_abusives #Carrefour_Franchising #franchising #illégalité #Whole_Foods #secteur_alimentaire #Amazon_Fresh #JD.com #robotisation #Agriculture_Brain #industrie_agro-alimentaire #intelligence_artificielle #AI #IA #Slovaquie #Amazon_Prime #concurrence #e-commerce #automatisation #centre-ville #Carrefour_City #technologie

  • Contre les migrants, toujours plus de #technologie

    Reporterre s’est rendu au salon #Milipol pour découvrir les innovations technologiques sécuritaires. Elles sont de plus en plus déployées pour repousser les migrants.

    « Viens ici pépère ! » lance un homme élancé en costume-cravate en direction d’un chien-robot en mouvement, faisant mine de lui proposer à manger. Derrière les regards amusés autour du robot développé par l’entreprise étasunienne #Ghost_Robotics, son « maître » le guide avec sa télécommande d’un œil malicieux. Ce chien-robot au look Black Mirror répond au nom de #Q-UGV et sa mission consiste à surveiller des sites ultrasensibles comme les centrales nucléaires.

    Ce surveillant atypique, capable de courir, grimper et nager dans des environnements extrêmes, était l’une des nombreuses innovations présentées sur le salon Milipol de la sécurité intérieure au parc des expositions de Villepinte (Seine-Saint-Denis). Près de 1 000 exposants, dont deux tiers d’entreprises internationales, y ont élu domicile du mardi 19 au vendredi 22 octobre. Plus de 30 000 professionnels de la sécurité publique et privée de 150 pays déambulaient dans les allées. Entre une coupe de champagne et des petits fours, ils s’informaient pour en faire commerce sur les dernières grenades lacrymogènes, les dispositifs de reconnaissance faciale ou les fusils d’assaut.

    L’heure est à la reprise pour le secteur de la #sécurité. « La première des libertés », comme l’a assuré le ministre de l’Intérieur, Gérald Darmanin, lors de sa visite du salon le premier jour. Après avoir subi la crise sanitaire à l’instar d’une large partie de l’économie mondiale, le marché mondial de la #sécurité_intérieure devrait rebondir. Sa prévision de croissance est de 8 % en 2021 et de 6 % en 2022, après une baisse de 3 % en 2020. En France, il n’a pas été épargné non plus et les dépenses étatiques consacrées à la sécurité ont baissé de 8,6 %, pour atteindre 3,6 milliards d’euros. Mais certains domaines, comme celui des #drones_de_surveillance, ont tiré leur épingle du jeu avec une progression de 5,8 %. Alors que l’Union européenne peine toujours à s’accorder sur une politique commune de gestion des #frontières, chaque État membre est tenté de renforcer la #surveillance des siennes grâce à des technologies toujours plus sophistiquées.

    Mille et une façons de traquer les migrants

    Déjà déployés, en passe d’être expérimentés ou pas encore autorisés, les dispositifs de #détection de migrants sont présentés aux quatre coins de l’immense salle d’exposition. Nichés entre deux stands de drones, les représentants de la société française #HGH, spécialisée dans les #systèmes_électro-optiques, sont ainsi très sollicités. La série de #caméras_thermiques #Spynel, qui promet une « #surveillance_panoramique 360 degrés, #jour et #nuit, jusqu’à l’horizon » sur les frontières des pays intéressés, a du succès. À l’occasion du salon, l’entreprise vient de finaliser un contrat d’un million d’euros avec un pays de l’#Otan (Organisation du traité de l’Atlantique Nord) — dont elle tait le nom — pour sécuriser et surveiller sur près de 1 000 kilomètres de côte et empêcher les passages des migrants et des trafiquants de drogues. « C’est impossible d’échapper à la #vigilance de cette caméra, et à l’inverse des drones, on ne peut pas brouiller son signal, car elle n’émet aucune onde », se félicite le responsable marketing. « Si un groupe de personnes ou un zodiac s’approche de nuit d’un littoral dans la zone surveillée, l’#intelligence_artificielle détectera automatiquement le #mouvement et une alerte sera envoyée aux forces de sécurité », poursuit-il.

    De l’autre côté du salon, un groupe de gendarmes écoute attentivement les explications du représentant de l’entreprise néerlandaise #UVI-Scan. Sur la brochure commerciale, une page est consacrée à un #scanner capable de détecter les passagers clandestins sous les camions. Le visuel est explicite : accrochés sous un véhicule, deux migrants sont pris en flagrant délit. « Ce sont de vraies photos ! » assume le consultant technique. « C’est un système intégré à la chaussée qui détecte les #intrus et prend automatiquement une photo à l’approche des postes frontières et des ferrys », explique-t-il. « Nous en avons déployés un peu partout en Europe, notamment à #Dieppe, en France ». Là où de nombreux exilés tentent leur chance pour gagner les côtes anglaises par le ferry ou des embarcations de fortune.

    Entre deux stands de fusils d’assaut et des tenues de camouflages, un drone blanc aux allures d’avion miniature surplombe le stand de #German_Drones. L’entreprise allemande propose un « service personnalisé » à ses clients en fonction des usages ». Pour la détection de passages de migrants à la frontière, Anis Fellahi, le chef de projet international du groupe, recommande « le modèle 150, le plus performant, qui peut voler une heure et demie, couvrir une centaine de kilomètres, et transmet une vidéo de meilleure qualité ». Le dit #Songbird est d’ores et déjà déployé aux frontières allemandes et belges, et cherche à étendre son empreinte.

    Les industriels ne s’arrêtent pas là et proposent aux autorités des outils de #surveillance_aérienne toujours plus développées et intrusifs. L’entreprise française #T-ops intègre des #IMSI-Catcher directement embarqués sur les drones. Ce dispositif de #surveillance_de_masse est capable d’intercepter le trafic des communications téléphoniques, de récupérer et recouper ces informations à distance et de suivre les mouvements des utilisateurs. « Là nous proposons un produit avec une #efficacité au-delà du réel ! » s’exclame le représentant de la société. Cette technologie peut-elle être déployée pour repérer les migrants ? « C’est possible, oui. Mais nous ne fournissons qu’un service, le responsable de son utilisation est l’État », répond-il sobrement.

    Certains produits attendent des évolutions législatives pour être pleinement déployés. C’est le cas du drone de surveillance très longue distance présenté par le groupe belge #John_Cockerill, traditionnel acteur de la défense, lancé depuis peu dans la sécurité intérieure. « Ce type d’appareil peut voir jusqu’à 30 kilomètres et il est en capacité d’identifier très clairement des personnes », explique #Jean-Marc_Tyberg, le président du conseil d’administration du groupe. « À ce stade, nous devons intégrer un logiciel qui floute automatiquement le visage de la personne pour ne pas la reconnaître ». Mais selon lui, « se priver de ces outils de reconnaissance revient à fermer les yeux en conduisant. Il faut que l’on rattrape notre retard législatif pour que ces solutions puissent être pleinement utilisées. » Jean-Marc Tyberg fait référence aux longs débats autour de la controversée #loi_Sécurité_globale. Le Conseil constitutionnel avait fini par censurer le dispositif d’encadrement de l’utilisation des images des drones utilisés les forces de l’ordre, jugée trop dangereux au regard du #droit_à_la_vie_privée. Mais le gouvernement est revenu à la charge à la rentrée avec une disposition remaniée dans le projet de loi relatif à la sécurité intérieure, actuellement débattu au Parlement.

    Si la France n’est pas le terrain de jeu technologique idéal des industriels, d’autres États comme la #Grèce accueillent de nombreuses expérimentations plus poussées. Le pays frontalier de la Turquie est un passage obligé dans le parcours des migrants. Et il reçoit le soutien de l’agence de gardes-côtes européens #Frontex, accusée par des ONG et des médias d’opérer des refoulements illégaux à l’extérieur de l’UE. Si le gestionnaire des frontières européennes n’a pas de stand dédié ici, ses fournisseurs sont disséminés sur le salon. La société française #Cnim_Air_Space est l’un d’eux. « Notre modèle de #ballon_captif #Eagle_Owl gonflé à l’Hélium peut voler jusqu’à 600 mètres de haut, et possède une autonomie de 7 jours », expose fièrement le représentant de l’entreprise. Il est actuellement utilisé par les autorités grecques et l’agence Frontex. Un modèle plus petit a également été expérimenté autour de #Calais par la gendarmerie. Avec sa caméra embarquée, il renvoie en continu les #images vers une station positionnée au sol. « En cas d’alerte, si un zodiac débarque, les autorités grecques sont en capacité de les repérer à des kilomètres avant d’intervenir », précise-t-il. « Il mesure 22 mètres de long, donc le fait de le voir peut aussi avoir un effet dissuasif… ».

    La Grèce accueille également l’expérimentation du projet #Roborder, contraction de #robot et de border (frontière en anglais), lancé en 2017, qui prévoit un #système_de_surveillance des frontières par un essaim de #drones_autonomes, capables par l’intelligence artificielle de déterminer les franchissements. Le projet #iborder_control ambitionne quant à lui de développer un #algorithme capable de détecter les #mensonges des migrants lors de leur passage à l’aéroport.

    Mais sur le terrain, les associations d’aide aux personnes exilées observent que le renforcement de la surveillance des frontières ne décourage pas les candidats à l’asile, mais rend simplement leur parcours plus dangereux. Alors que la surveillance se renforce d’année en année, l’Organisation internationale des migrations a comptabilisé 1 146 décès de migrants sur les routes maritimes vers l’Europe au premier semestre 2021, contre 513 en 2020 et 674 en 2019 à la même période. Mais au salon Milipol, le rêve d’une Europe forteresse a de belles années devant lui.

    https://reporterre.net/Contre-les-migrants-toujours-plus-de-technologie

    ping @isskein @karine4

  • Rapport parlementaire : de nouveaux moyens de contrainte technologique
    https://www.piecesetmaindoeuvre.com/spip.php?article1568

    En juin 2021, le Sénat publiait un rapport légitimant la contrainte numérique durant les crises sanitaires (lire ici), où l’on pouvait notamment lire cette affirmation :

    « Plus la menace sera grande, plus les sociétés seront prêtes à accepter des technologies intrusives, et des restrictions plus fortes à leurs libertés individuelles – et c’est logique. »

    Confirmation en ce mois de septembre 2021 avec un autre rapport remis au Premier ministre, signé du député LREM de la Loire et ex-attaché parlementaire Jean-Michel Mis. Ce rapport est intitulé « Pour un usage responsable et acceptable par la société des technologies de sécurité ». La sécurité, comme la santé, étant « la première des libertés », selon la novlangue de l’ère cybernétique, on ne sera pas surpris du contenu de ce rapport. Il s’agit d’étendre les (...)

    https://www.vie-publique.fr/sites/default/files/rapport/pdf/281424.pdf #Nécrotechnologies

  • Pourquoi s’obstiner à numériser l’école ?
    https://reporterre.net/Mais-pourquoi-s-obstiner-a-numeriser-l-ecole

    « Pourquoi river les enfants à des machines dès leur plus jeune âge ? », écrit l’auteur de cette tribune. Il ne s’agit pas d’être technophobe mais de faire preuve de « techno-discernement » face au tout numérique à l’école et à ses néfastes effets sanitaires et écologiques.
    Philippe Bihouix est ingénieur et auteur d’essais sur les questions environnementales. En 2016, il publiait avec Karine Mauvilly Le désastre de l’école numérique — Plaidoyer pour une école sans écrans, aux éditions du Seuil, qui reparaît aujourd’hui en poche.


    Des enfants utilisent une application d’aide à l’apprentissage de la lecture dans une école marseillaise, en 2018. - © Bertrand Langlois / AFP

    Il y a cinq ans, nous publiions, avec Karine Mauvilly, Le désastre de l’école numérique. Ce livre se voulait un cri d’alerte, au titre provocateur sans doute, à la suite de l’annonce du Plan numérique pour l’éducation lancé deux ans auparavant par le président François Hollande. Nous voulions ouvrir le débat, comprendre, contextualiser, prévenir, interroger et mobiliser enseignants, syndicats, élus, parents et citoyens sur une évolution plus que contestable : celle d’une généralisation de l’enseignement sur écran.

    En termes d’innovation – et de fascination – « technopédagogique », l’école n’en était pas à son coup d’essai. Depuis cent cinquante ans, à l’apparition de chaque nouveau médium (lanterne magique, cinéma, radio, télévision, machines électromécaniques… mini puis micro-informatique), les pédagogues se sont emballés pour les formidables opportunités qui s’ouvraient, séduits, souvent, par des fournisseurs de matériel promettant monts et merveilles. Il est frappant de constater à quel point les mêmes arguments, à travers les âges, ont été brandis… jusqu’à aujourd’hui.


    Les miracles de l’école numérique n’ont été corroborés par aucune étude scientifique. Flickr / CC BY-SA 2.0 / Lucélia Ribeiro

    Les promoteurs du numérique à l’école parlent de motivation et de concentration accrues, d’amélioration des performances, de possibilités de travail collectif, de pédagogies actives ou ludiques, d’adaptation au rythme de chaque enfant… On a hâte de voir les résultats. Ces miracles n’ont été corroborés par aucune étude scientifique – aucune. Pourquoi alors river les enfants à des machines dès leur plus jeune âge ?

    Les preuves des effets délétères de la surexposition aux écrans sur la jeunesse s’accumulent
    L’école numérique soulève par ailleurs d’énormes questions sanitaires et écologiques, entre autres.

    • Sanitaires, d’abord, car les preuves des effets délétères de la surexposition aux écrans sur la jeunesse s’accumulent : phénomènes d’addiction, de dépression, d’agitation, difficultés de concentration, troubles de l’attention, troubles cognitifs, intolérance à la frustration, baisse de l’empathie, violence… Et que fait l’école numérique ? Elle augmente le temps global d’écran des enfants, et, en demandant aux élèves de se connecter après l’école pour faire leurs devoirs, elle légitime auprès des parents l’usage des écrans.

    • Écologiques, ensuite, car l’empreinte du numérique est forte, loin de l’illusion d’immatérialité. Évidemment, il ne viendrait à personne l’idée de contester les avancées technologiques dans d’autres domaines, la médecine par exemple, de dénoncer les appareils électroniques chez les dentistes ou dans les hôpitaux, au prétexte qu’on opérait mieux les patients avant ! Mais, dans le domaine éducatif, la course en avant technologique est bien loin d’avoir démontré une quelconque utilité.

    Cinq ans après la parution de notre livre, où en sommes-nous ? À son arrivée, en 2017, le nouveau ministre de l’Éducation nationale, Jean-Michel Blanquer, a commencé par prendre une posture officielle plutôt distanciée avec le numérique. Le « grand plan » a été discrètement remisé : il s’agissait maintenant de bâtir « l’école de la confiance ». Le téléphone portable a même été interdit dans les écoles et les collèges pour la rentrée 2018 – effet d’annonce, car de fait, il l’était déjà…

    Jean-Michel Blanquer n’est pas technophobe, il est au contraire tout à fait fan des possibilités offertes par les « EdTechs » (educational technologies), des start-up qui innovent au service de l’éducation – et notamment avec l’intelligence artificielle (IA). Lors de l’inauguration du « Lab 110 bis » en juin 2018 — un « espace dédié à l’innovation et favorisant l’intelligence collective » logé dans les bureaux du ministère — Jean-Michel Blanquer mentionnait les axes désormais prioritaires du numérique à l’école : « L’IA pour personnaliser les parcours, améliorer l’efficacité de l’enseignement, permettre au professeur de se concentrer sur l’essentiel, notamment par l’aide à l’évaluation ; le traitement massif des données pour permettre une meilleure orientation des étudiants, proposer des formations pros plus pertinentes et améliorer l’employabilité ; la robotique et les objets connectés pour permettre l’inclusion des plus fragiles. »

    Décryptons ce jargon : l’IA pour « personnaliser les parcours » et décharger le professeur du fardeau de l’évaluation consistera à coller l’élève devant son écran, et à mener des tests par QCM (questionnaires à choix multiple) vaguement améliorés sans doute, grâce à un peu de machine learning (l’apprentissage par les machines) ; le « traitement massif des données » pour l’orientation, cela signifie que les parents et les futurs bacheliers n’ont pas fini de souffrir face à l’opacité du logiciel Parcoursup ; quant à la « robotique pour les plus fragiles », mystère !

    Puis vint la crise sanitaire… La grande accélération numérique provoquée par la pandémie de Covid-19 aurait pu être l’occasion de relancer le débat sur la place de ces outils à l’école. Et ce d’autant plus que l’expérience de l’enseignement à distance, malgré l’effort à saluer de nombreux enseignants pour maintenir le lien avec leurs élèves, s’est révélée pitoyable. Mais le débat a surtout porté, dans les premiers temps, sur les inégalités d’équipement des élèves, tous n’ayant pas un ordinateur ou une tablette pour suivre les cours et rendre les devoirs à distance. Et si le contenu pédagogique pendant cette période n’a pas été à la hauteur, c’est l’argument du manque de préparation, d’adaptation (voire d’implication) des enseignants qui a été brandi. Ainsi va la transformation numérique à marche forcée : si elle ne tient pas ses promesses, c’est qu’on n’a pas encore pris la pleine mesure de son potentiel pédagogique.

    La crise a permis un « boom sans précédent du numérique éducatif » — titre d’un article publié dans le Figaro — notamment dans l’enseignement à distance pour les entreprises. Pour ce qui est de l’éducation, c’est moins clair, car, en France, « certains freins subsistent ». Pour Marie-Christine Levet, cofondatrice du fonds Educapital, start-uppeuse des EdTechs — et interrogée dans le même article —, s’il y a des progrès à faire, c’est dans « le grand chantier [de] la digitalisation de notre éducation, de l’école primaire à l’enseignement supérieur. C’est là que nous avons le plus de retard ».

    Il ne s’agit pas de prôner le retour à l’école d’antan mais de faire preuve de « techno-discernement »
    Retard sur quoi, sur qui ? Peu importe ! C’est le principe même du progrès technologique : comme l’explique la Reine rouge dans la suite des Aventures d’Alice au pays des merveilles de Lewis Caroll, ne pas avancer (mais vers où ?), ce n’est pas faire du surplace, c’est reculer : « Ici, vois-tu, on est obligé de courir tant qu’on peut pour rester au même endroit. Si on veut aller ailleurs, il faut courir au moins deux fois plus vite que ça. Allons, allons, plus vite, plus vite ! »

    Le débat n’a toujours pas eu lieu. Il ne s’agit pas d’être technophobe, passéiste ou conservateur, mais de regarder les faits le plus objectivement possible. D’ailleurs, pourquoi la charge de la preuve a-t-elle été inversée, pourquoi est-ce aux « détracteurs » du numérique de démontrer que celui-ci a plus d’effets nuisibles que positifs ? Pourquoi acceptons-nous, collectivement, de prendre pour argent comptant les balivernes des vendeurs de matériel et de logiciel ? Ou celles de leurs chercheurs inféodés, un petit cercle d’acteurs qui font carrière dans le secteur public ou le secteur privé (voire les deux) sur les projets « innovants » autour du numérique ?

    Certes, la crise de l’école n’est pas née avec sa numérisation. Il ne s’agit aucunement de prôner le retour à l’école d’antan, avec tableau noir et règle en bois, mais de faire preuve de « techno-discernement », d’oser questionner la doxa technopédagogique, et d’admettre que l’alternative non numérique est, dans la plupart des cas, meilleure.

    #Enfants #Ecole #éducation #france #enfants #inégalités #travail #education #enseignement #écoles #IA #intelligence_artificielle #numérique #cultures_numériques #internet #google #algorithme #politique #bigdata #france #pouvoirs #data #smartphone #technologisme #surveillance ne l’oublions pas

  • Un algorithme de Facebook confond des personnes noires avec des singes
    https://www.rtbf.be/info/medias/detail_un-algorithme-de-facebook-confond-des-personnes-noires-avec-des-singes?i

    Un algorithme de recommandation de Facebook a demandé à des utilisateurs s’ils souhaitaient voir d’autres "vidéos sur les primates" sous une vidéo d’un tabloïd britannique montrant des personnes noires, a révélé le New York Times vendredi. https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html

    La vidéo du Daily Mail, vieille de plus d’un an, est intitulée "un homme blanc appelle les flics contre des hommes noirs à la marina". Elle ne montre que des personnes, pas de singes.


    Facebook apologized on Friday for mislabeling and said it was looking into its recommendation feature to “prevent this from happening again.”Credit...Jim Wilson/The New York Times

    En dessous, la question "voir plus de vidéos sur les primates ?" avec les options "Oui / Rejeter" s’est affichée sur l’écran de certains utilisateurs, d’après une capture d’écran diffusée sur Twitter par Darci Groves, une ancienne designer du géant des réseaux sociaux.

    "C’est scandaleux", a-t-elle commenté, appelant ses ex-collègues de Facebook à faire remonter l’affaire.

    "C’est clairement une erreur inacceptable", a réagi une porte-parole de Facebook, sollicitée par l’AFP. "Nous présentons nos excuses à quiconque a vu ces recommandations insultantes."

    #Facebook #intelligence_artificielle #racisme

  • La voiture autonome ? Une catastrophe écologique Celia Izoard pour Reporterre
    https://reporterre.net/La-voiture-autonome-Une-catastrophe-ecologique

    L’industrie automobile prépare activement la généralisation des véhicules autonomes. Problème : leur mise en œuvre à grande échelle aurait des conséquences écologiques très néfastes.

    Dans le principe, la prouesse technologique consistant à remplacer par des machines les innombrables opérations complexes qu’effectue une personne au volant paraît difficilement compatible avec l’idée de sobriété. Un des derniers modèles, présenté en janvier au dernier Consumer’s Electronic Show de Las Vegas, le SUV Range Rover équipé par l’entreprise Valeo, comporte pas moins de quatre ou cinq caméras, huit lidars (qui permettent de mesurer les distances à partir d’un faisceau laser), plusieurs radars longue portée, un ordinateur central de grande puissance, une caméra trifocale sur le pare-brise et d’autres capteurs. La généralisation de ces véhicules impliquerait, pour abaisser les coûts de façon acceptable, le lancement d’une production de masse de tous ces objets, en supplément de l’électronique déjà présente dans les véhicules actuels. Aux États-Unis, la National Mining Association rappelle régulièrement aux décideurs que « la sophistication croissante des produits de l’industrie automobile va faire exploser la demande en métaux et la compétition pour ces ressources » [1]. En clair, impossible d’obtenir la matière première de tous ces superalliages sans provoquer une augmentation de l’activité minière, qui compte parmi les industries les plus polluantes [2].

    Deuxième problème : la croissance exponentielle des #données (le #data). La conduite automatisée repose sur de gigantesques volumes d’informations que les divers capteurs transmettent aux algorithmes de traitement d’images. Selon Brian Krzanich, PDG d’Intel, un véhicule autonome va générer et consommer, pour huit heures de conduite, environ 40 téraoctets de données, soit l’équivalent de 40 disques durs d’ordinateur. « En circulation, chacun de ces véhicules produira autant de données que 3.000 utilisateurs d’ #internet », précise-t-il [3]. Or la facture énergétique du traitement et du stockage du big data est déjà préoccupante. En France, les #datacenters consommaient déjà en 2015 plus d’électricité que la ville de Lyon. En 2017, ils ont consommé à eux seuls 3 % de l’électricité produite dans le monde, soit 40 % de plus qu’un pays comme le Royaume-Uni [4].

    « L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance » 
    Enfin, la généralisation des véhicules autonomes nécessite le déploiement de la #5G et le renouvellement des infrastructures routières. « Il est probable que l’environnement deviendra plus standardisé et proactif à mesure que sera développée une infrastructure plus communicante, résume un article de la Harvard Business Review. Il faut s’imaginer des transmetteurs radio à la place des feux rouges, des réseaux sans fil permettant aux véhicules de communiquer entre eux et avec les infrastructures, et des unités de bord de route fournissant des informations en temps réel sur la météo, le trafic, et d’autres paramètres [5]. »

    L’Union européenne finance plusieurs projets de ce type via le programme #Codecs, notamment le projet #Cooperative_ITS_Corridor, une autoroute expérimentale connectée desservant #Amsterdam, #Francfort et #Vienne. Une portion test de 8 km est déjà équipée d’une « unité de bord de route » (comprenant une antenne 5G et des ordinateurs) tous les 500 m et d’une caméra tous les 100 m. On imagine la quantité de matériel nécessaire pour équiper ne serait-ce que toutes les autoroutes d’Europe ! Le projet est loin d’être marqué par la sobriété, et moins encore si l’on imagine « des caméras avec des unités de communication (...) installées sur les feux rouges pour avertir le conducteur du passage “au vert” », comme les auteurs du Livre blanc #Mobility_Nation, le rapport du Boston Consulting Group remis au gouvernement pour accélérer l’essor du #transport_autonome [6].


    Un prototype de véhicule autonome Nissan, en 2014.

    On peut dès lors s’interroger sur la dénomination de ces véhicules : autonomes, vraiment ? André Gorz montrait déjà en 1973 à quel point l’automobile, qui dépend d’un approvisionnement en pétrole et d’une infrastructure gigantesque, reposait sur une autonomie largement fictive : « Ce véhicule allait obliger [l’automobiliste] à consommer et à utiliser une foule de services marchands et de produits industriels que seuls des tiers pouvaient lui fournir. L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance [7]. » La démonstration paraît encore plus probante pour ces véhicules qui ne pourraient « rouler tout seuls » qu’à la condition de modifier radicalement leur environnement en déployant autour d’eux un ensemble de macrosystèmes techniques.

    « Un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite » 
    Pour les entreprises, les véhicules dits autonomes participent pourtant de la « #mobilité_durable ». Leur argumentaire a largement été repris par le gouvernement : dans les « Neuf solutions de la nouvelle France industrielle » du président macron, les véhicules autonomes figurent en bonne place dans le volet « #mobilité_écologique ». Quels sont les arguments ? D’une part, l’interconnexion des véhicules et des infrastructures va réduire les embouteillages en permettant d’ajuster les itinéraires en temps réel. Ensuite, la conduite autonome, plus fluide, consommerait moins d’ #énergie. Surtout, le transport autonome serait porteur de la fameuse révolution de l’ #autopartage : on pourrait délaisser son véhicule personnel au profit des services de #robots-taxis en #covoiturage. Mais en analysant cette promesse, on constate qu’elle sert surtout à contrebalancer le principal problème que pose le transport autonome : le redoutable #effet_rebond, tel que les économies d’énergie procurées par une technique vont susciter l’augmentation de la consommation.

    Selon un rapport de Morgan Stanley, il paraît vraisemblable que les premiers véhicules autonomes opérationnels à grande échelle seront des #camions de transport routier. Ils seraient pilotés à distance sur des routes complexes et en conduite automatique sur autoroute ; ces camions pourraient circuler en convois, avec un seul chauffeur à la tête de plusieurs véhicules. Étant donné que la paie des chauffeurs représente environ 40 % du coût du transport, les grandes entreprises du secteur s’attendent à une baisse historique des prix, qui donnerait à la route un avantage certain par rapport au #ferroviaire [8]. Que ce soit pour du fret ou de la livraison, on aurait là une incitation à augmenter le nombre de marchandises en circulation, pour le plus grand profit des monopoles de la vente en ligne. Et comment les particuliers, les actifs surmenés par exemple, résisteraient-ils à la tentation de se faire livrer tout et n’importe quoi à domicile ?

    Selon ce même rapport, les véhicules autonomes pourraient concurrencer les transports en commun, d’une part en diminuant de deux tiers le coût d’un #taxi, d’autre part en rendant la voiture personnelle plus attractive : « Si l’automobile devient un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite, le consommateur pourrait échapper aux désagréments des transports publics en optant pour la “conduite” d’un véhicule autonome personnel. » La voiture autonome renforcerait ainsi le phénomène de suburbanisation, rendant acceptable de vivre plus loin de son travail en permettant à beaucoup de commencer leur journée dès l’aube dans une sorte de bureau privatif mobile. Elle permettrait à de nouveaux usagers — enfants, personnes très âgées — de se déplacer facilement, ce qui augmenterait encore, comme l’a confirmé une étude de l’université de Leeds, le nombre de véhicules sur les routes [9]. En gros, concluent les chercheurs, à partir du moment où il ne sera plus nécessaire de toucher le volant, les effets négatifs se multiplieront.


    Un prototype de voiture sans chauffeur d’Uber à San Fransisco, en novembre 2016.

    « Au plan environnemental, la voiture autonome est a priori catastrophique, puisqu’elle va faciliter le recours à l’automobile », confirme Bertrand-Olivier Ducreux, du service transport et mobilités de l’Agence pour l’environnement et la maîtrise de l’énergie (Ademe). Ce service est notamment chargé de l’appel à projets « expérimentation du véhicule routier autonome » qui subventionne les entreprises du secteur via le plan d’investissement d’avenir. « La position de l’ #Ademe, c’est de tenter d’orienter les véhicules autonomes vers une mobilité vertueuse, en faisant en sorte qu’ils soient utilisés comme un service d’autopartage. L’idéal, pour nous, c’est une navette de six, huit places sans conducteur. » Par exemple, un véhicule Uber sans chauffeur qui viendrait chercher plusieurs clients effectuant des trajets semblables.

    « Une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers » 
    En admettant l’idée de confier l’avenir des transports collectifs à Uber et autres géants du net, la promotion de ces robots-taxis pourrait-elle suffire à enrayer ce qui ressemble à une étape de plus vers la #surconsommation ? Pour Thomas Le Gallic, chercheur en prospective au sein du laboratoire Ville Mobilité Transport, le pari est risqué. « Les études concluent que les véhicules autonomes pourraient aussi bien doubler que diviser par deux la consommation d’énergie associée à la mobilité des personnes. Mais l’augmentation semble plus probable, parce que les gens seront incités à faire des trajets plus longs. Pour moi, une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers. Mais ce n’est pas la tendance qui se dessine. »

    Ainsi, loin de l’étiquette « mobilité écologique » sous laquelle les pouvoirs publics investissent dans les véhicules autonomes, il faudrait inverser le constat : pour que cette innovation ne soit pas catastrophique, il faudrait une politique extrêmement volontariste.

    Cela impliquerait que le gouvernement, de manière assez invraisemblable, décide de rendre la voiture personnelle prohibitive pour la remplacer par une ambitieuse politique de transports publics et de navettes. Est-ce vraiment le projet ? L’État prévoit-il de se donner les moyens de limiter drastiquement les ventes des constructeurs automobiles ? Est-ce vraiment ce qu’Emmanuel Macron avait en tête, lors de son discours de mars 2018 sur l’ #intelligence_artificielle, quand il déclarait vouloir mener la « bataille essentielle » de la voiture autonome parce que « la #France est une grande nation automobile, et nous y avons notre rôle historique » ?

    En mai 2018, l’État avait déjà dépensé près de 200 millions d’euros pour subventionner la #recherche en véhicules autonomes [10]. C’est sans commune mesure avec ce que pourrait ensuite coûter la mise en œuvre de la 5G, la refonte des infrastructures routières, les mesures de #cybersécurité, soit les investissements publics colossaux nécessaires à leur déploiement, auxquels il faut ajouter le coût social de la mise au chômage de plusieurs centaines de milliers de chauffeurs professionnels.

    Si l’objectif est de mener la « révolution de l’autopartage » et d’en finir avec la voiture personnelle, a-t-on besoin des véhicules autonomes ? Ces investissements ne pourraient-ils pas tout aussi bien servir à mener une aussi ambitieuse politique de transports collectifs avec conducteurs en finançant les trains, les bus et les navettes que réclament les habitants des campagnes et de la France périurbaine pour délaisser leur voiture personnelle ?

    Notes
    [1] « Minerals Drive the Auto Industry », American Mining Association, 10/02/14.
    [2] Cf. Revue Z, n° 12, « Trésors et conquêtes », Agone, 2018.
    [3] « Just one autonomous car will use 4000 GB of data per day », Network World, 7/12/16.
    [4] « Quand le stockage de données consommera plus d’énergie que le monde n’en produit », L’Usine nouvelle, 29/06/18.
    [5] « To Make Self-Driving Cars Safe, We Also Need Better Roads and Infrastructure », 14/08/18.
    [6] « Réinventer la mobilité urbaine et périurbaine à l’horizon 2030 », novembre 2017. Le Boston Consulting Group est une émanation du Forum économique mondial financé par 1.000 multinationales réalisant un chiffre d’affaires supérieur à 3 milliards d’euros.
    [7] « L’idéologie sociale de la bagnole », Le Sauvage, automne 1973.
    [8] Blue Paper on Autonomous Cars, 2013.
    [9] « Self-driving Cars : Will They Reduce Energy Use ? », University of Leeds, 2016 ; « Will Self-driving Cars Be Good or Bad for the Planet ? », geekwire.com, 25/02/16.
    [10] Développement des véhicules autonomes : orientations stratégiques pour l’action publique, mai 2018.

  • Joel Burgess sur Twitter :

    Among Skyrim players, you’ll occasionally see this tip: if you see a wild fox, follow it and you’ll be led to treasure.

    Sometime shortly after shipping, we saw this going around online, and an informal investigation started. Who made foxes do this?!

    https://twitter.com/JoelBurgess/status/1428008043556622336

    Des joueurs ont découvert que suivre les renards dans le jeu vidéo Skyrim permettait de découvrir des trésors. Or, personne au sein de l’équipe de développement n’avouait avoir codé un tel comportement. Un fil Twitter sur le gameplay émergeant spontanément des règles du jeu édictées pour d’autres raisons.

    #jeux_vidéo #jeu_vidéo #jeu_vidéo_skyrim #jeu_vidéo_pnj_renard #jeu_vidéo_npc #jeu_vidéo_développement #jeu_vidéo_gameplay #jeu_vidéo_jouabilité #gameplay #jouabilité #gameplay_émergeant #jeu_vidéo_gameplay_émergeant #ai #ia #intelligence_artificielle

  • Data et nouvelles technologies, la face cachée du contrôle des mobilités

    Dans un rapport de juillet 2020, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle (#EU-Lisa) présente l’#intelligence_artificielle (#IA) comme l’une des « #technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

    L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme #Frontex ou EU-Lisa, ont été particulièrement actives dans l’expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de #surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

    La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

    http://migreurop.org/article3021.html

    Pour télécharger la note :
    migreurop.org/IMG/pdf/note_12_fr.pdf

    #migrations #réfugiés #asile #frontières #mobilité #mobilités #données #technologie #nouvelles_technologies #coronavirus #covid #IOM
    #migreurop

    ping @etraces

    voir aussi :
    Migreurop | Data : la face cachée du contrôle des mobilités
    https://seenthis.net/messages/900232

    • European funds for African IDs: migration regulation tool or privacy risk?

      The first person you meet after you land at Blaise Diagne Airport in Dakar is a border guard with a digital scanner.

      The official will scan your travel document and photograph and take a digital print of your index fingers.

      It’s the most visible sign of the new state-of-the-art digital biometrics system that is being deployed in the airport with the help of EU funding.

      The aim is to combat the increasingly sophisticated fake passports sold by traffickers to refugees.

      But it also helps Senegal’s government learn more about its own citizens.

      And it’s not just here: countries across West Africa are adopting travel documentation that has long been familiar to Europeans.

      Passports, ID cards and visas are all becoming biometric, and a national enrolment scheme is underway.

      In Europe too, there are proposals to create a biometric database of over 400 million foreign nationals, including fingerprints and photographs of their faces.

      The new systems are part of efforts to battle illegal migration from West Africa to the EU.

      ‘Fool-proof’ EU passport online

      Many are still plying the dangerous route across the Sahara and the Mediterranean to reach Europe, but a growing number are turning to the criminal gangs selling forged passports to avoid the treacherous journey over desert and sea.

      There’s a burgeoning market in travel documents advertised as ‘fake but real”.

      Prices vary according to the paperwork: an EU Schengen transit visa costs €5,000, while a longer-stay visa can be twice as high.

      Some forgers have even mastered the ability to incorporate holograms and hack the biometric chips.

      “Morphing” is an image processing technique that merges two people’s photographs into a single new face that appears to contain entirely new biometric data.

      Frontex, the EU’s border guard agency, says 7,000 people were caught trying to enter the Schengen area in 2019 carrying such documents — but it admits the true figure could be much higher.

      Sending migrants back

      Last year, the largest number of travellers with fake documents arrived via Turkish and Moroccan international airports.

      Many were caught in Italy, having arrived via Casablanca from sub-Saharan countries like Ghana, Mali, Nigeria and Senegal.

      A Frontex team responsible for deporting migrants without the correct paperwork was deployed this year at Rome’s Fiumicino Airport.

      It’s the first sign of a new European Commission regulation expanding the agency’s role, which includes access to biometric data held by member states, according to Jane Kilpatrick, a researcher at the civil liberties think-tank Statewatch.

      “The agency’s growing role in the collection of data, it links overtly to the agency’s role in deporting individuals from the EU,” she said.

      Over 490,000 return decisions were issued by member states last year, but only a third were actually sent back to a country outside the EU.

      There are multiple reasons why: some countries, for example, refuse to accept responsibility for people whose identity documents were lost, destroyed or stolen.

      Legally binding readmission agreements are now in place between the EU and 18 other countries to make that process easier.
      There are no records

      But a bigger problem is the fact that many African countries know very little about their own citizens.

      The World Bank estimates the continent is home to roughly half of the estimated one billion people on the planet who are unable to prove their identities.

      An absence of digitisation means that dusty registers are piling up in storage rooms.

      The same goes for many borders: unlike the scene at Dakar’s airport, many are still without internet access, servers, scanners and cameras.

      That, the Commission says, is why EU aid funds are being used to develop biometric identity systems in West African countries.

      The EU Trust Fund for Africa has allotted €60 million to support governments in Senegal and Côte d’Ivoire in modernising their registry systems and creating a national biometric identity database.

      Much of the funding comes through Civipol, a consulting firm attached to France’s interior ministry and part-owned by Milipol, one of the most important arms trade fairs in the world.

      It describes the objective of the programme in Côte d’Ivoire as identifying “people genuinely of Ivorian nationality and organising their return more easily”.
      Data security concerns

      European sources told Euronews that the EU-funded projects in West Africa were not designed to identify potential migrants or deport existing ones.

      A Commission spokesperson insisted no European entity — neither Frontex, nor member states, nor their partners — had access to the databases set up by West African countries.

      But the systems they are funding are intimately connected to anti-migration initiatives.

      One is the Migrant Information and Data Analysis System (MIDAS), a migration database that can send automatic queries to Interpol watchlists to detect travel documents and people possibly linked to organised crime, including human trafficking.

      Connections like these, and the role of French arms giants like Thales in the growing biometric market, has led data protection experts to become worried about possible abuses of privacy.
      World’s newest biometric market

      As Africa becomes the coveted market for biometric identification providers, the watchdog Privacy International has warned it risks becoming a mere testing ground for technologies later deployed elsewhere.

      So far 24 countries on the continent out of 53 have adopted laws and regulations to protect personal data.

      A letter by Privacy International, seen by Euronews, says EU must “ensure they are protecting rights before proceeding with allocating resources and technologies which, in absence of proper oversight, will likely result in fundamental rights abuses.”

      It has published internal documents tracking the development of Senegal’s system that suggest no privacy or data protection impact assessments have been carried out.

      Civipol, the French partner, denies this: it told Euronews that the Senegalese Personal Data Commission took part in the programme and Senegalese law was respected at every stage.

      Yet members of Senegal’s independent Commission of Personal Data (CDP), which is responsible for ensuring personal data is processed correctly, admit implementation and enforcement remained a challenge — even though they are proud of their country’s pioneering role in data governance in Africa.

      For the Senegalese cyber activist Cheick Fall, the charge is more serious: “Senegal has sinned by entrusting the processing of these data to foreign companies.”

      https://www.euronews.com/2021/07/30/european-funds-for-african-ids-migration-regulation-tool-or-privacy-risk

      #biométrie #aéroport #Afrique #étrangers #base_de_données_biométrique #empreintes_digitales #passeports #visas #hologramme #Morphing #image #photographie #Frontex #EU_Trust_Fund_for_Africa #Trust_Fund #Civipol #Milipol #armes #commerce_d'armes #Côte_d’Ivoire #Afrique_de_l'Ouest #Migrant_Information_and_Data_Analysis_System (#MIDAS) #Interpol #Thales #Sénégal #Senegalese_Personal_Data_Commission #Commission_of_Personal_Data (#CDP)

  • Siri, l’assistant vocal d’Apple ? C’est une taupe !
    https://www.telerama.fr/debats-reportages/siri-lassistant-vocal-dapple-cest-une-taupe-6822626.php

    En Irlande, des sous-traitants d’Apple sont chargés de retranscrire nos conversations privées via l’assistant vocal Siri, implantée dans nos téléphones. Et tout cela, en toute impunité. L’une de ces “petites oreilles”, Thomas Le Bonniec, lance l’alerte.

    Le son existe-t-il sans oreilles pour l’entendre ? Au troisième millénaire, nous parlons de plus en plus à nos appareils quotidiens. Pour leur dicter, d’une injonction de la voix, une liste de courses ou pour leur demander la météo du jour. Où s’agglomèrent ces petites grappes de mots, s’il n’y a pas d’ouïe pour recevoir notre parole ? Thomas Le Bonniec le sait : pendant quelques mois, il a été à l’autre bout du fil, chargé de prêter attention à la vie des autres. « Je ne suis pas la Stasi, jure-t-il. Apple, en revanche… » Très officiellement, Siri, l’assistant vocal maison, est « une entité non humaine dont le rôle est d’aider les individus à accomplir des tâches avec aisance, efficacité et plaisir ». Plus prosaïquement, c’est une intelligence artificielle, perfectible, qu’il faut nourrir et entraîner. Manuellement. Grâce à des individus dotés d’un libre arbitre, capables de dire non. Comme Thomas Le Bonniec

    #Intelligence_artificielle #Vie_privée #transcription #Assistant_vocal #Siri #surveillance

  • Une toute nouvelle Tesla « Plaid » prend feu avec le conducteur au volant

    Une toute nouvelle Tesla Model S « Plaid » a pris feu en Pennsylvanie aux Etats-Unis, avec son conducteur au volant, lequel a eu du mal à sortir du véhicule, selon les autorités et les avocats de l’automobiliste. L’accident s’est passé mardi soir à Haverford, non loin de Philadelphie, ont détaillé dans un communiqué vendredi les pompiers de Lower Merion.

    « En raison de l’ampleur du feu et du type de véhicule impliqué » , plusieurs compagnies ont été dépêchées sur place, ont précisé les pompiers qui ont dû arroser la voiture pendant plus de deux heures pour éteindre l’incendie. Selon des avocats affirmant représenter le conducteur, ce dernier était au volant lorsque le véhicule s’est spontanément embrasé. Il a temporairement été coincé à l’intérieur avant de pouvoir en sortir. L’essentiel de la carrosserie et de l’intérieur du véhicule ont brûlé, montrent des photos postées sur le site des pompiers. . . . . . . .

    Dans un message transmis à l’AFP, Mark Geragos du cabinet Geragos & Geragos, qui dit représenter le conducteur, a estimé qu’il s’agissait d’une situation « effrayante » et « d’un problème majeur évident ».

    La suite : https://www.rtbf.be/info/monde/detail_une-toute-nouvelle-tesla-plaid-prend-feu-avec-le-conducteur-au-volant?id
    #tesla #piege_à_cons #elon_musk #baudruche #Actualités_High-Tech #High_Tech #voiture_électrique #IA #algorithme #intelligence_artificielle #technologisme

  • Polluer avec Elon Musk et les « mineurs » de bitcoin chinois Philippe Mabille

    Ne dites plus « je spécule sur les cryptos » mais « je pollue avec Elon Musk dans une « mine » à charbon chinoise ». Depuis que le fondateur de Tesla s’est rendu compte que sa proposition de payer sa voiture électrique en bitcoin avait un bilan carbone désastreux, rien ne va plus pour la monnaie digitale. Coup de com’ du trublion ou, comme l’affirme dans notre interview un expert acquis à la cause, les conséquences des « pressions » menées par les anti-bitcoins ? Preuve, s’il en est, que le bitcoin, qui représente déjà la consommation énergétique de l’Italie, devient un problème macro et politique.

    Que s’est-il passé entre le 24 mars, lorsque le fantasque milliardaire a lancé sur Twitter son « you can now buy a Tesla with bitcoin » et son changement de pied de cette semaine ? Réponse : 1 milliard de dollars de gains sur son investissement de 1,5 milliard dans la crypto-vedette et surtout une volée de bois, vert évidemment, de la part de quelques détracteurs qui ont fait les comptes : comme le mix énergétique en Chine utilise principalement des centrales à charbon, il y a là de quoi remettre en cause la lutte contre le réchauffement de la planète. Tout cela en quelques clics... . . .

    La suite : https://www.latribune.fr/opinions/editos/polluer-avec-elon-musk-et-les-mineurs-de-bitcoin-chinois-884652.html

    #tesla #elon_musk #électricité #énergie #spacex #bitcoin #espace #silicon_valley #intelligence_artificielle #voiture_électrique #en_vedette #technologisme #automobile #capitalisme #transhumanisme #technologie #énergie #ia

  • A Lille, des locataires essuient les plâtres d’un bailleur public 100 % Internet Nicolas Lee - mediacites

    La révolution numérique vire parfois au cauchemar. Dans un immeuble neuf mais truffé de défauts, des locataires de CDC Habitat sont confrontés à un service client entièrement dématérialisé capable de rester plusieurs semaines aux abonnés absents.

    Moisissures sur les murs, dégâts des eaux, prises électriques défectueuses, système de ventilation inopérant… le bâtiment B du 291 boulevard Victor Hugo à Lille a beau être flambant neuf, les problèmes n’ont cessé de s’accumuler depuis son inauguration en décembre 2020. « On ne pensait pas avoir autant de soucis », souffle Fostine, jeune salariée en communication arrivée avec son compagnon parmi les premiers locataires.


    Depuis le boulevard Victor Hugo à Lille, le bâtiment flambant neuf de CDC Habitat. Photo : Nicolas Lee

    Sur les 32 logements de l’immeuble, au moins 10 occupants rapportent des imperfections et des défaillances dans leur foyer. Ce n’est pas la seule galère qu’ils partagent. Tous sont confrontés au même dialogue impossible avec leur bailleur : la Caisse des Dépôts et Consignations Habitat (CDC Habitat). Et à l’obligation de passer par un service client 100 % web.

    « Sans faille côté client »
    
Cela fait maintenant trois ans, en 2017, que l’entreprise publique, plus gros bailleur de France, a pris le tournant de la dématérialisation totale de ses relations avec les locataires. Une décision qui concerne quelque 500 000 logements.« Sans faille côté client », assure Tristant d’Inguimbert, le directeur délégué du service client. De l’entretien qui évalue l’éligibilité à la location jusqu’à la signature du bail sur une tablette numérique, en passant par la communication avec le bailleur après l’emménagement : tout se passe par internet.

    Fostine a trouvé la procédure de location dématérialisée plutôt efficace : « Là-dessus, j’ai rien à redire », reconnaît-elle. Mais les ennuis commencent lorsqu’elle remarque une fuite d’eau importante dans la salle de bain. La jeune locataire contacte alors le bailleur sur l’application « CDC Habitat et moi ». Quelques jours sont nécessaires . . .

    La suite payante : https://www.mediacites.fr/decryptage/lille/2021/04/30/a-lille-des-locataires-essuient-les-platres-dun-bailleur-public-100-inter

     #ia #algorithme #révolution_numérique #intelligence_artificielle #technologisme #bigdata #bêtise #CDC_Habitat #cauchemar #immobilier #dématérialisation #sevice_client #locataire #logement #internet #Lille #PS

  • Le comité d’#éthique de la #défense publie son rapport sur l’intégration de l’#autonomie des #systèmes_d’armes_létaux
    http://lignesdedefense.blogs.ouest-france.fr/archive/2021/04/29/le-comite-d-ethique-de-la-defense-publie-son-rapp

    La France s’est dotée en 2019 d’un comité d’éthique de la défense (il a été officiellement installé le 10 janvier 2020) structure de réflexion permanente sur les enjeux éthiques des nouvelles technologies dans le domaine de la défense.

    Après la publication de ses premiers travaux sur le soldat augmenté, le comité d’éthique de la défense vient de remettre son avis sur l’intégration de l’autonomie dans les systèmes d’armes létaux. Ce rapport est consultable ici [https://dicod.hosting.augure.com/Augure_Dicod/r/ContenuEnLigne/Download?id=C45E2746-B009-4043-B390-2F82B89F590C&filename=Comi

    Pour résumer : l’humain reste au cœur des décisions d’usage de la force létale.

    La ministre des #Armées s’exprimera sur cet avis indépendant rendu par le comité d’éthique de la défense, lorsque ses conclusions auront fait l’objet d’études d’appropriation au sein des services du ministère.

    La question de l’intégration de l’autonomie dans les systèmes d’armes létaux avait été choisi par le ministère des Armées, conscient de la mesure des enjeux stratégiques, juridiques et éthiques soulevés par le développement des applications militaires de l’#Intelligence_artificielle (IA), et en particulier par l’émergence potentielle de Systèmes d’armes létaux pleinement autonomes (SALA).

    Les conclusions du comité d’éthique de la défense confortent sans surprise les positions prises par la France depuis plusieurs années sur le sujet des SALA : la France confirme qu’elle ne développera et n’emploiera pas de systèmes d’armes létaux pleinement autonomes.

    Le rapport s’attache à identifier ce que recouvre la notion d’autonomie et présente avec pédagogie les définitions existantes. Au terme de cette analyse, le comité a choisi d’établir une stricte distinction entre les SALA et les Systèmes d’armes létaux intégrant de l’autonomie (SALIA) mais incapables d’agir seuls, sans contrôle humain, de modifier leurs règles d’engagement et de prendre des initiatives létales.

    Les SALIA (systèmes d’armes létaux intégrant de l’autonomie), comme le précise le ministère, sont des systèmes comportant des fonctions automatisées, mais sous contrôle humain, dans des conditions qui garantissent :
    – le respect du principe constitutionnel de nécessaire libre disposition de la force armée,
    – le respect du principe de continuité de la chaîne de commandement de l’ordre à son application,
    – le respect des principes du #droit_international humanitaire.

    Un SALIA ne pourrait prendre d’initiatives létales sans contrôle humain. Il ne pourrait pas modifier seul ses conditions de fonctionnement.

    #armement

  • En Californie, accident mortel avec une Tesla apparemment sans conducteur
    https://www.rts.ch/info/monde/12133551-en-californie-accident-mortel-avec-une-tesla-apparemment-sans-conducteu

    Deux hommes sont morts au Texas dans l’accident d’une Tesla à bord de laquelle il n’y avait apparemment personne derrière le volant, ont indiqué dimanche le Wall Street Journal et la chaîne de télévision locale KPRC2.
    Le véhicule roulait à vive allure quand il s’est écrasé samedi soir contre un arbre et a pris feu, selon ces médias. Les autorités n’ont retrouvé que deux individus, l’un à la place du passager et l’autre sur le siège arrière.

    https://www.rts.ch/2021/04/19/04/13/12133544.image?w=1280&h=720
    « Les premiers éléments de l’enquête, qui n’est pas encore terminée, montrent qu’il n’y avait personne au volant du véhicule », a indiqué un responsable de la police du comté de Harris, Mark Herman, au Wall Street Journal.

    Ils n’avaient pas encore déterminé dimanche si l’airbag du siège du conducteur s’était déployé et si le système d’assistance à la conduite du véhicule était enclenché au moment de la collision.

    Un véhicule pas encore autonome, selon Tesla
    Sur son site internet, Tesla prévient que les systèmes d’assistance à la conduite qu’ils proposent ne rendent pas le véhicule autonome et que la supervision active d’un conducteur reste nécessaire.

    Mais des vidéos montrent régulièrement des Tesla avec des conducteurs endormis ou sans les mains sur le volant pendant un temps prolongé.
    ats/ther
    #tesla #piege_à_cons #elon_musk #baudruche #Actualités_High-Tech #High_Tech #voiture_électrique #IA #algorithme #intelligence_artificielle #technologisme

    • Les géants du numérique nous prennent-ils pour des idiots ? Anouch Seydtaghia

      Deux Américains sont morts dans l’accident d’une Tesla Model S au Texas. D’après les forces de police, il n’y avait personne au volant au moment des faits. Sommes-nous devenus naïfs face à la technologie ou est-ce la faute des géants de la tech ?

      Un accident mortel lors duquel personne ne conduisait la Tesla Model S, semble-t-il. La voiture est sortie de la route et a heurté un arbre avant de prendre feu. Dans un tweet publié le 18 avril toutefois, le PDG de Tesla, Elon Musk, est formel. Selon lui, l’Autopilot n’était pas en marche au moment de l’accident et il assure que le « Full-Driving System » n’avait pas été acheté pour ce véhicule.

      Est-ce de la faute de Tesla, qui joue sans cesse avec les mots en affirmant que ses voitures sont presque autonomes ? Ou est-ce la faute des occupants du véhicule, qui ont mis leur destin entre les mains d’une technologie non aboutie ?

      Même si ce type d’accident est extrêmement rare, il met en lumière certaines de nos faiblesses, dont celle de trop faire confiance à la technologie.

      Reconnaissance vocale
      Aujourd’hui, les systèmes de reconnaissance vocale sur smartphone font des merveilles. Nous passons de plus en plus de temps, dans les voitures, à dicter nos messages en roulant. Même si nous gardons les yeux sur la route, c’est une source de distraction.
      Plus la technologie évolue, plus la tentation d’aller plus loin est grande, comme de participer à une vidéoconférence depuis son véhicule. Il semblerait que certains installent leur téléphone sur le tableau de bord, ce qui est un comportement illégal et irresponsable.
      Quand les services sont performants et la qualité de connexion puissante, il est difficile, pour certains, de résister à l’envie de pousser de nouvelles limites, quitte à adopter des comportements dangereux.

      Lève la tête avec Google
      Certains géants du numérique pensent alors que les utilisateurs ont besoin d’une application pour que notre téléphone nous enjoigne à regarder autour de nous dans l’espace public. C’est ce qu’estime Google avec l’application « Heads up » qui incitera à regarder devant nous si un mouvement de marche est détecté par le téléphone. Pour l’instant, cette fonctionnalité n‘est disponible que sur les smartphones Pixel de Google.

      En d’autres mots, la société qui nous a rendu accro aux smartphones nous fournit un outil pour éviter de se cogner contre un lampadaire.

      Bien sûr, la technologie permet d’accomplir des choses extraordinaires, mais il faudrait évaluer ce que la technologie nous apporte concrètement, sans « avaler » toutes les innovations comme des moutons. Il est temps d’être un peu plus critique, un peu plus responsable et surtout… un peu moins connecté.

      Source : https://www.rts.ch/info/culture/12152127-les-geants-du-numerique-nous-prennentils-pour-des-idiots.html

  • Les méthodes douteuses des firmes de renseignement privées israéliennes exposées
    https://fr.timesofisrael.com/les-methodes-douteuses-des-firmes-de-renseignement-privees-israeli

    Selon un reportage, une agence de renseignements aurait usurpé l’identité de journalistes, soulevant des questions sur la régulation et les limites de l’industrie

    Un reportage a accusé, la semaine dernière, une firme israélienne des renseignements d’avoir usurpé l’identité de journalistes pour obtenir de manière illicite des informations d’opposants à un membre de la famille royale émiratie – mettant en lumière ces entreprises israéliennes de cyber-renseignements qui acceptent de travailler pour des régimes totalitaires.

    Une enquête du Times of Israël a révélé que le propriétaire de la firme en question, Bluehawk CI, a été traduit devant la justice au sein de l’État juif, dans le passé, et notamment pour fraude. Le ministère de la Défense a choisi de ne pas répondre à une requête de commentaire du Times of Israël concernant la raison pour laquelle il n’avait pas été amené à réguler les activités menées par la firme à l’étranger.

    Selon un reportage paru le 6 avril sur le site du Daily Beast , des individus qui avaient prétendu, début 2020, être journaliste pour Fox News et reporter pour le journal italien La Stampa avaient approché deux hommes qui s’opposaient aux autorités de Ras Al Khaimah, l’un des sept émirats constituant les Émirats arabes unis (EAU). Selon le Daily Beast , les deux individus qui avaient usurpé l’identité des deux journalistes avaient tenté d’extraire des informations aux deux hommes concernant leurs conflits judiciaires respectifs avec l’émirat.

    L’article publié sur le site souligne comment Israël, ces dernières années, a fait naître une industrie de firmes d’espionnage privées qui, de toute évidence, ne sont pas régulées – avec certains officiers militaires israéliens qui offrent au secteur privé les compétences qu’ils ont acquises dans les unités de renseignement secrètes, vendant souvent leur savoir-faire à des personnalités douteuses ou à des régimes autoritaires.

    Le Daily Beast aurait réussi à établir l’identité de la firme privée de renseignement en contactant Facebook, qui a révélé que les comptes utilisés par les deux journalistes présumés étaient associés à Bluehawk CI.

    Bluehawk CI s’est refusé, de son côté, à tout commentaire.

    Un porte-parole du ministère de la Défense a noté que Bluehawk CI n’apparaissait pas sur sa liste de vendeurs approuvés, mais il n’a pas répondu à une question de suivi sur le rôle présumé du ministère en termes de régulation initiale des initiatives de l’entreprise.

    Selon la loi sur le contrôle des exportations, tout exportateur d’équipements de défense ou de savoir-faire particulier, dans le secteur, doit d’abord s’inscrire et recevoir une autorisation de la part de l’Agence de contrôle des exportations de la Défense au sein de l’État juif.

    Bluehawk CI est l’une des firmes de renseignement privées les moins connues dans le pays. Fondée en juin 2018, elle offre des solutions dans les domaines de la cybertechnologie et des renseignements, notamment dans la « gestion du génie social et de la campagne de relations publiques » et dans les « enquêtes de renseignement complexes », selon son site internet.

    La compagnie a été fondée par Guy Klisman, ancien major au sein de Tsahal – elle lui appartient encore aujourd’hui. Klisman est aussi directeur académique de l’Institut d’innovation Pafos à Chypre, un institut d’études en cybersécurité fondé par Uriel Reichman, professeur de droit à la tête de l’Institut interdisciplinaire de Herzliya. La compagnie de Klisman, Bluehawk CI, est l’un des sponsors de l’équipe de basket du Hapoel Tel Aviv.

    Des documents judiciaires révèlent qu’avant de fonder l’entreprise, Klisman a été mis en examen à deux reprises par les procureurs israéliens – une fois pour contrefaçon et une autre pour répondre de multiples débits non-autorisés réalisés sur la carte de crédit de l’une de ses connaissances. Il a plaidé coupable dans le premier dossier. La mise en examen a finalement été annulée dans le second.

    https://www.youtube.com/watch?v=XifQHRaSWdQ&feature=emb_imp_woyt

    Selon le Daily Beast , au mois de février 2020, une personne prétendant s’appeler « Samantha », journaliste de Fox News, a contacté un homme nommé Oussama El Omari par courriel. El Omari est l’ancien directeur-général de l’Autorité chargée de la zone de libre-échange de Ras Al Khaimah. Il a été condamné par contumace aux Émirats arabes unis pour « détournement de fonds et abus de pouvoir » suite à une bataille de succession à Ras Al Khaimah. El Omari, pour sa part, a dénoncé des inculpations purement politiques.

    « Samantha » aurait tenté d’obtenir des informations sur ses affaires judiciaires l’opposant à Ras Al Khaimah. Contacté par le Daily Beast , Facebook aurait déclaré à ce dernier que le compte de « Samantha » était lié à Bluehawk CI.

    Selon le site d’information, un autre utilisateur de Facebook prétendant être un journaliste pour La Stampa , un journal italien, a contacté Khater Massaad, autre adversaire du régime actuel de Ras Al Khaimah. Massaad était à la tête du fonds souverain de Ras Al Khaimah, RAKIA, jusqu’en 2021. Il a été condamné par une cour émiratie en 2015 pour détournement de fonds au sein de RAKIA, des accusations qui, selon Massaad, étaient tronquées et politiquement motivées.

    Le faux journaliste, que Facebook a lié à Bluehawk CI, a de la même façon tenté d’extraire des informations sur sa relation avec les gouvernants de Ras Al Khaimah, a fait savoir le Daily Beast .

    « Coût de la vie élevé »
    La normalisation récente des liens entre Israël et les Émirats arabes unis a été une aubaine pour les entreprises de renseignement et de cybersécurité, avec des entreprises comme NSO Group, spécialisée dans le hacking téléphonique, Synaptech Capital, spécialisée dans le capital-risque, et Cellebrite, qui ont toutes conclu des accords lucratifs dans ces émirats du désert.

    La cybersécurité est l’un des premiers secteurs technologiques en Israël en terme d’investissements récoltés, selon l’Autorité de l’innovation israélienne.

    Pour Bluehawk CI, travailler aux EAU a pu être une source de liquidités désespérément nécessaire.

    En 2015, avant de fonder Blackhawk CI, Klisman et son épouse – ils ont depuis divorcé – ont déclaré leur faillite devant les tribunaux israéliens. Le couple était endetté à hauteur de centaines de milliers de shekels, dettes qu’ils avaient attribuées au « coût de la vie élevé » au sein de l’État juif.

    Israël est l’un des pays les plus chers au monde. Tel Aviv a récemment intégré la cinquième place des villes les plus chères sur le globe.

    En 2016, les procureurs israéliens ont mis en examen Klisman pour avoir contrefait des documents judiciaires et des assignations de huissiers de justice pour tenter d’empêcher l’armée israélienne de saisir son salaire pour payer des créditeurs. Un juge l’a reconnu coupable, mais il n’a pas été officiellement condamné et a dû effectuer 250 heures de service communautaire. Klisman s’est retiré de Tsahal à la fin de l’année 2017 et a fondé son entreprise six mois plus tard.

    Au mois de janvier 2018, Klisman a été accusé par la police des fraudes d’avoir utilisé la carte de crédit d’une femme rencontrée via un groupe WhatsApp consacré au tennis pour procéder à des achats non-autorisés à hauteur de 1 577 shekels. Une année plus tard, le gouvernement a retiré cette mise en examen.

    Klisman n’a pas donné suite à une requête de commentaire de la part du Times of Israël .

    Tandis que la personnalité qui a eu recours aux services de Bluehawk reste indéterminée, Radha Stirling, directeur-général de Detained à Dubaï – une entreprise qui représente des clients dans des conflits juridiques avec les gouvernements aux EAU – a la certitude qu’il s’agit bien du gouvernement de Ras Al Khaimah.

    « C’est monstrueux », a déclaré Stirling dans un communiqué de presse.

    « En confiant par contrat une mission d’espionnage à une firme privée, le gouvernement de Ras Al Khaimah tente d’échapper à la responsabilité de devoir rendre des comptes pour espionner des ressortissants étrangers en-dehors de sa juridiction – mais c’est bien là une violation majeure. Les EAU et Israël doivent assumer leurs responsabilités », a-t-il ajouté.

    Où placer la ligne rouge de l’éthique ?
    Selon un rapport émis par la cyberadministration israélienne, fin 2018, Israël comptait 421 cyber-entreprises actives dont 7 % – soit une trentaine – sont spécialisées dans le « cyber-renseignement ».

    Elad Ratson, ex-diplomate israélien, qui est aussi le fondateur et le directeur-général de Vayehee, une compagnie qui utilise les technologies pour contrer les Fake-news , la désinformation venant de l’étranger ou ce qu’il qualifie « d’armes en ligne d’obstruction massive », a déclaré au Times of Israël qu’il pensait que ce nombre était supérieur, selon ses propres estimations.


    Elad Ratson. (Autorisation)

    La plus grande partie des firmes de cyber-renseignements israéliennes sont spécialisées dans l’OSINT, ou « renseignements open-source », a-t-il noté. « C’est un secteur d’expertise des services israéliens de renseignement. Il y a une forte quantité de données, en ligne, qui sont ouvertement disponibles et les services israéliens de renseignement sont connus pour leur usage efficace de l’apprentissage automatique et de l’intelligence artificielle et pour extraire des informations de qualité de cet océan de données. »

    La majorité des firmes israéliennes de renseignement se concentrent sur l’OSINT (Renseignement d’Origine Source Ouverte) passif, poursuit-il, en collectant des données qui sont largement disponibles.

    D’autres s’engagent toutefois également dans ce qu’il appelle « l’ingénierie de perception » ou la manipulation du point de vue d’une cible par le biais de méthodes appelées « duperie en ligne ». De telles firmes, affirme-t-il, peuvent souvent avoir mauvaise réputation en résultat de leurs activités. L’une des plus célèbres est Black Cube.

    Toutefois, Ratson estime que de nombreuses entreprises de cyber-renseignement se fixent des lignes rouges en termes d’éthique et qu’elles ne les franchissent pas.

    « Contrairement aux autres ministères en Israël, celui de la Défense a un bureau de régulation des exportations qui est fort. Les cyber-entreprises israéliennes font attention à ne pas travailler avec le ‘mauvais’ type de client et à ne pas se mettre, pour cela, dans une situation délicate vis-à-vis du ministère de la Défense », commente-t-il.

    Toutefois, la « tentation est élevée », ajoute Ratson. « Parfois, quand il y a beaucoup d’argent sur la table, certaines entreprises ont pu tenter de fermer un peu les yeux sur l’éthique. Et c’est là qu’on a pu voir apparaître, dans les médias, une couverture internationale négative concernant des firmes de cyber-renseignement israéliennes. »

    #Émirats_arabes_unis #EAU #israel #Tel_Aviv #espionnage #espionnage_privé #Bluehawk_CI #renseignement #cybertechnologie #cybersécurité #cyber-renseignement #Tsahal #fonds souverain #RAKIA #NSO_Group #hacking #Synaptech_Capital #Cellebrite #Detained #cyberadministration #cyber-entreprises actives #cyber-renseignement #Vayehee #Fake-news #cyber-renseignements #OSINT renseignements_open-source #IA #intelligence_artificielle #ingénierie_de_perception #duperie_en_ligne #Black_Cube #journalistes

  • The new lawsuit that shows facial recognition is officially a civil rights issue | MIT Technology Review
    https://www.technologyreview.com/2021/04/14/1022676/robert-williams-facial-recognition-lawsuit-aclu-detroit-police/?truid=a497ecb44646822921c70e7e051f7f1a

    Robert Williams, who was wrongfully arrested because of a faulty facial recognition match, is asking for the technology to be banned.

    The news: On January 9, 2020, Detroit Police wrongfully arrested a Black man named Robert Williams due to a bad match from their department’s facial recognition system. Two more instances of false arrests have since been made public. Both are also Black men, and both have taken legal action to try rectifying the situation. Now Williams is following in their path and going further—not only by suing the Detroit Police for his wrongful arrest, but by trying to get the technology banned.

    The details: On Tuesday, the ACLU and the University of Michigan Law School’s Civil Rights Litigation Initiative filed a lawsuit on behalf of Williams, alleging that his arrest violated Williams’s Fourth Amendment rights and was in defiance of Michigan’s civil rights law. The suit requests compensation, greater transparency about the use of facial recognition, and that the Detroit Police Department stop using all facial recognition technology, either directly or indirectly.

    The significance: Racism within American law enforcement makes the use of facial recognition, which has been proven to misidentify Black people at much higher rates, even more concerning.

    #Reconnaissance_faciale #Racisme #Droits_humains #Intelligence_artificielle

  • The Limits of Political Debate | The New Yorker
    https://www.newyorker.com/news/annals-of-populism/the-limits-of-political-debate

    In 2016, a debate champion was consulting on the project, and he noticed that, for all of its facility in extracting facts and claims, the machine just wasn’t thinking like a debater. Slonim recalled, “He told us, ‘For me, debating whether to ban prostitution, or whether to ban the sale of alcohol, this is the same debate. I’m going to use the same arguments. I’m just going to massage them a little bit.’ ” If you were arguing for banning prostitution or alcohol, you might point to the social corrosion of vice; if you were arguing against, you might warn of a black market. Slonim realized that there were a limited number of “types of argumentation,” and these were patterns that the machine would need to learn. How many? Dan Lahav, a computer scientist on the team who had also been a champion debater, estimated that there were between fifty and seventy types of argumentation that could be applied to just about every possible debate question. For I.B.M., that wasn’t so many. Slonim described the second phase of Project Debater’s education, which was somewhat handmade: Slonim’s experts wrote their own modular arguments, relying in part on the Stanford Encyclopedia of Philosophy and other texts. They were trying to train the machine to reason like a human.

    In February, 2019, the machine had its first major public debate, hosted by Intelligence Squared, in San Francisco. The opponent was Harish Natarajan, a thirty-one-year-old British economic consultant, who, a few years earlier, had been the runner-up in the World Universities Debating Championship. Before they appeared onstage, each contestant was given the topic and assigned a side, then allotted fifteen minutes to prepare: Project Debater would argue that preschools should be subsidized by the public, and Natarajan that they should not. Project Debater scrolled through LexisNexis, assembling evidence and categorizing it. Natarajan did nothing like that. (When we spoke, he recalled that his first thought was to wonder at the topic: Was subsidizing preschools actually controversial in the United States?) Natarajan was kept from seeing Project Debater in action before the test match, but he had been told that it had a database of four hundred million documents. “I was, like, ‘Oh, good God.’ So there was nothing I could do in multiple lifetimes to absorb that knowledge,” Natarajan told me. Instead, he would concede that Project Debater’s information was accurate and challenge its conclusions. “People will say that the facts speak for themselves, but in this day and age that is absolutely not true,” Natarajan told me. He was prepared to lay a subtle trap. The machine would be ready to argue yes, expecting Natarajan to argue no. Instead, he would say, “Yes, but . . .”

    The first time I watched the San Francisco debate, I thought that Natarajan won. He had taken the world that Project Debater described and tipped it on its side, so that the audience wondered whether the computer was looking at things from the right angle, and that seemed the decisive maneuver. In the room, the audience voted for the human, too: I.B.M. had beaten Kasparov, and beaten the human champions of “Jeopardy!,” but it had come up short against Harish Natarajan.

    But, when I watched the debate a second time, and then a third, I noticed that Natarajan had never really rebutted Project Debater’s basic argument, that preschool subsidies would pay for themselves and produce safer and more prosperous societies. When he tried to, he could be off the cuff to the point of ridiculousness: at one point, Natarajan argued that preschool could be “actively harmful” because it could force a preschooler to recognize that his peers were smarter than he was, which would cause “huge psychological damage.” By the end of my third viewing, it seemed to me that man and machine were not so much competing as demonstrating different ways of arguing. Project Debater was arguing about preschool. Natarajan was doing something at once more abstract and recognizable, because we see it all the time in Washington, and on the cable networks and in everyday life. He was making an argument about the nature of debate.

    #Débat #Politique #Intelligence_artificielle #Argumentation

  • European countries should lift the taboo on Afrophobia and start addressing this phenomenon
    https://www.youtube.com/watch?v=FKs5N0mq7A4&feature=emb_logo

    “Racism and racial discrimination against people of African descent remain a widespread yet unacknowledged problem in Europe. It is time to recognise it and take measures to combat Afrophobia more effectively”, said today the Council of Europe Commissioner for Human Rights, Dunja Mijatović, releasing a report on the topic ahead of the International Day for the Elimination of Racial Discrimination.

    The report is based on the discussions that the Commissioner held on 24 November 2020 with human rights defenders working on combating Afrophobia. It highlights that people of African descent continue to be exposed to particularly grave forms of racism and racial discrimination, including racial stereotyping, racist violence, racial profiling in policing and criminal justice, and practices which perpetuate social and economic inequalities.

    This situation is compounded by the prevailing denial of the problem and a lack of public debate on Afrophobia in Europe. Cases and patterns of human rights violations affecting people of African descent are not given adequate consideration, even when they are reliably attested.

    The report also points to the limited research and equality data, the insufficient efforts to address the legacy of colonialism and the slave trade, and the lack of educational and awareness-raising efforts that contribute to the invisibility of the problem.

    The Commissioner underlines the important work carried out by human rights defenders of African descent and NGOs working on combating Afrophobia. She regrets the threats to their lives and safety and the various forms of pressure they are subjected to, such as harassment and attacks in the media online and offline, as well as surveillance and censorship.

    Human rights activists of African descent are also regularly sanctioned for occupying the public space, for example in conducting demonstrations. They face a higher risk of being profiled by automated tools and there appears to be inadequate police protection and a lack of prosecution for attacks against human rights defenders, often carried out by right-wing extremist groups.

    “There is a wealth of international standards and guidelines underlying states’ obligations to combat racism and racial discrimination, paying particular attention to persons of African descent. Member states should implement them as a matter of urgency to reverse the situation”, said the Commissioner.

    She recommends making the fight against racism and racial discrimination a top priority and showing a clear commitment to addressing the legacy of colonialism and the slave trade. “There is a need to overcome the resistance to the acknowledgment of responsibility for these violations”, says the Commissioner. She also stresses the need to reflect historical slavery and the colonial past, as well as their present-day ramifications, in school curricula.

    The Commissioner also draws attention to the importance of taking steps to stamp out racial profiling and impunity for racist crimes committed by law enforcement agents; taking action against all forms of incitement to hatred against people of African descent and enhancing protection against hate crimes; strengthening measures to combat discrimination in access to education, employment, housing and health care, and ensuring that artificial intelligence systems do not discriminate.

    Lastly, the Commissioner stresses member states’ obligation to provide protection and support to human rights defenders working to combat Afrophobia, facilitating a safe and free environment for them to carry out their work without unnecessary or disproportionate legal, political or administrative obstacles. They must be given a voice in national policy and should have more opportunities for dialogue at regional level. “It is time that European countries face the roots and present forms of racism and discrimination and start building more inclusive societies”, concluded the Commissioner.

    https://www.coe.int/en/web/commissioner/-/european-countries-should-lift-the-taboo-on-afrophobia-and-start-addressing-thi
    #Afrophobie #discriminations #racisme #discriminations_raciales #conseil_de_l'Europe #Europe #rapport #droits_humains #stéréotypes #violence #violence_raciale #profilage_ethnique #inégalités #colonialisme #esclavage #invisibilisation #harcèlement #censure #surveillance #responsabilité #éduction #intelligence_artificielle #IA #AI

    Pour télécharger le rapport:


    https://rm.coe.int/combating-racism-and-racial-discrimination-against-people-of-african-d/1680a1c0b6

    ping @cede @isskein @_kg_ @karine4

  • Fear itself is the real threat to democracy, not tall tales of Chinese AI | Artificial intelligence (AI) | The Guardian
    https://www.theguardian.com/commentisfree/2021/mar/06/fear-itself-is-the-real-threat-to-democracy-not-tall-tales-of-chinese-a
    https://i.guim.co.uk/img/media/618c29133c23689c1d0f2b9438a245cd7189f119/728_1148_4260_2556/master/4260.jpg?width=1200&height=630&quality=85&auto=format&fit=crop&overlay-ali

    Pathological anxiety about China runs through the entire document like the words in a stick of Blackpool rock. “On a level playing field,” it burbles, “the United States is capable of out-innovating any competitor.” But apparently there is “a fundamental difference in the US and China’s approaches to AI innovation that puts American AI leadership in peril”. The playing field, it seems, is not level because US tech companies “are not instruments of state power”. Since “China is organised, resourced, and determined to win the technology competition”, the US approach has to change. What’s needed, apparently, is “a hybrid approach meshing government and private-sector efforts to win the technology competition”.

    Pause, for a moment, to extract the signal from this message. First, the gobbledegook about “AI” is in fact almost entirely about machine learning, a flaky technology that has an insatiable demand for detailed data about humans and their activities. The Chinese are ahead because their tech companies have to turn all their data over to the authorities; Americans are hobbled because, while their state can always get the data from the tech companies that hoover it up, sometimes it has to jump through legal hoops to get it. The “hybrid approach” that is deemed necessary involves “meshing” the US government with the country’s tech companies.

    Now what might that imply? You only have to ask the question to know the answer. If American tech giants are finally recognised as strategic partners of the US government in the coming existential hegemonic struggle with China, then Washington’s enthusiasm for curbing said monopolies will rapidly decrease. Indeed, this may already be happening, if an inspection of the number of tech-company insiders who have been recruited by Biden is anything to go by. And the argument made to the US Congress by, among others, Mark Zuckerberg – that shackling US tech giants will guarantee Chinese hegemony – will once again find a ready audience in Washington.

    #Chine #Nouvelle_guerre_froide #Intelligence_artificielle

  • Timnit Gebru was fired from Google — then the harassers arrived - The Verge
    https://www.theverge.com/22309962/timnit-gebru-google-harassment-campaign-jeff-dean

    TimnitTimnit Gebru had expected her colleagues to rally around her when she was abruptly fired from Google on December 2nd. She was a well-respected AI ethics researcher, her termination as controversial as it was sudden. What she hadn’t anticipated was becoming a catalyst for labor activism in Silicon Valley — or the subject of a harassment campaign that surfaced alongside her supporters.

    Her firing came weeks after Google managers asked her to retract a paper on the dangers of large language models, like the ones that power the company’s search engine. Gebru pushed back, saying the company needed to be more transparent about the publication process. Employees saw the termination as a blatant act of retaliation, and thousands of workers, researchers, and academics signed an open letter demanding an explanation.

    In early December, as media attention mounted and tech workers across the country came to her defense, Gebru waited to see how Google would respond. What is this company capable of? she asked herself. She didn’t have to wait long to find out.
    “Twitter enabled Gebru’s colleagues to stand up for her; it also made her vulnerable to a small but very active group of harassers”

    On December 4th, Jeff Dean, Google’s head of AI, published his views on Gebru’s dismissal. He said she had resigned — a fact she openly disputed — and that her paper hadn’t met the bar for publication. His words lay the groundwork for a very different type of campaign, one which used the groundswell of support surrounding Gebru’s firing as a stand-in for the ills of cancel culture. Twitter enabled Gebru’s colleagues to stand up for her; it also made her vulnerable to a small but very active group of harassers.

    Over the next two months, Pedro Domingos, a professor emeritus at the University of Washington, and Michael Lissack, a Wall Street whistleblower turned admitted harasser, promoted the narrative that Gebru’s work was “advocacy disguised as science.” They said she’d created a toxic environment at Google and was “obsessed with being a victim.” They wrote off her supporters as sycophants and “deranged activists.”

    On Twitter, the campaign gained momentum with the help of anonymous accounts. Gebru suspected they were sock puppets, fake profiles created for the sole purpose of harassment, since many had popped up around her firing. Some claimed to work in tech, using phrases like “pro-DEI minority,” “She/them,” and “LBGTQ Latinx” in their bios. When Emily M. Bender, a computational linguistics professor at the University of Washington and Gebru’s co-author on the paper, reported one of these accounts for harassment, Domingos implied she was being prejudiced.
    ““He enables these people, and gets to distance himself because he’s not the one saying ‘go back to Africa’””

    To Gebru, the harassment wouldn’t be possible without Jeff Dean, who stayed quiet about the campaign for months, despite being tagged in numerous posts. “He enables these people, and gets to distance himself because he’s not the one saying ‘go back to Africa,’” she says. “Pedro [Domingos] is smart enough not to say these types of things, too. They hide behind civility and enable the trolls. That’s how they get away with it.”

    #Timnit_Gebru #Cyberharcèlement #Ethique #Intelligence_artificielle

  • #Google. Deuxième chercheuse licenciée dans l’équipe « Éthique et #intelligence_artificielle »

    Deux mois après #Timmit_Gebru, c’est dont la responsable de l’équipe #Éthique_et_intelligence_artificielle que Google licencie. Elle avait dénoncé le licenciement de la chercheuse, mais plus généralement le déni des pratiques discriminatoires de l’entreprise.

    –-> dépêche AFP, enrichie, d’après France 24

    Les libertés académiques et la protection économique dûe aux chercheuses et aux chercheurs s’applique-t’elle dans les grandes firmes qui soutiennent des activités de recherche ? La question se pose avec le second licenciement opéré par Google dans son équipe Éthique et intelligence artificielle.

    #Margaret_Mitchell, qui a fondé l’équipe de recherche en éthique et intelligence artificielle de Google, a été « virée » (« I am fired »), a-t-elle annoncée vendredi sur Twitter, un mois après sa #suspension qui avait déjà valu des critiques au géant des technologies.

    « Après avoir passé en revue le comportement de cette directrice, nous avons confirmé qu’il y a eu de multiples infractions à notre #code_de_conduite, ainsi que de nos règlements sur la sécurité, y compris l’exfiltration de documents confidentiels sensibles et de données privées sur d’autres employés »,

    a déclaré un porte-parole du groupe californien à l’AFP.

    En janvier, Margaret Mitchell s’était vue refuser l’accès à son compte professionnel, quelques semaines après le renvoi d’un membre de son équipe, Timnit Gebru.

    « Ce sont des attaques contre les personnes qui essaient de rendre la technologie de Google plus #éthique »,

    avait réagi un porte-parole du #Alphabet_Workers_Union, le syndicat récemment formé par des employés du groupe.

    Google reproche à la chercheuse en éthique et intelligence artificielle d’avoir téléchargé un grand nombre de documents liés à son ancienne collègue et de les avoir ensuite partagés avec des personnes extérieures.

    Mais la société fait face à des critiques car Margaret Mitchell accuse l’entreprise de l’avoir forcée à se rétracter sur des résultats de recherche.

    Sous son tweet de vendredi – « j’ai été virée » – les messages de soutien abondaient.

    « J’imagine que ça veut dire que l’IA éthique n’a pas sa place dans une société capitaliste »,

    a commenté #Chelsea_Manning, l’ancienne analyste militaire qui a été condamnée pour trahison après avoir transmis des documents classés secret défense à WikiLeaks.

    Le 19 janvier, deux jours avant sa suspension, l’informaticienne avait critiqué publiquement le directeur exécutif du groupe, #Sundar_Pichai, sur le thème du racisme.

    « Disons que vous avez un problème parce que vous n’arrêtez pas de vous aliéner les femmes noires et que vous leur causez des torts importants »,

    avait-elle tweeté au-dessus d’un lien vers un article de CNN intitulé « Le patron de Google rencontre des dirigeants d’universités noires après des accusations de #racisme ».

    « Vous pouvez : A) essayer de réparer vos torts B) essayer de trouver plus de personnes noires pour vous apprécier (l’approche symbolique et superficielle). Bonne chance… ».

    En décembre, plus de 1.400 employés de Google et près de 2000 autres personnes ont signé une lettre appelant l’entreprise à expliquer pourquoi Timnit Gebru avait été renvoyée et pour quelles raisons elle avait dû se rétracter.

    Ils demandaient aussi à Alphabet de s’engager « sans équivoque » en faveur de l’intégrité de la recherche et de la liberté académique.

    https://academia.hypotheses.org/31162
    #AI #IA #licenciement

  • Contrôle et surveillance en temps de pandémie

    https://lavoiedujaguar.net/Controle-et-surveillance-en-temps-de-pandemie

    https://contrepoints.media/fr/posts/controle-et-surveillance-en-temps-de-pandemie

    La pandémie a révélé les conséquences d’années de coupes budgétaires des gouvernements et de politiques favorisant la privatisation graduelle de nos systèmes publics de santé, au profit d’une vision mettant de l’avant la rentabilité économique de la santé.

    Pour faire face à la pandémie de la Covid-19, au lieu de proposer des investissements dans nos services publics, de nombreux États ont opté massivement pour l’implantation de mesures répressives, telles que le confinement strict et le couvre-feu, et d’une panoplie de mesures de contrôle et de surveillance.

    L’urgence et le climat de peur servent à forcer le consensus et à fabriquer le consentement de la population aux diverses mesures mises de l’avant pour nous sortir de la crise sanitaire. Nous acceptons jour après jour la mise en place de mesures de contrôle social qui, il y a à peine quelques mois, auraient été impensables. Le traitement médiatique de la pandémie n’est pas étranger à l’acceptation sociale des changements drastiques qui nous sont imposés.

    Ainsi, la majorité des États se tournent vers le privé pour nous offrir des solutions technologiques. (...)

    #pandémie #contrôle #surveillance #intelligence_artificielle #Montréal #Davos

  • How the Pandemic Turned Refugees Into ‘Guinea Pigs’ for Surveillance Tech

    An interview with Dr. Petra Molnar, who spent 2020 investigating the use of drones, facial recognition, and lidar on refugees

    The coronavirus pandemic unleashed a new era in surveillance technology, and arguably no group has felt this more acutely than refugees. Even before the pandemic, refugees were subjected to contact tracing, drone and LIDAR tracking, and facial recognition en masse. Since the pandemic, it’s only gotten worse. For a microcosm of how bad the pandemic has been for refugees — both in terms of civil liberties and suffering under the virus — look no further than Greece.

    Greek refugee camps are among the largest in Europe, and they are overpopulated, with scarce access to water, food, and basic necessities, and under constant surveillance. Researchers say that many of the surveillance techniques and technologies — especially experimental, rudimentary, and low-cost ones — used to corral refugees around the world were often tested in these camps first.

    “Certain communities already marginalized, disenfranchised are being used as guinea pigs, but the concern is that all of these technologies will be rolled out against the broader population and normalized,” says Petra Molnar, Associate Director of the Refugee Law Lab, York University.

    Molnar traveled to the Greek refugee camps on Lesbos in 2020 as part of a fact-finding project with the advocacy group European Digital Rights (EDRi). She arrived right after the Moria camp — the largest in Europe at the time — burned down and forced the relocation of thousands of refugees. Since her visit, she has been concerned about the rise of authoritarian technology and how it might be used against the powerless.

    With the pandemic still raging and states more desperate than ever to contain it, it seemed a good time to discuss the uses and implications of surveillance in the refugee camps. Molnar, who is still in Greece and plans to continue visiting the camps once the nation’s second lockdown lifts, spoke to OneZero about the kinds of surveillance technology she saw deployed there, and what the future holds — particularly with the European Border and Coast Guard Agency, Molnar says, adding “that they’ve been using Greece as a testing ground for all sorts of aerial surveillance technology.”

    This interview has been edited and condensed for clarity.

    OneZero: What kinds of surveillance practices and technologies did you see in the camps?

    Petra Molnar: I went to Lesbos in September, right after the Moria camp burned down and thousands of people were displaced and sent to a new camp. We were essentially witnessing the birth of the Kara Tepes camp, a new containment center, and talked to the people about surveillance, and also how this particular tragedy was being used as a new excuse to bring more technology, more surveillance. The [Greek] government is… basically weaponizing Covid to use it as an excuse to lock the camps down and make it impossible to do any research.

    When you are in Lesbos, it is very clear that it is a testing ground, in the sense that the use of tech is quite rudimentary — we are not talking about thermal cameras, iris scans, anything like that, but there’s an increase in the appetite of the Greek government to explore the use of it, particularly when they try to control large groups of people and also large groups coming from the Aegean. It’s very early days for a lot of these technologies, but everything points to the fact that Greece is Europe’s testing ground.

    They are talking about bringing biometric control to the camps, but we know for example that the Hellenic Coast Guard has a drone that they have been using for self-promotion, propaganda, and they’ve now been using it to follow specific people as they are leaving and entering the camp. I’m not sure if the use of drones was restricted to following refugees once they left the camps, but with the lockdown, it was impossible to verify. [OneZero had access to a local source who confirmed that drones are also being used inside the camps to monitor refugees during lockdown.]

    Also, people can come and go to buy things at stores, but they have to sign in and out at the gate, and we don’t know how they are going to use such data and for what purposes.

    Surveillance has been used on refugees long before the pandemic — in what ways have refugees been treated as guinea pigs for the policies and technologies we’re seeing deployed more widely now? And what are some of the worst examples of authoritarian technologies being deployed against refugees in Europe?

    The most egregious examples that we’ve been seeing are that ill-fated pilot projects — A.I. lie detectors and risk scorings which were essentially trying to use facial recognition and facial expressions’ micro-targeting to determine whether a person was more likely than others to lie at the border. Luckily, that technology was debunked and also generated a lot of debate around the ethics and human rights implications of using something like that.

    Technologies such as voice printing have been used in Germany to try to track a person’s country of origin or their ethnicity, facial recognition made its way into the new Migration’s Pact, and Greece is thinking about automating the triage of refugees, so there’s an appetite at the EU level and globally to use this tech. I think 2021 will be very interesting as more resources are being diverted to these types of tech.

    We saw, right when the pandemic started, that migration data used for population modeling became kind of co-opted and used to try and model flows of Covid. And this is very problematic because they are assuming that the mobile population, people on the move, and refugees are more likely to be bringing in Covid and diseases — but the numbers don’t bear out. We are also seeing the gathering of vast amounts of data for all these databases that Europe is using or will be using for a variety of border enforcement and policing in general.

    The concern is that fear’s being weaponized around the pandemic and technologies such as mobile tracking and data collection are being used as ways to control people. It is also broader, it deals with a kind of discourse around migration, on limiting people’s rights to move. Our concern is that it’ll open the door to further, broader rollout of this kind of tech against the general population.

    What are some of the most invasive technologies you’ve seen? And are you worried these authoritarian technologies will continue to expand, and not just in refugee camps?

    In Greece, the most invasive technologies being used now would probably be drones and unpiloted surveillance technologies, because it’s a really easy way to dehumanize that kind of area where people are crossing, coming from Turkey, trying to claim asylum. There’s also the appetite to try facial recognition technology.

    It shows just how dangerous these technologies can be both because they facilitate pushbacks, border enforcement, and throwing people away, and it really plays into this kind of idea of instead of humane responses you’d hope to happen when you see a boat in distress in the Aegean or the Mediterranean, now entities are turning towards drones and the whole kind of surveillance apparatus. It highlights how the humanity in this process has been lost.

    And the normalization of it all. Now it is so normal to use drones — everything is about policing Europe’s shore, Greece being a shield, to normalize the use of invasive surveillance tech. A lot of us are worried with talks of expanding the scope of action, mandate, and powers of Frontex [the European Border and Coast Guard Agency] and its utter lack of accountability — it is crystal clear that entities like Frontex are going to do Europe’s dirty work.

    There’s a particular framing applied when governments and companies talk about migrants and refugees, often linking them to ISIS and using careless terms and phrases to discuss serious issues. Our concern is that this kind of use of technology is going to become more advanced and more efficient.

    What is happening with regard to contact tracing apps — have there been cases where the technology was forced on refugees?

    I’ve heard about the possibility of refugees being tracked through their phones, but I couldn’t confirm. I prefer not to interact with the state through my phone, but that’s a privilege I have, a choice I can make. If you’re living in a refugee camp your options are much more constrained. Often people in the camps feel they are compelled to give access to their phones, to give their phone numbers, etc. And then there are concerns that tracking is being done. It’s really hard to track the tracking; it is not clear what’s being done.

    Aside from contact tracing, there’s the concern with the Wi-Fi connection provided in the camps. There’s often just one connection or one specific place where Wi-Fi works and people need to be connected to their families, spouses, friends, or get access to information through their phones, sometimes their only lifeline. It’s a difficult situation because, on the one hand, people are worried about privacy and surveillance, but on the other, you want to call your family, your spouse, and you can only do that through Wi-Fi and people feel they need to be connected. They have to rely on what’s available, but there’s a concern that because it’s provided by the authorities, no one knows exactly what’s being collected and how they are being watched and surveilled.

    How do we fight this surveillance creep?

    That’s the hard question. I think one of the ways that we can fight some of this is knowledge. Knowing what is happening, sharing resources among different communities, having a broader understanding of the systemic way this is playing out, and using such knowledge generated by the community itself to push for regulation and governance when it comes to these particular uses of technologies.

    We call for a moratorium or abolition of all high-risk technology in and around the border because right now we don’t have a governance mechanism in place or integrated regional or international way to regulate these uses of tech.

    Meanwhile, we have in the EU a General Data Protection Law, a very strong tool to protect data and data sharing, but it doesn’t really touch on surveillance, automation, A.I., so the law is really far behind.

    One of the ways to fight A.I. is to make policymakers understand the real harm that these technologies have. We are talking about ways that discrimination and inequality are reinforced by this kind of tech, and how damaging they are to people.

    We are trying to highlight this systemic approach to see it as an interconnected system in which all of these technologies play a part in this increasingly draconian way that migration management is being done.

    https://onezero.medium.com/how-the-pandemic-turned-refugees-into-guinea-pigs-for-surveillance-t

    #réfugiés #cobaye #surveillance #technologie #pandémie #covid-19 #coroanvirus #LIDAR #drones #reconnaissance_faciale #Grèce #camps_de_réfugiés #Lesbos #Moria #European_Digital_Rights (#EDRi) #surveillance_aérienne #complexe_militaro-industriel #Kara_Tepes #weaponization #biométrie #IA #intelligence_artificielle #détecteurs_de_mensonges #empreinte_vocale #tri #catégorisation #donneés #base_de_données #contrôle #technologies_autoritaires #déshumanisation #normalisation #Frontex #wifi #internet #smartphone #frontières

    ping @isskein @karine4

    ping @etraces