• The Madness of the Crowd

    Par Tim Hwang (mars 2017)

    As the Trump Administration enters its first hundred days, the 2016 election and its unexpected result remains a central topic of discussion among journalists, researchers, and the public at large.

    It is notable the degree to which Trump’s victory has propelled a broader, wholesale evaluation of the defects of the modern media ecosystem. Whether it is “fake news,” the influence of “filter bubbles,” or the online emergence of the “alt-right,” the internet has been cast as a familiar villain: enabling and empowering extreme views, and producing a “post-fact” society.

    This isn’t the first time that the internet has figured prominently in a presidential win. Among commentators on the left, the collective pessimism about the technological forces powering Trump’s 2016 victory are matched in mirror image by the collective optimism about the technological forces driving Obama’s 2008 victory. As Arianna Huffington put it simply then, “Were it not for the Internet, Barack Obama would not be president. Were it not for the Internet, Barack Obama would not have been the nominee.”

    But whereas Obama was seen as a sign that the new media ecosystem wrought by the internet was functioning beautifully (one commentator praised it as “a perfect medium for genuine grass-roots political movements”), the Trump win has been blamed on a media ecosystem in deep failure mode. We could chalk these accounts up to simple partisanship, but that would ignore a whole constellation of other incidents that should raise real concerns about the weaknesses of the public sphere that the contemporary internet has established.

    This troubled internet has been around for years. Fears about filter bubbles facilitating the rise of the alt-right can and should be linked to existing concerns about the forces producing insular, extreme communities like the ones driving the Gamergate controversy. Fears about the impotence of facts in political debate match existing frustrations about the inability for documentary evidence in police killings—widely distributed through social media—to produce real change. Similarly, fears about organized mobs of Trump supporters systematically silencing political opponents online are just the latest data point in a long-standing critique of the failure of social media platforms to halt harassment.

    One critical anchor point is the centrality of the wisdom of the crowd to the intellectual firmament of Web 2.0: the idea that the broad freedom to communicate enabled by the internet tends to produce beneficial outcomes for society. This position celebrated user-generated content, encouraged platforms for collective participation, and advocated the openness of data.

    Inspired by the success of projects like the open-source operating system Linux and the explosion of platforms like Wikipedia, a generation of internet commentators espoused the benefits of crowd-sourced problem-solving. Anthony D. Williams and Don Tapscott’s Wikinomics (2006) touted the economic potential of the crowd. Clay Shirky’s Here Comes Everybody (2008) highlighted how open systems powered by volunteer contributions could create social change. Yochai Benkler’s The Wealth of Networks (2006) posited a cooperative form of socioeconomic production unleashed by the structure of the open web called “commons-based peer production.”

    Such notions inspired movements like “Gov 2.0” and projects like the Sunlight Foundation, which sought to publish government data in order to reduce corruption and enable the creation of valuable new services by third parties. It also inspired a range of citizen journalism projects, empowering a new fourth estate.

    Intelligence Failure
    The platforms inspired by the “wisdom of the crowd” represented an experiment. They tested the hypothesis that large groups of people can self-organize to produce knowledge effectively and ultimately arrive at positive outcomes.

    In recent years, however, a number of underlying assumptions in this framework have been challenged, as these platforms have increasingly produced outcomes quite opposite to what their designers had in mind. With the benefit of hindsight, we can start to diagnose why. In particular, there have been four major “divergences” between how the vision of the wisdom of the crowd optimistically predicted people would act online and how they actually behaved.

    First, the wisdom of the crowd assumes that each member of the crowd will sift through information to make independent observations and contributions. If not, it hopes that at least a majority will, such that a competitive marketplace of ideas will be able to arrive at the best result.

    Second, collective intelligence requires aggregating many individual observations. To that end, it assumes a sufficient diversity of viewpoints. However, open platforms did not generate or actively cultivate this kind of diversity, instead more passively relying on the ostensible availability of these tools to all.

    Third, collective intelligence assumes that wrong information will be systematically weeded out as it conflicts with the mass of observations being made by others. Quite the opposite played out in practice, as it ended up being much easier to share information than to evaluate its accuracy. Hoaxes spread very effectively through the crowd, from bogus medical beliefs and conspiracy theories to faked celebrity deaths and clickbait headlines.

    Fourth, collective intelligence was assumed to be a vehicle for positive social change because broad participation would make wrongdoing more difficult to hide. Though this latter point turned out to be arguably true, transparency alone was not the powerful disinfectant it was assumed to be.

    The ability to capture police violence on smartphones did not result in increased convictions or changes to the underlying policies of law enforcement. The Edward Snowden revelations failed to produce substantial surveillance reform in the United States. The leak of Donald Trump’s Access Hollywood recording failed to change the political momentum of the 2016 election. And so on. As Aaron Swartz warned us in 2009, “reality doesn’t live in the databases.”

    Ultimately, the aspirations of collective intelligence underlying a generation of online platforms proved far more narrow and limited in practice. The wisdom of the crowd turned out to be susceptible to the influence of recommendation algorithms, the designs of bad actors, in-built biases of users, and the strength of incumbent institutions, among other forces.

    The resulting ecosystem feels deeply out of control. The promise of a collective search for the truth gave way to a pernicious ecosystem of fake news. The promise of a broad participatory culture gave way to campaigns of harassment and atomized, deeply insular communities. The promise of greater public accountability gave way to waves of outrage with little real change. Trump 2016 and Obama 2008 are through-the-looking-glass versions of one another, with the benefits from one era giving rise to the failures of the next.

    To the extent that the vision of the wisdom of the crowd was naive, it was naive because it assumed that the internet was a spontaneous reactor for a certain kind of collective behavior. It mistook what should have been an agenda, a ongoing program for the design of the web, for the way things already were. It assumed users had the time and education to contribute and evaluate scads of information. It assumed a level of class, race, and gender diversity in online participation that never materialized. It assumed a gentility of collaboration and discussion among people that only ever existed in certain contexts. It assumed that the simple revelation of facts would produce social change.

    In short, the wisdom of the crowd didn’t describe where we were, so much as paint a picture of where we should have been going.

    The vision of collective participation embedded in the idea of the wisdom of the crowd rests on the belief in the unique potential of the web and what it might achieve. Even as the technology evolves, that vision—and a renewed defense of it—must guide us as we enter the next decade.

    #Tim_Hwang #Mythes_internet #Sagesse_des_foules #Intelligence_collective

  • 28 minutes samedi - Daniel Cohen / Les centrales à charbon / L’inflation (03/09/2022) - Regarder l’émission complète | ARTE

    La société numérique, un cauchemar déshumanisé pour Daniel Cohen

    Après avoir décrypté les mystères de l’Homo economicus, Daniel Cohen nous plonge dans une nouvelle ère — celle de l’Homo numericus. Des applis de rencontre pour trouver l’amour en passant par le télétravail, jusqu’à la politique 2.0 sur les réseaux sociaux… La révolution numérique a profondément modifié nos modes de vie au quotidien, jusqu’à nous faire basculer dans une nouvelle civilisation, selon l’économiste. Dans son dernier essai, Homo numericus, la « civilisation » qui vient (Éditions Albin Michel), Daniel Cohen décrypte ces bouleversements qui provoquent parfois des comportements addictifs, des réactions impulsives et une certaine déshumanisation, dans une société dictée par les algorithmes.
    Découvrez son portrait signé Philippe Ridet et lu par Sandrine Le Calvez.

    Début de l’émission (jusqu’à 16:30)

    #Numérique #Vidéo #IntelligenceArtificielle #RéseauxSociaux #Algorithme #EMI #SNT #NSI

    • Les ressources engrangées devraient donc assurer une « une rentabilité du projet dès sa seconde année de déploiement », précise l’administration fiscale. En effet, le coût du dispositif est estimé à 24 millions d’euros de 2021 à 2023.

      Ah oui quand même...

    • Dans Le Parisien en avril dernier, ce qu’en pensaient les syndicats :

      Chasse aux piscines non déclarées : le partenariat entre le fisc, Google et Capgemini fait grincer des dents - Le Parisien

      Les deux entreprises ont développé, pour le compte de Bercy, un logiciel qui traque les piscines non déclarées. Mais dans les départements tests, notamment dans les Bouches-du-Rhône, les agents déplorent de nombreuses erreurs.

      Certains contribuables se sont déjà déplacés au guichet, furieux de constater leur redressement par le fisc. Dans les centres des impôts des Bouches-du-Rhône, on s’attend même à une vague de colère et d’incompréhension dans les semaines qui viennent. Car depuis plus d’un mois, des milliers de courriers ont été envoyés aux contribuables pour leur signaler une hausse significative de leur prochaine taxe foncière.

      Au total, près de 8500 foyers sont concernés dans le département. La raison de ce redressement de grande ampleur ? Les piscines. Depuis plus d’un an, elles sont la cible du logiciel d’#intelligence_artificielle (#IA) mis en place début 2021 par #Google et développé ensuite par l’entreprise #Capgemini pour le compte de la Direction générale des finances publiques (DGFiP).

      Avant eux, l’entreprise Accenture avait décroché l’appel d’offres de Bercy. Un contrat de 20 millions d’euros pour une expérimentation menée dans trois départements et finalement arrêtée, faute de résultats corrects. Depuis, le duo Google-Capgemini a repris le flambeau pour peaufiner une IA capable d’identifier, grâce aux vues aériennes du cadastre, des piscines, des bâtiments isolés et, à terme, des extensions de maison. « Le premier étage de la fusée est derechercher massivement les piscines qui n’ont pas été déclarées, note Damien Robinet, le secrétaire national du syndicat Solidaires finances publiques. Mais le programme ne marche pas beaucoup mieux avec Capgemini : il y a beaucoup d’erreurs. »

      Un taux d’erreur estimé à 30 %

      Près de Marseille, les inspecteurs des impôts et les géomètres - censés scruter leur secteur pour identifier du bâti non déclaré - sont en effet peu convaincus. « Avec les confinements, les gens se sont rués sur des piscines achetées chez Leroy Merlin ou Castorama, explique Philippe Laget, inspecteur des impôts syndiqué à la CGT. Or, ces piscines, bien souvent hors sol ou installées dans un trou, ne devraient pas être imposées. On considère que s’il faut la démolir pour la faire bouger, par exemple si le contour est cimenté, la piscine devient imposable. Or, le logiciel de l’IA n’a pas ce niveau de précision. »

      Voilà pourquoi on a demandé aux géomètres du fisc de vérifier « via des photos aériennes ou Google Street View, sans bouger de leur bureau pour aller plus vite », les 11 482 détections de piscines de l’IA.

      « Parfois, l’IA a pris des bâches bleues pour des piscines, elle a enregistré des piscines hors sol ou en a oublié... » précise une géomètre du service des Bouches-du-Rhône. Dans les neuf départements qui expérimentent le logiciel, les syndicats estiment que le taux d’erreurs est de 30 %.

      « Après notre recoupage, dans les Bouches-du-Rhône, près de 8500 ménages vont être taxés d’environ 300 euros, selon la commune et le secteur, pour une piscine de 4 m sur 8 m, poursuit la géomètre. Et si la marge d’erreur devrait être faible, il y aura dans le lot des piscines taxées qui ne devraient pas l’être, faute de contrôle précis sur le terrain... » Contacté, le ministère des Finances ne souhaite pas commenter l’expérimentation.

      Un coût passé de 20 à 40 millions d’euros selon les syndicats

      En coulisses, certains syndicats assurent que le contrat avec Capgemini devrait être suspendu plus tôt que prévu, d’ici la fin de l’année, du fait de résultats insatisfaisants. Il faut dire que le deuxième étage de la fusée de l’IA - étudier les bâtis isolés - n’est pas du tout au point.

      « Puisqu’il n’utilise que des vues aériennes, le logiciel ne peut pas faire la différence entre un bâtiment habité et une pergola ou un carport (abri pour voitures), note Frédéric Scalbert, de la CGT. Dans l’un des départements où a lieu l’expérimentation, on a relevé 80 % d’erreurs : l’IA voyait des bâtiments à taxer à la place de bâches, de routes, de trottoirs, de parkings ou de dalles. Tout et n’importe quoi ! »

      À quel prix ? Au ministère des Finances, on préfère garder le silence sur la facture et l’avenir du contrat. Mais les syndicats estiment tous que le coût initial de 20 millions d’euros atteint désormais plus de 40 millions d’euros. « Ce qui est exaspérant c’est qu’en interne, la DGFiP a les ressources pour faire ce travail, râle Frédéric Scalbert. Les géomètres, dont 116 postes ne sont toujours pas remplacés, sont là pour ça. Et quand Capgemini a sous-traité une partie des tâches à une entreprise basée à Madagascar, alors que les dessinateurs du cadastre pouvaient le faire, ça n’est pas passé du tout. »

    • Oh, un lien vers France Soir ;-))

      Dépenser 20 ou 40 millions d’euros en sociétés de service en informatique pour envoyer des redressements indus, qui vont donner lieu à des conflits entre les contribuables et les impôts, c’est plutôt très très très fort en terme d’efficacité financière et de communication, d’autant plus quand on nous dit que ça permet pour un département « pilote » de récupérer à peine 500000 euros pour l’année en cours...

      Et ça houspille les écolos qui questionnent le fait d’avoir une piscine quand l’eau vient à manquer...

  • Une campagne d’ingérence étrangère proaméricaine démantelée sur Twitter et Facebook Jeff Yates - Radio Canada

    L’opération était gérée depuis les États-Unis, mais il n’est pas possible de savoir si le gouvernement se cache derrière.

    Des chercheurs ont détecté une campagne clandestine sur les réseaux sociaux visant à promouvoir les intérêts des États-Unis et à alimenter la méfiance envers leurs adversaires, selon un nouveau rapport publié mercredi https://fsi.stanford.edu/news/sio-aug-22-takedowns .

    Cette campagne clandestine, active depuis 2017, visait à influencer les utilisateurs de réseaux sociaux habitant en Asie centrale, en Iran, en Afghanistan et au Moyen-Orient. À l’aide de faux comptes se faisant passer pour des médias et des habitants locaux, la campagne cherchait à attiser le ressentiment envers la Russie, l’Iran et la Chine. Près de la moitié des comptes visaient la population iranienne.

    Les chercheurs, travaillant pour la firme d’analyse des réseaux sociaux Graphika, ainsi que pour l’Observatoire de l’Internet de l’Université Stanford, jugent qu’il s’agit de “la plus vaste opération d’influence pro-occidentale sur les réseaux sociaux jamais analysée par des chercheurs œuvrant dans le renseignement d’origine sources ouvertes (open source)”.

    En tout, l’équipe a analysé près de 300 000 tweets provenant de 146 faux comptes Twitter, ainsi que 39 faux comptes, 16 pages, 2 groupes sur Facebook et 26 comptes Instagram. Les chercheurs ont aussi trouvé des faux comptes associés sur d’autres réseaux sociaux de langue russe. Selon leur analyse, tous ces faux comptes agissaient de façon coordonnée.

    Meta, l’entreprise qui détient Facebook et Instagram, et Twitter ont supprimé l’entièreté du réseau et affirment que ces faux comptes auraient été gérés depuis les États-Unis. Ni ces entreprises ni les chercheurs ne peuvent dire avec certitude qui est derrière cette campagne.

    Les chercheurs notent toutefois qu’une version archivée d’un des faux comptes montre que celui-ci indiquait en 2021 appartenir à CENTCOM, le commandement central des États-Unis, responsable des opérations militaires au Moyen-Orient et en Asie centrale, entre autres.

    Le réseau a même utilisé des portraits générés par l’intelligence artificielle pour créer des faux profils plus réalistes. Ces comptes ont répandu des articles provenant de sites web de faux médias locaux, des caricatures, ainsi que des pétitions comportant un message pro-occidental.

    Quelques faux profils appartenant au réseau et visant le Moyen-Orient. Les photos de profil ont été créées à l’aide de l’intelligence artificielle. Photo : Graphika/Stanford University

    Peu après le début de l’invasion russe de l’Ukraine, plusieurs de ceux-ci ont cherché à dépeindre la Russie comme étant un agresseur et à mettre l’accent sur les atrocités alléguées commises par les soldats russes.

    “Jusqu’à maintenant, presque toute la recherche sur les opérations d’influence se penchait sur des activités liées à des régimes autoritaires. Notre rapport offre un des premiers regards sur une opération clandestine proaméricaine sur les réseaux sociaux”, juge Shelby Grossman, qui fait partie des auteurs du rapport et chercheuse à l’Observatoire de l’Internet de Stanford.

    Elle et ses collègues soulignent que la campagne était relativement de piètre qualité. Certains textes étaient par exemple traduits de l’anglais au russe de façon approximative. Les publications de ces faux comptes ont généré peu d’engouement chez les populations visées. Le tweet moyen associé à cette campagne a reçu 0,49 j’aime et 0,02 retweet, fait remarquer Mme Grossman. . . . . . . .

    #USA #CIA #twitter #facebook #méta #manipulation #algorithmes #réseaux_sociaux #ia #intelligence_artificielle #pétitions #influenceurs #influenceuses #centcom #médias #ukraine

  • À #Calais, une #surveillance du ciel au tunnel

    #Drones, #reconnaissance_faciale, #capteurs_de_CO2 et de battements cardiaques : face à l’afflux de réfugiés, la frontière franco-britannique est surveillée à grands coups d’#intelligence_artificielle. Premier volet de notre série sur la #cybersurveillance des frontières.

    Pablo lève les yeux au ciel et réfléchit. Brusquement, il fixe son ordinateur. Le chargé de communication et plaidoyer chez Human Rights Observers (HRO) fouille dans ses dossiers, ouvre un document d’une quinzaine de pages. « Tu vois, ce jour-là, ils ont utilisé un drone », indique-t-il en pointant l’écran du doigt. Le 9 juin, l’association pour laquelle il travaille assiste à une expulsion de réfugié·es à #Grande-Synthe. Dans son compte-rendu, elle mentionne la présence d’un drone. Des vols d’aéronefs, hélicoptères ou avions, devenus routiniers.

    En cette matinée de fin juin, Pablo a donné rendez-vous sur son lieu de travail, « l’entrepôt », comme il l’appelle. Ce vaste bâtiment désaffecté d’une zone industrielle à l’est de Calais héberge plusieurs associations locales. Les bureaux de HRO sont spartiates : un simple préfabriqué blanc planté dans la cour.

    C’est ici que ses membres se réunissent pour documenter les #violences d’État perpétrées contre les personnes en situation d’exil à la frontière franco-britannique, plus spécifiquement à Calais et à Grande-Synthe. Depuis plus de 20 ans, la ville est érigée en symbole de la crise migratoire. L’évacuation et la destruction de la jungle en octobre 2016 n’ont rien changé. Désormais réparties dans de multiples camps précaires, des centaines de migrants et migrantes tentent le passage vers l’Angleterre au péril de leur vie. Selon le ministère de l’intérieur, ils et elles étaient 52 000 en 2021, un record, contre « seulement » 10 000 en 2020.

    Sous l’impulsion des pouvoirs publics, Calais se barricade. Plus que les maisons de briques rouges, ce sont les #clôtures géantes, les rangées de #barbelés et les #marécages_artificiels qui attirent la vue. Tout semble construit pour décourager les exilé·es de rejoindre la Grande-Bretagne. « Avant, il n’y avait pas tout ça. C’est devenu assez oppressant », regrette Alexandra. Arrivée il y a sept ans dans le Pas-de-Calais, elle travaille pour l’Auberge des migrants, association qui coordonne le projet HRO.

    Quatre #caméras empilées sur un pylône à l’entrée du port rappellent que cette frontière n’est pas que physique. #Vidéosurveillance, #drones, #avions, #détecteurs_de_CO2… Le littoral nord incarne le parfait exemple de la « #smart_border ». Une frontière invisible, connectée. Un eldorado pour certaines entreprises du secteur de l’intelligence artificielle, mais un cauchemar pour les exilé·es désormais à la merci des #algorithmes.

    Si des dizaines de #caméras lorgnent déjà sur le port et le centre-ville, la tendance n’est pas près de s’inverser. La maire LR, #Natacha_Bouchart, qui n’a pas donné suite à notre demande d’interview, prévoit d’investir 558 000 euros supplémentaires en #vidéosurveillance en 2022.

    « C’est la nouvelle étape d’une politique en place depuis plusieurs décennies », analyse Pierre Bonnevalle, politologue, auteur d’un long rapport sur le sujet. À Calais, la #bunkérisation remonte, selon le chercheur, au milieu des années 1990. « À cette époque commencent les premières occupations des espaces portuaires par des personnes venues des pays de l’Est qui souhaitaient rejoindre la Grande-Bretagne. Cela entraîne les premières expulsions, puis un arrêté pris par la préfecture pour interdire l’accès au port. »

    Les années suivantes, c’est à #Sangatte que se dessinent les pratiques policières d’aujourd’hui. Dans cette commune limitrophe de Calais, un hangar préfigure ce que sera la « #jungle » et héberge jusqu’à 2 000 exilé·es. « La police cible alors tous ceux qui errent dans la ville, tentent d’ouvrir des squats, de dormir dans un espace boisé. » Une manière de « contenir le problème », de « gagner du temps ».

    En parallèle, la ville s’équipe en vidéosurveillance et en barbelés. En 2016, l’expulsion de la jungle fait émerger la politique gouvernementale actuelle : l’#expulsion par les forces de l’ordre, toutes les 24 ou 48 heures, des camps où vivent les personnes exilées.


    Calme et grisâtre en ce jour de visite, le ciel calaisien n’est pas épargné. Depuis septembre 2020, l’armée britannique fait voler un drone #Watchkeeper, produit par l’industriel français #Thales, pour surveiller la mer. « Nous restons pleinement déterminés à soutenir le ministère de l’intérieur britannique alors qu’il s’attaque au nombre croissant de petits bateaux traversant la Manche », se félicite l’armée britannique dans un communiqué.

    Selon des données de vol consultées par Mediapart, un drone de l’#Agence_européenne_pour_la_sécurité_maritime (#AESM) survole également régulièrement les eaux, officiellement pour analyser les niveaux de pollution des navires qui transitent dans le détroit du Pas-de-Calais. Est-il parfois chargé de missions de surveillance ? L’AESM n’a pas répondu à nos questions.

    Au sein du milieu associatif calaisien, la présence de ces volatiles numériques n’étonne personne. « On en voit souvent, comme des hélicoptères équipés de caméras thermiques », confie Marguerite, salariée de l’Auberge des migrants. Chargée de mission au Secours catholique, Juliette Delaplace constate que cette présence complexifie leur travail. « On ne sait pas si ce sont des drones militaires, ou des forces de l’ordre, mais lorsque l’on intervient et que les exilés voient qu’un drone nous survole, c’est très compliqué de gagner leur confiance. »

    En décembre 2021, à la suite d’une demande expresse du ministre de l’intérieur, Gérald Darmanin, l’agence européenne #Frontex a dépêché un #avion pour surveiller la côte pendant plusieurs semaines. « Une mission toujours en cours pour patrouiller aux frontières française et belge », précise Frontex.

    « On sent une évolution des #contrôles depuis l’intervention de cet avion, qui a œuvré principalement la nuit, confie le maire d’une ville du Nord. Beaucoup de gens tentaient de monter dans des camions, mais cela a diminué depuis que les contrôles se sont durcis. »

    Il faut dire que la société #Eurotunnel, qui gère le tunnel sous la Manche, ne lésine pas sur les moyens. En 2019, elle a dépensé 15 millions d’euros pour installer des sas « #Parafe » utilisant la reconnaissance faciale du même nom, mise au point par Thales. Lors du passage de la frontière, certains camions sont examinés par des capteurs de CO2 ou de fréquence cardiaque, ainsi que par de l’#imagerie par #ondes_millimétriques, afin de détecter les personnes qui pourraient s’être cachées dans le chargement.

    « C’est un dispositif qui existe depuis 2004, lorsque Nicolas Sarkozy a fait évacuer le camp de Sangatte, informe un porte-parole d’Eurotunnel. Depuis 2015, il y a tellement de demandes de la part des routiers pour passer par ce terminal, car ils peuvent recevoir des amendes si un migrant est trouvé dans leur camion, que nous avons agrandi sa capacité d’accueil et qu’il fait partie intégrante du trajet. »

    Des outils de plus en plus perfectionnés qui coïncident avec l’évolution des modes de passage des personnes exilées, analyse le politologue Pierre Bonnevalle. « Pendant longtemps, il s’agissait de surveiller les poids lourds. Le #port et le #tunnel sont aujourd’hui tellement bunkérisés que les exilés traversent en bateau. »

    Les technologies employées suivent : en novembre 2021, le ministère de l’intérieur annonçait la mise à disposition de 4 x 4, de lunettes de vision nocturne ou de #caméras_thermiques pour équiper les gendarmes et policiers chargés de lutter contre l’immigration clandestine sur les côtes de la Manche.

    « Ces technologies ne servent à rien, à part militariser l’espace public. J’ai encore rencontré des associatifs la semaine dernière qui me disaient que cela n’a aucun impact sur le nombre de passages et les risques pris par ces gens », tempête l’eurodéputé et ancien maire de Grande-Synthe Damien Carême.

    Elles ont malgré tout un #coût : 1,28 milliard d’euros depuis 1998, selon Pierre Bonnevalle, dont 425 millions pour la seule période 2017-2021. « C’est une estimation a minima, pointe-t-il. Cela ne prend pas en compte, par exemple, le coût des forces de l’ordre. »

    Publié en novembre 2021, un rapport de la commission d’enquête parlementaire sur les migrations détaille les dépenses pour la seule année 2020 : l’État a investi 24,5 millions dans des dispositifs humanitaires d’hébergement, contre 86,4 pour la mobilisation des forces de l’ordre. Des sommes qui désespèrent Pablo, le militant de Human Rights Observers. « Cela aurait permit de bâtir de nombreux centres d’accueil pour que les exilés vivent dans des conditions dignes. » L’État semble avoir d’autres priorités.

    #technologie #frontières #contrôles_frontaliers #asile #migrations #réfugiés #surveillance_des_frontières #militarisation_des_frontières #IA #AI #complexe_militaro-industriel #Manche #La_Manche #France #UK #Angleterre

    via @olaf #merci :

  • Prédire les flux migratoires grâce à l’intelligence artificielle, le pari risqué de l’Union européenne

    Depuis plusieurs mois, l’Union européenne développe une intelligence artificielle censée prédire les flux migratoires afin d’améliorer l’accueil des migrants sur son sol. Or, selon plusieurs documents obtenus par Disclose, l’outil baptisé Itflows pourrait vite se transformer en une arme redoutable pour contrôler, discriminer et harceler les personnes cherchant refuge en Europe. Lire l’article

    • C’est un logiciel qui pourrait sa place dans une dystopie. Une intelligence artificielle capable de compiler des milliers de données afin de prédire des flux migratoires et identifier les risques de tensions liées à l’arrivée de réfugiés aux frontières de l’Europe. Son nom : Itflows, pour « outils et méthodes informatiques de gestion des flux migratoires ». Financé à hauteur de 5 millions d’euros par l’Union européenne et développé par un consortium composé d’instituts de recherche, d’une société privée (Terracom) et d’organisations caritatives, Itflows qui est en phase de test devrait rentrer en service à partir d’août 2023. Et ce, malgré des alertes répétées quant aux risques de détournement de ses capacités prédictives à des fins de contrôle et de restrictions des droits des réfugiés sur le sol européen.

      Encore méconnu, ce programme doit venir compléter un dispositif technologique destiné à la surveillance des frontières, notamment espagnoles, italiennes et grecques. Financé sur le budget d’« Horizon 2020 », le programme de recherche et d’innovation de l’Union européenne, Itflows s’ajoutera alors aux drones de surveillance autonome, aux détecteurs de mensonges dans les zones de passages ou à l’utilisation de logiciels d’extraction de données cellulaires.

      D’après notre enquête, les deux ONG contribuent à nourrir l’intelligence artificielle de Itflows en lui fournissant des informations précieuses. Des données directement issues d’entretiens réalisés dans des camps de réfugiés, auprès de Nigérians, de Maliens, d’Érythréens ou encore de Soudanais. Il pourra s’agir d’éléments liés à l’origine ethnique, l’orientation sexuelle ou encore la religion des personnes interrogées. Pour leur contribution, les branches italiennes de la Croix-Rouge et d’Oxfam ont respectivement reçu 167 000 euros et 116 000 euros de fonds publics européens.

      « Nous avons contribué à réaliser trente entretiens de migrants arrivés en Italie au cours des six dernières années », confirme la Croix rouge Italie, sollicitée par Disclose. Une fois analysées, puis rendues accessibles via une application baptisée EUMigraTool, ces informations serviront aux autorités italiennes dans leur analyse « des routes migratoires et des raisons qui poussent les gens à faire le voyage », ajoute l’association. Même son de cloche du côté de Oxfam Italie, qui salue l’intérêt pour « les responsables politiques des pays les plus exposés aux flux migratoires. » Les dirigeants pourront également s’appuyer sur l’analyse des risques politiques liés à l’arrivée de migrants sur leur sol. Le projet inclut en effet la possibilité d’étudier l’opinion publique dans certains pays européens vis-à-vis des migrants à travers une veille sur le réseau social Twitter.
      Des rapports internes alarmants

      En réalité, les risques de détournement du programme existent bel et bien. C’est ce que révèlent des rapports internes (https://www.documentcloud.org/projects/logiciel-itflows-208987) au consortium que Disclose a obtenu à la suite d’une demande d’accès à des documents administratifs. Lesdits rapports, datés de janvier et juin 2021, ont été rédigés par les membres du comité éthique du projet Itflows. Leurs conclusions sont alarmantes. Le premier document, une somme de 225 pages, révèle que « le consortium Itflows est pleinement conscient des risques et des impacts potentiels en matière de droits de l’homme, que les activités de recherche empirique sur les migrations (…) et les développements technologiques prévus dans le projet peuvent poser ». Plus loin, les auteurs enfoncent le clou. Selon eux, les informations fournies par l’algorithme pourraient servir, si elles devaient être utilisées « à mauvais escient », à « stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile ».

      Cinq mois plus tard, le comité éthique rend un second rapport. Il détaille un peu plus le danger : « Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants » ; « risque d’identification physique des migrants » ; « discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge » ; « risque que les migrants puissent être identifiés et sanctionnés pour irrégularités ». Et le régulateur d’alerter sur un autre péril : la poussée des « discours de haine » que pourrait induire une éventuelle diffusion des prédictions du logiciel dans « les zones où les habitants sont informés de déplacements » de populations.
      L’Europe fait la sourde oreille

      Des alertes qui ne semblent pas avoir été entendues. Comme en atteste un bilan dressé lors d’une réunion (https://www.documentcloud.org/documents/22120596-emt-symposium-agenda-16-sep-2021?responsive=1&title=1) en ligne le 16 septembre 2021 par la coordinatrice du comité éthique de Itflows, #Alexandra_Xanthaki, devant des responsables européens, dont #Zsuzsanna_Felkai_Janssen, rattachée à la direction générale des affaires intérieures de la Commission. « Nous avons passé six mois à travailler jour et nuit pour rédiger un rapport instaurant un cadre qui intègre les droits de l’homme », débute la responsable du comité éthique, selon un enregistrement que Disclose s’est procuré. Elle poursuit : « Il me semble pourtant que ce que disent les techniciens de l’équipe aujourd’hui c’est : nous n’en tenons pas compte ». Un manque de précaution qui inquiète jusqu’au sein du conseil d’administration d’Itflows. Joint par Disclose, Alexander Kjærum, analyste pour le conseil danois pour les réfugiés et membre du conseil de surveillance estime en effet qu’il existe « un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières. »

      Sollicitée, la coordinatrice du programme, #Cristina_Blasi_Casagran, assure que le logiciel « ne sera pas utilisé à mauvais escient ». Selon elle, Itflows « devrait même faciliter l’entrée des migrants [dans l’Union européenne] en permettant une meilleure affectation des ressources engagées dans l’#accueil ».

      #Frontex inquiète

      Un dernier point vient renforcer le risque d’un détournement du logiciel : l’intérêt de Frontex pour Iflows. D’après des documents internes, l’agence en charge de la surveillance des frontières de l’UE suit étroitement les avancées du programme. Jusqu’à y contribuer activement via la fourniture de données récoltées dans le cadre de ses missions. Or, depuis plusieurs années, l’agence européenne est régulièrement accusée d’expulsions illégales et de violations des droits de l’homme. Interrogée sur ce point, l’ONG Oxfam considère qu’il n’y a pas de risque de détournement du logiciel au profit de l’agence. La branche italienne de la Croix rouge déclare quant à elle que « la convention de subvention régissant la mise en œuvre du projet Itflows ne désigne pas Frontex comme utilisateur de l’outil, mais simplement comme source de données ouvertes ». En 2021, Frontex a élu l’interface Itflows parmi les projets d’Horizon 2020 au « potentiel opérationnel et innovant » le plus élevé.

      #AI #IA #intelligence_artificielle #complexe_militaro-industriel #asile #migrations #frontières #EU #UE #Union_européenne #prédiction #Itflows #contrôle #logiciel #risques #Terracom #surveillance #Espagne #Italie #Grèce #horizon_2020 #camps_de_réfugiés #Croix-Rouge #Oxfam #religion #origine_ethnique #ethnie #orientation_sexuelle #données #EUMigraTool #risques #risques_politiques #twitter #réseaux_sociaux #opinion_publique #technologie #algorithme #discrimination #identification #Croix_Rouge

      ping @reka @isskein @karine4 @_kg_

  • L’IA « consciente », éternel cycle de la hype - Par Thibault Prévost | Arrêt sur images

    Une intelligence artificielle développée par Google a-t-elle acquis la « sentience » ? Non. Mais le doute, les spéculations et la hype médiatique font indubitablement les affaires de la firme, et nous empêchent de réfléchir à ce que les multinationales pourraient faire de ces « agents conversationnels ». N’ayez pas peur du chatbot intelligent ; inquiétez-vous plutôt de celui qui décide à votre place.

    #IA #Internet #Robot #NSI #SNT #Numérique #Intelligence #GAFAM

  • #Infernet / Tay les agents conversationnels sont des cons

    Internet peut être défini comme un couplage : couplage entre les réseaux de télécommunication et l’hypertexte, document ou ensemble de documents informatiques permettant de passer d’une information à une autre par un système de liens. L’hypertexte est le…



    « De même qu’après avoir détruit la planète, exterminé une immense partie des espèces animales et appauvri les neufs dixièmes des êtres humains au profit d’une minorité toujours plus réduite de bénéficiaires, le capitalisme finira nécessairement par se dévorer lui-même, les réseaux sociaux, par nature, ne seront plus un jour peuplés que par deux espèces : les trolls et les agents conversationnels, et ils seront indiscernables. Parce que le danger représenté par l’Intelligence artificielle n’est pas que des machines puissent commencer à penser comme nous.

    Le danger, c’est que nous puissions nous mettre à penser comme elles. Le problème n’est pas que les agents conversationnels soient des cons. Le problème, c’est que, à force de coexister avec eux et de vivre dans un milieu favorable à leur expansion, nous finissions par éteindre notre sensibilité afin de devenir leurs semblables. »

    Chroniqueur : Pacôme Thiellement
    Réalisateur : Mathias Enthoven
    Montage : Camille Chalot
    Images : Ameyes Aït-Oufella
    Son : Baptiste Veilhan
    Graphisme : Adrien Colrat
    Diffusion : Maxime Hector
    Production : Thomas Bornot
    Rédaction en chef : Soumaya Benaissa

    #Tay #troll

  • Tay : l’intelligence artificielle devenue nazie en 24h sur #Twitter

    De même qu’après avoir détruit la planète, exterminé une immense partie des espèces animales et appauvri les neufs dixièmes des êtres humains au profit d’une minorité toujours plus réduite de bénéficiaires, le capitalisme finira nécessairement par se…


  • Une start-up israélienne produit le premier miel fabriqué par intelligence artificielle
    Dans un kibboutz de Galilée, une start-up israélienne construit des ruches robotisées qui surveillent les abeilles 24 heures sur 24 et permettent de réduire la mortalité de ces pollinisateurs majeurs, garants de la sécurité alimentaire.

    « Il y a deux millions d’abeilles ici », dit Shlomki Frankin en entrant dans un conteneur blanc de 12 mètre carrés, posé en plein milieu des champs d’avocats du kibboutz Bet Haemek, dans le nord d’Israël.

    Un ingénieur installe de nouvelles ruches, dans le cadre du projet high-tech Beehome, dans le kibboutz israélien Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP)

    Le conteneur appelé « Beehome » (maison des abeilles en anglais) peut abriter 24 ruches, explique à l’AFP l’apiculteur de 41 ans qui porte un chapeau avec un voile pour se protéger des éventuelles piqûres.

    Ces maisons d’abeilles fonctionnent comme des ruches normales en bois, si ce n’est qu’elles sont gérées par un robot placé à l’intérieur qui surveille ces insectes, contrôle leur habitat et leur procure des soins, précise M. Frankin qui travaille pour la société Beewise à l’origine de la méga ruche.

    Venu effectuer une visite de contrôle, il observe l’appareil électrique qui se déplace au centre du caisson bourdonnant et vient tirer un cadre de miel où sont agglutinées des abeilles mellifères.

    Intelligence artificielle 
    « Le robot est équipé de capteurs qui lui permettent de savoir ce qu’il se passe dans les cadres », explique à l’AFP Netaly Harari, directrice des opérations de Beewise.

    « Grâce à l’intelligence artificielle, notre logiciel sait ce dont les abeilles ont besoin », dit-elle dans l’atelier où sont assemblées les grandes ruches métalliques.

    Le robot peut en outre distribuer automatiquement du sucre, de l’eau, des médicaments.

    En cas de problème, il alerte l’apiculteur via une application. Ce dernier peut alors intervenir à distance depuis son ordinateur et se déplacer si nécessaire.

    Un apiculteur travaille sur une ruche robotisée, du projet high-tech Beehome, au kibboutz Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP)

    La méga ruche, qui fonctionne à l’énergie solaire, peut aussi réguler la température, éliminer les nuisances et même extraire du miel, grâce à une centrifugeuse intégrée, affirme Netaly Harari.

    La start-up va pour la première fois produire du miel à partir de la fin mai, le « premier miel au monde fabriqué avec l’intelligence artificielle ! », s’enthousiasme Mme Harari.

    Pour Shlomki Frankin, « le robot est un outil pour l’apiculteur, mais il ne le remplace pas ».

    « Je peux effectuer beaucoup de tâches simples à distance comme agrandir la ruche ou la réduire (…) ou bien laisser le robot faire cela et me concentrer sur d’autres tâches », dit-il ajoutant « gagner beaucoup de temps ».

    Une centaine de ces ruches robotisées ont déjà été déployées en Israël et une dizaine aux Etats-Unis. Beewise lorgne une entrée sur le marché européen dans deux ans.

    En avril, la start-up créée en 2018, qui compte plus de 100 employés, a levé environ 76 millions d’euros d’investissement pour développer ses exportations.

    _ Un ingénieur installe de nouvelles ruches, dans le cadre du projet high-tech Beehome, dans le kibboutz israélien Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP)

    Journée mondiale
    Selon le professeur Sharoni Shafir qui dirige le centre d’étude des abeilles de l’université hébraïque à Rehovot, la technologie peut aider à protéger les colonies d’abeilles de plus en plus fragilisées.

    « Parfois, un apiculteur met plusieurs mois à se rendre compte d’un problème, avec le robot, il peut s’occuper du problème en temps réel, cela réduit la mortalité des abeilles », dit-il à l’AFP.

    Ces dernières années, beaucoup d’entre elles ont disparu dans le monde, victimes du ‘syndrome d’effondrement des colonies’, imputé à la combinaison de plusieurs facteurs.

    « La diminution des champs de fleurs sous l’effet de la construction a réduit les sources et la diversification de l’alimentation des abeilles », note l’expert.

    A cela s’ajoute l’utilisation des pesticides, les maladies et les parasites comme le Varroa destructor, un acarien dévastateur, liste le professeur Shafir.

    Une ruche robotisée, du projet high-tech Beehome, au kibboutz Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP) _

    « En Israël, entre 20 et 30 % des ruches disparaissent chaque année », or, « nous dépendons des abeilles », affirme l’entomologiste qui rappelle qu’une part significative de l’alimentation humaine résulte de la pollinisation, assurée par les insectes et qui permet aux plantes de se reproduire.

    Plus de 70 % des cultures – quasiment tous les fruits, légumes, oléagineux et protéagineux, épices, café et cacao – en dépendent très fortement.

    « Les abeilles et autres pollinisateurs sont essentiels à la sécurité alimentaire et à la nutrition », résume l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), qui célèbre le 20 mai la Journée mondiale des abeilles pour souligner l’importance de leur préservation.

    #abeilles #agriculture #environnement #apiculture #miel #biodiversité #écologie #fin_du_monde #catastrophe #collapsologie #capitalocène #intelligence_artificielle #robot #pollen #ruches

    • Tout ce qui touche à #Israël doit-il être hors du commun ? Le Monde, sur un projet qui a l’air assez semblable, présente les choses de façon bien plus modeste !


      En Tunisie, des « ruches intelligentes » pour sauver les abeilles et produire plus et mieux

      Une start-up tunisienne a créé l’application Smart Bee qui permet aux apiculteurs de surveiller la santé des essaims et d’adapter le rucher aux aléas climatiques.

      Elias se précipite vers ses « ruches intelligentes ». L’apiculteur a reçu un signal d’alerte sur son téléphone grâce à une application, 100 % tunisienne et pionnière en Afrique du Nord, destinée à éviter la surmortalité des abeilles et à optimiser la production de miel.

      Sur une colline de son terrain familial à Testour, au nord-ouest de Tunis, Elias Chebbi, 39 ans, ouvre le volet d’une ruche et montre un petit appareil blanc similaire à un décodeur qui mesure les variables et l’avertit de tout incident, via l’application Smart Bee. La start-up tunisienne Beekeeper Tech a mis au point un dispositif de capteurs à infrarouge qui fournit en permanence des données sur l’environnement et la santé des abeilles, pour « un prix abordable ».

    • C’est pas tellement supprimer l’humain qui m’inquiète. Pour ça je veux bien les aider (en commencant par le haut). Et en terme d’humanité, ça fait lgtps qu’Israel à fait cessession.
      C’est contourner le vivant et industrialiser le vivant (libre) le plus grave.

  • Decolonial AI Manyfesto

    This manyfesto is a provocation, a question, an opening, a dance about a future of AI technologies that is decolonial. We call it manyfesto, since it reflects some visions among many, and we hope to invite exchange, conversation, and the development of statements from people affected by AI technology.

    We begin with the challenge posed by the language we use to talk about AI: language that has emerged, as much of the technology has, dominated by Western male voices, whiteness, and wealth. We seek to uncover, to question, upend, and reinvent the assumptions underlying this language, even as we use it.

    “Artificial” and “intelligence” are loaded terms, their definitions subject to cultural biases. AI is a technology, a science, a business, a knowledge system, a set of narratives, of relationships, an imaginary. Across each facet, our effort is to undo the colonial erasure of non-Western ways of being and knowing. The word “decoloniality,” too, resonates differently in different communities, including with Indigenous peoples and those for whom colonialism is not a history but a present reality. Some reject the term decolonial in this context. We acknowledge both its use and its rejection.

    We do not seek consensus: we value human difference. We reject the idea that any one framework could rule globally. We reject the Western-normative language of “ethical” AI and suggestions of “inclusivity” that do not destabilize current patterns of domination and address power asymmetries. We reject as half-measures any principles meant to tweak, reinforce, and whitewash the status quo, merely blunting its devastation. They fail to acknowledge how the social and the technical are interwoven, and technologies have immaterial as well as material impacts over specific gendered, racialized bodies and territories. Decoloniality rejects the divorcing of the material and immaterial, of feeling from being, knowing, doing or living.

    Notions of decolonial governances will emerge from community and situated contexts, questioning what currently constitutes hegemonic narratives. Decolonialilty is not merely diversity and inclusion; removing the echoes of coloniality in AI will require reparations for present and past material and epistemic injustice and dispossession. These reinventions of AI governance will acknowledge the expertise that comes from lived experience, and create new pathways to make it possible for those who have historically been marginalized to have the opportunity to decide and build their own dignified socio-technical futures. Decolonial governance will recognize, in a way that Western-centric governance structures historically have not, how our destinies are intertwined. We owe each other our mutual futures.

    Our humanity is relational, defined by how we are tied to one another. Technology has an important role in those relationships. Creation, art, stories and sensitive experience are some of the paths that we must explore in order to foster the decolonial imagination. We seek to center the engineering, design, knowledge-production, and dispute-resolution practices of diverse cultures, which are embedded with their own value systems.

    Our urgency arises from humans’ capacity to use AI as a knowledge system to create irrefutable “algorithmic truths” to reinforce domination. In doing so, other systems of knowledge production and other visions are denied and erased, as are other peoples’ agency, autonomy, and contestation. In this way AI coloniality extends beyond data colonialism: AI implies material extractivism, and the use of AI has the capacity to shape reality. Designed in an unequal society, these systems can be employed to reproduce those inequalities. Built with an emphasis on efficiency rather than dignity, they can do irreparable harm. In insisting on a decolonial AI, we stand for the right of each historically marginalized community to reshape reality on their terms.

    Our methods will evolve, sensitive to needs and opportunities, but our aim is to create and hold a resonant forum for learning and exchange from and between voices silenced by colonialist structures and the coloniality in force through socio-technical systems.

    #Intelligence_artificielle #Etudes_décoloniales #Data_colonialism #Colonialisme

  • How the AI industry profits from catastrophe | MIT Technology Review

    Appen is among dozens of companies that offer data-labeling services for the AI industry. If you’ve bought groceries on Instacart or looked up an employer on Glassdoor, you’ve benefited from such labeling behind the scenes. Most profit-maximizing algorithms, which underpin e-commerce sites, voice assistants, and self-driving cars, are based on deep learning, an AI technique that relies on scores of labeled examples to expand its capabilities. 

    The insatiable demand has created a need for a broad base of cheap labor to manually tag videos, sort photos, and transcribe audio. The market value of sourcing and coordinating that “ghost work,” as it was memorably dubbed by anthropologist Mary Gray and computational social scientist Siddharth Suri, is projected to reach $13.7 billion by 2030.

    Venezuela’s crisis has been a boon for these companies, which suddenly gained some of the cheapest labor ever available. But for Venezuelans like Fuentes, the rise of this fast-growing new industry in her country has been a mixed blessing. On one hand, it’s been a lifeline for those without any other options. On the other, it’s left them vulnerable to exploitation as corporations have lowered their pay, suspended their accounts, or discontinued programs in an ongoing race to offer increasingly low-cost services to Silicon Valley.

    “There are huge power imbalances,” says Julian Posada, a PhD candidate at the University of Toronto who studies data annotators in Latin America. “Platforms decide how things are done. They make the rules of the game.”

    To a growing chorus of experts, the arrangement echoes a colonial past when empires exploited the labor of more vulnerable countries and extracted profit from them, further impoverishing them of the resources they needed to grow and develop.

    It was, of all things, the old-school auto giants that caused the data-labeling industry to explode.

    German car manufacturers, like Volkswagen and BMW, were panicked that the Teslas and Ubers of the world threatened to bring down their businesses. So they did what legacy companies do when they encounter fresh-faced competition: they wrote blank checks to keep up.

    The tech innovation of choice was the self-driving car. The auto giants began pouring billions into their development, says Schmidt, pushing the needs for data annotation to new levels.

    Like all AI models built on deep learning, self-driving cars need millions, if not billions, of labeled examples to be taught to “see.” These examples come in the form of hours of video footage: every frame is carefully annotated to identify road markings, vehicles, pedestrians, trees, and trash cans for the car to follow or avoid. But unlike AI models that might categorize clothes or recommend news articles, self-driving cars require the highest levels of annotation accuracy. One too many mislabeled frames can be the difference between life and death.

    For over a decade, Amazon’s crowdworking platform Mechanical Turk, or MTurk, had reigned supreme. Launched in 2005, it was the de facto way for companies to access low-wage labor willing to do piecemeal work. But MTurk was also a generalist platform: as such, it produced varied results and couldn’t guarantee a baseline of quality.

    For some tasks, Scale first runs client data through its own AI systems to produce preliminary labels before posting the results to Remotasks, where human workers correct the errors. For others, according to company training materials reviewed by MIT Technology Review, the company sends the data straight to the platform. Typically, one layer of human workers takes a first pass at labeling; then another reviews the work. Each worker’s pay is tied to speed and accuracy, which eggs them on to complete tasks more quickly yet fastidiously.

    Initially, Scale sought contractors in the Philippines and Kenya. Both were natural fits, with histories of outsourcing, populations that speak excellent English and, crucially, low wages. However, around the same time, competitors such as Appen, Hive Micro, and Mighty AI’s Spare5 began to see a dramatic rise in signups from Venezuela, according to Schmidt’s research. By mid-2018, an estimated 200,000 Venezuelans had registered for Hive Micro and Spare5, making up 75% of their respective workforces.

    The group now pools tasks together. Anytime a task appears in one member’s queue, that person copies the task-specific URL to everyone else. Anyone who clicks it can then claim the task as their own, even if it never showed up in their own queue. The system isn’t perfect. Each task has a limited number of units, such as the number of images that need to be labeled, which disappear faster when multiple members claim the same task in parallel. But Fuentes says so long as she’s clicked the link before it goes away, the platform will let her complete whatever units are left, and Appen will pay. “We all help each other out,” she says.

    The group also keeps track of which client IDs should be avoided. Some clients are particularly harsh in grading task performance, which can cause a devastating account suspension. Nearly every member of the group has experienced at least one, Fuentes says. When it happens, you lose your access not only to new tasks but to any earnings that haven’t been withdrawn.

    The time it happened to Fuentes, she received an email saying she had completed a task with “dishonest answers.” When she appealed, customer service confirmed it was an administrative error. But it still took months of pleading, using Google Translate to write messages in English, before her account was reinstated, according to communications reviewed by MIT Technology Review. (“We … have several initiatives in place to increase the response time,” Golden says. “The reality is that we have thousands of requests a day and respond based on priority.”)

    Simala Leonard, a computer science student at the University of Nairobi who studies AI and worked several months on Remotasks, says the pay for data annotators is “totally unfair.” Google’s and Tesla’s self-driving-car programs are worth billions, he says, and algorithm developers who work on the technology are rewarded with six-figure salaries.

    In parallel with the rise of platforms like Scale, newer data-labeling companies have sought to establish a higher standard for working conditions. They bill themselves as ethical alternatives, offering stable wages and benefits, good on-the-job training, and opportunities for career growth and promotion.

    But this model still accounts for only a tiny slice of the market. “Maybe it improves the lives of 50 workers,” says Milagros Miceli, a PhD candidate at the Technical University of Berlin who studies two such companies, “but it doesn’t mean that this type of economy as it’s structured works in the long run.”

    Such companies are also constrained by players willing to race to the bottom. To keep their prices competitive, the firms similarly source workers from impoverished and marginalized populations—low-income youth, refugees, people with disabilities—who remain just as vulnerable to exploitation, Miceli says.

    #Intelligence_artificelle #Annotation #Tags #Etiquetage #Nouvelle_exploitation #Data_colonialisme

  • Timnit Gebru Is Building a Slow AI Movement - IEEE Spectrum

    Timnit Gebru was a well-known scholar in the AI-ethics community long before she got fired by Google in December 2020—but that messy and dramatic incident brought a new level of attention to her work. Google apparently exiled Gebru from its AI ethics team (and subsequently fired the other leader of the team) in response to a paper about the dangers of the large language models that have become so important to the world’s biggest technology companies. The episode created a firestorm in the AI field.

    But Gebru has made the most of the jarring opportunity. In December 2021, she announced the founding of a new organization, the Distributed AI Research Institute (DAIR), which is billed as “a space for independent, community-rooted AI research free from Big Tech’s pervasive influence.” Since then, Gebru has been staffing up. In February, AI and sociology researcher Alex Hanna joined as research director, departing from her Google job with a blistering resignation letter. Gebru and Hanna spoke with IEEE Spectrum about their plans for DAIR.

    Alex Hanna: I’m not necessarily thinking about it from the perspective of the precautionary principle. I’m thinking of it more from the perspective of developing technology that works for people. A lot of the AI research that happens right now is AI for the value of AI itself. A lot of people are thinking about this body of tools known as AI and saying, “Well, everything looks like a nail, and we have this big hammer.”

    We already know that deep learning has problems. These modes of research require organizations that can gather a lot of data, data that is often collected via ethically or legally questionable technologies, like surveilling people in nonconsensual ways. If we want to build technology that has meaningful community input, then we need to really think about what’s best. Maybe AI is not the answer for what some particular community needs.

    It’s interesting to hear you talk about challenges with the data sets. Timnit, in your work on large language models you’ve called attention to problems with existing data sets, including embedded bias. The response I often hear is, essentially, “It’s just too hard to make data sets better.”

    Gebru: If it’s just too hard to build a safe car, would we have cars out there? It goes back to what Alex was saying about a hammer. People think there’s just one way to do it. We’ve been trying to say, “Maybe there’s a different way we can think about this.” If you think [data-set curation] is a necessity, that means it’ll take more time and resources before you put something out there.

    Hanna: This is a point we’ve made over and over. We’ve published on data-set practices and how many of these things go out with not enough attention paid to what’s in them. This data-hungry version of building models started with ImageNet, and it wasn’t until ImageNet was out for about 10 years that people started to dig in and say, “Wait, this [data set] is really problematic.”

    Merci @fil pour le lien.

    #Timnit_Gebru #Alex_Hanna #Intelligence_artificielle #Travail_de_la_donnée

  • Intelligence artificielle : par-delà le bien et le mal ?

    Pour une fois une émission pas conne sur l’IA.

    Pour une fois on entend vraiment dire que les réseaux de neurones et les techniques d’apprentissage qui vont avec ne sont pas toute l’IA.

    Pour une fois on entend quelqu’un qui reprend l’animateur en lui disant que dire « une intelligence artificielle » c’est juste complètement débile, c’est faire la supposition d’une entité autonome, ce qu’elle n’est pas.

    Pour une fois on entend dire que les réseaux de neurones artificiels c’est bien mignon mais que c’est à peine de la science : ce sont des boîtes noires dont on ne sait pas expliquer les résultats.

    Pour une fois on entend expliquer qu’en fait les problèmes d’éthique et leur modélisation (logiques déontiques, etc) ben on a pas attendu les medias mainstream pour travailler dessus.

    Haaaa, respiration, je me sens moins seul ! Putain de merci ! À Raja Chatila en particulier.

  • Hilarant ! : l’intelligence artificielle devrait contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030 Par Jean-François Noulet - RTBF

    Proximus lance « ADA » pour miser sur l’intelligence artificielle et la cybersécurité
    L’intelligence artificielle et la cybersécurité sont au cœur du développement actuel de nos économies. L’intelligence artificielle, ce sont des en quelque sorte des ordinateurs robots, alimentés par des données numériques qui permettent de développer de nouvelles solutions dans de nombreux domaines, tels que la santé, l’énergie, la mobilité, notamment. Cette exploitation de quantités gigantesques données numériques va de pair avec un risque pour la sécurité informatique. La cybersécurité est un enjeu. C’est logique, les risques de cyberattaques augmentent avec l’accroissement de l’utilisation des données numériques. C’est pour se renforcer sur ces deux tableaux et devenir un acteur de premier ordre que Proximus lance « ADA », une filiale dédiée à l’intelligence artificielle et à la cybersécurité.

    Aider la société belge à relever les défis informatiques
    ADA, c’est d’abord un hommage et un clin d’œil à Ada Lovelace, une mathématicienne et écrivaine anglaise de la première moitié du 19e siècle. Elle est considérée comme une pionnière de la programmation informatique.

    Pour créer sa filiale, qui démarrera ses activités le 1er avril, Proximus est parti d’un constat : l’intelligence artificielle et la cybersécurité gagneront en importance dans les années à venir. Que ce soit pour aider à réduire la consommation d’énergie, prédire des erreurs dans les systèmes techniques, améliorer la détection de fraudes, l’intelligence devrait, selon les chiffres cités par Proximus, contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030. En Belgique, cela représenterait une contribution de 330 millions d’euros à l’horizon 2024, selon Proximus.

    Parallèlement au développement de cette nouvelle économie numérique, la cybersécurité est essentielle pour lutter contre les cyberattaques et protéger les activités et les données des particuliers et des entreprises.

    Dans ces domaines où les données sont importantes, Proximus estime être « bien placé pour y jouer un rôle de plus en plus important ». Le groupe belge a développé ces dernières années de l’expertise en la matière, tant en Belgique qu’à l’étranger, via certaines de ses filiales. Ainsi, TeleSign, spécialisé dans les services d’identité digitale et des solutions logicielles « est un partenaire de confiance pour 8 des 10 plus grandes entreprises du monde », affirme Proximus. BICS, autre filiale, est un leader mondial dans le domaine des communications digitales.

    La création de Proximus ADA devrait, selon Guillaume Boutin, le CEO de Proximus, « permettre d’accélérer cette position de leader » et « contribuer à faire de la société belge une société prête au futur ».

    Pour permettre à ce projet de se développer, le CEO de Proximus insiste sur la nécessité d’avoir « des réseaux de dernière génération » pour « permettre cette sécurisation des données ». Avoir des réseaux de « très haut débit » est, explique le CEO, essentiel. Il rappelle l’importance du déploiement de la fibre optique. 

    Miser sur les talents belges
    A son lancement, ADA emploiera une cinquantaine de collaborateurs. L’objectif est d’arriver à 150 personnes d’ici trois ans. Ce que recherche Proximus, ce sont des « experts locaux ». L’idée est de nouer « des collaborations avec le tissu éducatif belge », selon Guillaume Boutin pour qui il s’agit de « former et retenir les talents belges » pour renforcer les équipes d’experts de Proximus. Ingénieurs, spécialistes en cybersécurité et autres en formation sont donc dans le viseur des recruteurs du groupe de télécommunication.

    Ce que Proximus espère, c’est placer la Belgique au centre de l’échiquier mondial dans les deux domaines clés de la cybersécurité et de l’intelligence artificielle.

     #intelligence_artificielle #humour #algorithme #surveillance #ia #biométrie #vidéo-surveillance #bigdata #santé #technologie #facial #en_vedette #ai #transhumanisme

  • Treize Minutes Marseille - Frédéric Audard Transport : et si la solution venait des Suds ? - YouTube

    Treize Minutes Marseille⏱️ Découvrez ces conférences pluridisciplinaires nerveuses, et sympathiques qui donnent treize minutes à six chercheurs pour raconter leurs recherches et entraîner le public dans un butinage intellectuel et convivial. Allant des sciences humaines et sociales aux sciences expérimentales et dans un décor créé pour l’occasion, ces petites conférences s’adressent à tous.

  • L’Etat doit-il nous manipuler pour notre bien (commun) ?

    Les politiques publiques peuvent-elles s’adapter à notre nature humaine ? Doivent-elles nous manipuler pour le faire ? La chercheuse en sciences cognitives Coralie Chevallier et l’économiste Mathieu Perona explorent ces questions dans leur livre "Homo Sapiens dans la cité" (Puf).

    Un paquet de cigarettes dont le prix augmente de 10% en 2020 pour décourager le tabagisme.• Crédits : SOPA Images - Getty
    Bien que l’économie ait mis en avant un #Homo_œconomicus rationnel, l’humain est finalement partiellement irrationnel, mais selon des mécanismes cognitifs connus et donc prévisibles nommés biais comportementaux [ ben voyons...ndc] . Dans leur livre Homo Sapiens dans la cité : comment adapter l’action publique à la psychologie humaine, Coralie Chevallier, chercheuse en sciences cognitives et comportementales à l’ENS-PSL et l’Inserm, et Mathieu Perona, directeur exécutif de l’Observatoire du bien-être du Centre pour la recherche économique et ses applications (CEPREMAP), étudient comment l’évolution a conditionné nos comportements ainsi que le potentiel de ces biais comportementaux.

    Ces mécanismes cognitifs – qui ont trait à la #coopération, à la réputation, à la procrastination et à une série de plus petits réflexes cognitifs – peuvent être des freins à certains comportements des individus, mais ils constituent aussi des leviers d’action qui peuvent être utilisés pour influencer ces mêmes comportements. Comme l’explique Coralie Chevallier à titre d’exemple, "le poids de la complexité administrative est sous-estimé dans l’efficacité de l’action publique or c’est un levier efficace pour améliorer l’accès aux droits financiers." Autre exemple, en Inde, l’économiste Esther Duflo a constaté que le fait de donner un sac de lentilles en échange de chaque injection suffisait à faire augmenter le taux de #vaccination.

    Dans les mains des acteurs publics, ces biais cognitifs particuliers à la nature humaine peuvent être des moyens de manipuler les individus pour leur bien et pour le bien commun. Ces pratiques sont particulièrement utiles dans le domaine de la #santé_publique (tabagisme, vaccination, alcoolisme, don de sang, etc...), de l’éducation et de l’environnement. Par rapport à la vaccination, Coralie Chevallier précise que parmi les outils comportementaux testés, deux fonctionnent : "le premier c’est la simplification du parcours usager, de la prise de rendez-vous à l’inscription automatique pour un deuxième rendez-vous, et le deuxième c’est convaincre. Ceux qui hésite ont des raisons d’hésiter et il faut prendre le temps de la pédagogie." Les messages et images de prévention des effets à long terme du tabagisme ajouté sur les paquets de cigarettes sont un exemple de politique publique ayant recours aux outils comportementaux. Mathieu Perona précise que "ce que fournissent les #sciences_cognitives, c’est un cadre pour mieux repérer l’utilisation des raccourcis de l’esprit humain. Avec, on peut se demander : est-ce que cette utilisation est légitime ou pas ? Est-ce qu’elle sert mon propre intérêt ou pas ?".

    En effet, dans les mains des mauvais acteurs, ces biais peuvent-ils devenir des formes de manipulation ou de paternalisme et avoir des conséquences néfastes sur les individus ? Coralie Chevallier et Mathieu Perona détaillent aussi qu’à partir du moment où les outils comportementaux sont utilisés intentionnellement à l’encontre de l’intérêt des individus, cela cesse d’être #éthique. Les acteurs publics ont ainsi une responsabilité supplémentaire à l’égard des citoyens : réguler les utilisations des biais comportementaux même si "quand on règlemente, on essaye aussi d’influencer le comportement des citoyens dans une certaine direction," rappelle Coralie Chevallier. Comme exemple, Mathieu Perona cite les périodes dites de friction, en particulier la période d’attente obligatoire après l’achat d’une arme à feu instaurée aux Etats-Unis qui empêche les achats impulsifs. Cela a permis une réduction du nombre d’incidents à l’arme à feu.

    Dilemme du capitalisme. Le #capitalisme du « bien commun » cherche sa voie. Le brouet idéologique de l’homo œconomicus surcode l’agir humain, le mutile. Et si la coopération (le #transindividuel) précède sa mise en coupe réglée pour le profit comment fait-on si on la détruit et on l’empêche ?
    #nudge (la face « noble » : l’exemple du signal piéton) #intelligence_sociale (une drôle de version) #cognitivisme #économie

  • With drones and thermal cameras, Greek officials monitor refugees

    Athens says a new surveillance system will boost security, but critics raise alarm over its implications for privacy.

    “Let’s go see something that looks really nice,” says Anastasios Salis, head of information and communications technology at the Greek Migration and Asylum Ministry in Athens, before entering an airtight room sealed behind two interlocking doors, accessible only with an ID card and fingerprint scan.

    Beyond these doors is the ministry’s newly-installed centralised surveillance room.

    The front wall is covered by a vast screen. More than a dozen rectangles and squares display footage from three refugee camps already connected to the system.

    Some show a basketball court in a refugee camp on the island of Samos. Another screen shows the playground and another the inside of one of the containers where people socialise.

    Overhead, lights suddenly flash red. A potential threat has been detected in one of the camps. This “threat” has been flagged by Centaur, a high-tech security system the Greek Migration Ministry is piloting and rolling out at all of the nearly 40 refugee camps in the country.

    Centaur includes cameras and motion sensors. It uses algorithms to automatically predict and flag threats such as the presence of guns, unauthorised vehicles, or unusual visits into restricted areas.

    The system subsequently alerts the appropriate authorities, such as the police, fire brigade, and private security working in the camps.

    From the control room, operators deploy camera-equipped drones and instruct officers stationed at the camp to rush to the location of the reported threat.

    Officers carry smartphones loaded with software that allows them to communicate with the control centre.

    Once they determine the nature and severity of the threat, the control room guides them on the ground to resolve the incident.

    Video footage and other data collected as part of the operation can then be stored under an “incident card” in the system.

    This particular incident is merely a simulation, presented to Al Jazeera during an exclusive tour and preview of the Centaur system.

    The aim of the programme, according to Greek officials, is to ensure the safety of those who live inside the camps and in surrounding communities.

    “We use technology to prevent violence, to prevent events like we had in Moria – the arson of the camp. Because safety is critical for everyone,” Greek Migration Minister Notis Mitarachi told Al Jazeera at the November inauguration of a new, EU-funded “closed-controlled” refugee camp on Kos island, one of the first facilities to be connected to the Centaur system.

    ‘Dystopian’ surveillance project

    Nearly 40 cameras are being installed in each camp, which can be operated from the control room.

    There will also be thermal cameras, drones, and other technology – including augmented reality glasses, which will be distributed to police and private security personnel.

    “This was not to monitor and invade the privacy of the people [in the camps],” said Salis, one of the architects of Centaur. “You’re not monitoring them. You’re trying to prevent bad things from happening.”

    Greek authorities headline this new surveillance as a form of security but civil society groups and European lawmakers have criticised the move.

    “This fits a broader trend of the EU pouring public money into dystopian and experimental surveillance projects, which treat human beings as lab rats,” Ella Jakubowska, policy and campaigns officer at European Digital Rights (EDRi), told Al Jazeera. “Money which could be used to help people is instead used to punish them, all while the surveillance industry makes vast profits selling false promises of magical technology that claims to fix complex structural issues.”

    Recent reporting, which revealed Centaur will be partly financed by the EU COVID Recovery fund, has led a group of European lawmakers to write to the European Commission with their concerns about its implementation.

    Homo Digitalis, a Greek digital rights advocacy group, and EDRi said they made several requests for information on what data protection assessments were carried out before the development and deployment of Centaur.

    Such analysis is required under the EU’s General Data Protection Regulation (GDPR). They have also asked what data will be collected and how long it will be held by authorities. Those requests, they said, have gone unanswered.

    The Greek Migration Ministry did not respond to Al Jazeera’s query on whether an impact assessment was completed, and on policies regarding data retention and the processing of data related to children.

    In Samos, mixed feelings

    Advocates in Samos told Al Jazeera they raised concerns about camp residents being adequately notified about the presence of these technologies.

    But Salis, at the control centre, said this has been achieved through “signs – a lot of signs”, in the camps.

    The system does not currently incorporate facial recognition technology, at least “not yet”, according to Leonidas Petavrakis, a digital software specialist with ESA Security Solutions S.A., one of the companies contracted for the Centaur project.

    The potential use of facial recognition in this context is “a big concern”, said Konstantinos Kakavoulis of Homo Digitalis.

    Facial recognition systems often misidentify people of colour and can lead to wrongful arrests and convictions, according to studies. Human rights organisations globally have called for their use to be limited or banned.

    An EU proposal on regulating artificial intelligence, unveiled by the European Commission in April, does not go far enough to prevent the misuse of AI systems, critics claim.

    For some of those living under the glare of this EU-funded surveillance system, the feeling is mixed.

    Mohammed, a 25-year-old refugee from Palestine living in the new Samos camp, said that he did not always mind the cameras as he thought they might prevent fights, which broke out frequently at the former Samos camp.

    “Sometimes it’s [a] good feeling because it makes you feel safe, sometimes not,” he said but added that the sense of security came at a price.

    “There’s not a lot of difference between this camp and a prison.”

    #Grèce #réfugiés #asile #migrations #surveillance #complexe_militaro-industriel #drones #caméras_thérmiques #Samos #îles #camps_de_réfugiés #Centaur #algorythme #salle_de_contrôle #menace #technologie #EU_COVID_Recovery_fund #reconnaissance_faciale #intelligence_artificielle #AI #IA


    sur ces nouveaux camps de réfugiés fermés (et surveillés) dans les #îles grecques notamment :

    ping @etraces

    • Greece plans automated drones to spot people crossing border

      The Greek Migration Ministry announced it would use EU-funded drones with “Artificial Intelligence” to track people seeking refuge at the border. Promises that they will also improve search and rescue operations ring hollow.

      At the opening of the Thessaloniki International Trade Fair this September, Greek migration minister Notis Mitarakis – otherwise known for dismissing the ongoing evidence of Greek border guards’ brutal and illegal pushbacks of asylum seekers as “fake news” – made national headlines when he introduced his ministry’s latest project: €3.7m funding for drones with “innovative algorithms” that can “automatically identify defined targets of interest” at the Greek border.

      What did he mean? In a demo video, two men – one in sunglasses and a red shirt, another blurred – walk next to a line drawn through a field, with boxes marking them as “person”. As the guy in sunglasses walks closer towards the line, he gets labeled as “person of interest”. He starts running, jumps over the line, runs, lies down on a bench, disappearing from view. When he gets up, the box keeps tracking him.

      EU funding for Greek security projects

      “I actually recognize people from my department in this video”, one IT researcher told us, chuckling, at the Greek Ministry for Migration’s stall at the Thessaloniki Trade Fair on 13 September.

      His department – the Information Technologies Institute at the Center for Research and Technology Hellas (CERTH) – is in a quiet building in the outskirts of Thessaloniki. Here, researchers work on 27 different projects, mostly funded by the European Commission.

      The first time CERTH got funding for a security project was in 2017, when the European Union’s research and innovation program Horizon 2020 paid them to coordinate “ROBORDER”, an €8m project which aimed to develop and pilot “a fully autonomous border surveillance system” where, researchers said, robots will be able to identify humans and independently decide if they represent a threat. These days, the CERTH researcher says, there is a lot of interest from European institutions for funding “security projects”.


      Now, REACTION, or “Real-Time Artificial Intelligence for Border Surveillance” will also be CERTH-coordinated and funded by the European Commission’s Migration and Home Affairs Fund. It is set to start in November 2022, and run for 36 months.

      Computer scientist Stathes Hadjiefthymiades, who is part of the REACTION team, said they want to combine the research from ROBORDER and “AIDERS” – another EU-funded project aimed at processing data from drones, sensors and cameras to “improve emergency responses” in case of a fire, flood or shipwreck. The aim, he says, is to bring the technologies – “or goodies”, as he calls them – into the hands of the police, who want drones (as well as thermal sensors, motion detectors and cameras already installed at the Greek border) to alert them of border crossings.

      Once alerted, law enforcement will “not necessarily” stop people from crossing into Greece, Mr Hadjiefthymiades said. They could also be arrested or brought to camps and be instructed on how to apply for asylum. He added that pushbacks, which Amnesty International describes as “Greece’s de facto border policy”, are “in the news” but he does not believe that Greek border guards are pushing boats of asylum seekers back to Turkey.

      “Innovative algorithms”

      In his speech at the Thessaloniki Trade Fair, migration minister Mr Mitarakis said REACTION’s “use of artificial intelligence” will allow drones to identify and monitor “targets of interest”. However, one young man from the research consortium told us that “[the Migration Ministry] do not really know anything about what we are doing”, because they are “in a different field” and are “end users”.

      At the Thessaloniki Trade Fair, three drones were on display at the Greek Migration Ministry’s stall. Two were from the Chinese commercial drone maker DJI. The third was wrapped in wires and was, a presenter explained, trained to do what Mr Mitarakis said: scan an area, and, if it spots something “more interesting”, like a person crossing a border, independently change its course to track this person. However, the presenter told us, it is the only drone they have that can do this, because “on-board processing” is very expensive and requires a lot of energy.

      Mr Hadjiefthymiades confirmed that they were “dealing with reduced-size drones with limited on-board power. We are struggling to do on-board intelligence with off-the-shelf drones.”

      In the brochure for REACTION, the Greek migration ministry says that one of the project’s aims is “to use the funding to buy equipment needed for the border project.”

      Search and Rescue

      After police are alerted about a person or vehicle crossing the Greek border, “they will go see what is happening”, the young man from the research consortium told us. A woman, overhearing this, said angrily, “I will tell you what they do, they will either come with guns to shoot, or they will beat them”. Later, the young man admitted, “For me, the one thing is, I don’t know exactly what the police will do to the migrants after we alert them.” He grimaced. “But what can I do,” he said.

      When asked about REACTION’s claim that it will be used for “search and rescue”, the young man said he believed that people at the “Multimedia Knowledge Lab” at CERTH are training an algorithm to spot if someone is injured at the border. But Yiannis Kompatsiaris, a senior researcher there, told us that his lab is not currently training such an algorithm.

      In recent years, the Greek Coast Guard, like other European authorities, was repeatedly accused of delaying rescue operations. Earlier this month, Deutsche Welle published a report which showed that Greek authorities left a group of 38 asylum-seekers stranded on an islet on the Evros river, which marks most of the border between Greece and Turkey, despite a nearby pylon with heat sensors and cameras, which should have been able to immediately locate the group.

      Since 2017, open-source researcher Phevos Simeonidis tracks local and EU-funded border surveillance projects in Greece. So far, he says, “this ever-increasing apparatus always seems to fall short of assisting search and rescue, and also evidently turns a blind eye when footage or data could help individuals substantiate claims that they have been victims of human rights violations.”


      #AI #IA #intelligence_artificielle #Real-Time_Artificial_Intelligence_for_Border_Surveillance #REACTION #ROBORDER #AIDERS #CERTH

  • A New Year’s Letter from the President | SQUARE ENIX HOLDINGS

    Another term that gained quick currency in 2021 was “NFT” or “non-fungible token.” The advent of NFTs using blockchain technology significantly increased the liquidity of digital goods, enabling the trading of a variety of such goods at high prices and sparking conversations the world over. I see 2021 not only as “Metaverse: Year One,” but also as “NFTs: Year One” given that it was a year in which NFTs were met with a great deal of enthusiasm by a rapidly expanding user base.

    #jeu_vidéo #jeux_vidéo #square_enix #business #blockchain #nft #vœux #ai #intelligence_artificielle #ia #nouvel_an

  • Website erstellen mit KI: Fünf Website-Baukästen im Test

    3.12.2021 von Andreas Hitzig - Ohne viel Aufwand zur Website – das verspricht Künstliche Intelligenz. Ob Webdesigner nun komplett überflüssig werden, zeigt unser Test von fünf KI-Tools.

    Dieser Artikel nimmt fünf interessante Kandidaten genauer unter die Lupe und untersucht sie auf ihre KI-Fähigkeiten. Dabei handelt es sich konkret um die Webdienste Wix, Jimdo, 10Web, Bookmark und Zyro. Wir zeigen, an welchen Stellen die KI bei der Umsetzung der Websites zum Einsatz kommt und wie gut ihre Arbeit wirklich ist.

    #www #site_web #hosting #création #business #intelligence_artificiellle #magasin_en_ligne

  • Hypermarchés, la chute de l’empire

    Le modèle de l’hypermarché a-t-il fait son temps ? Ce concept révolutionnaire du « tout sous le même toit », popularisé en 1963 par Carrefour, a conquis le monde entier. Aujourd’hui pourtant, le pionnier français, comme ses concurrents, a un genou à terre. En cause notamment, la crise du gigantisme, associé à une déshumanisation du commerce et à la surconsommation, pointée du doigt à l’heure des grands défis écologiques, mais aussi la concurrence du e-commerce. Désormais, tout le secteur cherche à sauver ce qui peut l’être, quitte à verser dans des pratiques à la limite de la légalité. Pour obtenir des prix toujours plus bas, sans lesquels elles seraient désertées, les grandes enseignes mettent les fournisseurs de plus en plus sous pression.


    #film #film_documentaire #documentaire
    #consommation #grande_distribution #Amazon #hypermarchés #hypermarché #Marcel_Fournier #Carrefour #consommation_de_masse #prix #crise #guerre_des_prix #fournisseurs #omerta #RCD #rétorsions #justice #distributeurs #coopernic #CWT #AgeCore #Horizon_International #Suisse #accords_internationaux #Genève #Nestlé #pratiques_commerciales_abusives #Carrefour_Franchising #franchising #illégalité #Whole_Foods #secteur_alimentaire #Amazon_Fresh #JD.com #robotisation #Agriculture_Brain #industrie_agro-alimentaire #intelligence_artificielle #AI #IA #Slovaquie #Amazon_Prime #concurrence #e-commerce #automatisation #centre-ville #Carrefour_City #technologie