• Ça fait une petite semaine que je joue avec Stable Diffusion (avec DiffusionBee sur Mac). Quelques idées :

    – il faut vraiment se rendre compte à quel point ça commence déjà à être exploitable dans un cadre professionnel ; je ne suis pas certain que ça puisse déjà remplacer un·e illustrateur·ice dans les situations où, réellement, on paie un·e illustrateur·ice (réaliser la production finale) ; mais pour tous ces moments du boulot où de toute façon on « bidouillait » pour faire des scénarios, des proof of concept, sans passer par un·e pro du dessin (perso je faisais parfois moi-même des petits croquis aquarellés, juste pour donner une idée au client ; cette semaine j’ai monté quelques images réalisées avec Stable Diffusion, ça m’a pris dix fois moins de temps et ça rend vachement mieux)… ;

    – les progrès sont juste fulgurants ; ça faisait très longtemps que je n’avais pas été confronté à une évolution technologique tellement rapide qu’elle semble « magique » (je parle de ces moments, très rares, où je vois réellement quelque chose se produire sur mon ordinateur, que je n’imaginais même pas techniquement possible avant).

    – ce que je veux dire ici, c’est que les productions AI sont déjà souvent exploitables dans les situations où, de toute façon, il n’y avait pas réellement un marché professionnel pour ces productions. Mais qu’à la vitesse où ça va, très bientôt ce sera largement exploitable pour un produit final, en concurrence directe avec la production qui, normalement, demande un travail spécifiquement rémunéré.

    – les illustrateur·ices vont prendre très cher, et très vite : il faut vraiment envisager tout de suite la reconversion, parce que c’est pas en dessinant des personnages et des scénettes qu’il va encore y avoir moyen de vivre : même les gens avec une identité graphique identifiée, je pense que ça va être difficile. Pour les autres (pour qui c’est déjà pas facile), je crains que là c’est mort. Après quelques heures avec Stable Diffusion, j’ai déjà produit en quelques minutes une dizaine de personnages illustrés totalement crédibles et parfaitement utilisables pour un jeu en ligne, par exemple : alors certes de mon côté je n’en ai pas l’utilité (pour l’instant), mais ça veut dire que ça c’est quasiment plus un marché pour les vrais gens qui font des vrais dessins. À quel moment l’édition jeunesse va basculer ? Ben à mon avis ça va arriver très très vite, sans doute en commençant par l’entrée de gamme (mais la disparition du « tout venant » finit par assécher la possibilité de survie du qualitatif).

    – je lis que non, c’est pas la disparition du métier, c’est juste une évolution : il faudra travailler autrement, car maîtriser ces outils avec goût et savoir-faire restera un métier. Certainement, mais ce métier existe déjà, il est déjà largement saturé, c’est le métier de graphiste (les graphistes ne sont pas des illustrateur·ices, il·elles ne dessinent pas), qui désormais pourra se passer des illustrateur·ices et largement réaliser le poduit final en dictant ses ordres à une AI plutôt qu’en payant quelqu’un.

    – c’est pas la peine d’en faire une question morale (« ah oui mais il suffit de refuser ») : c’est un marché déjà difficile, les gens y sont largement des prestataires indépendants, ça va être terrible, on a une technologie qui progresse à une vitesse sidérante, et qui va percuter de plein fouet un milieu de travailleurs indépendants déjà souvent en limite de paupérisation ;

    – ne pas compter sur le droit pour protéger le métier traditionnel. Je vois bien qu’il y a des histoires de propriété intellectuelle en ce moment, ça joue sur les illustrateur·ices déjà établis dont on utilise la production pour entraîner les modèles, mais c’est temporaire, à mon avis ça va se résoudre rapidement, et il n’y aura aucun moyen de poursuivre des productions par AI sur la base du plagiat (il est très difficile de poursuivre quelqu’un qui produit dans « le même style que » s’il n’y a pas plagiat direct). Et comme c’est un milieu de petits producteurs indépendants, il n’y aura même pas d’outils de financements « socialisés » façon racket des ayants-droits de la musique.

  • Sorvegliare in nome della sicurezza: le Agenzie Ue vogliono carta bianca

    Il nuovo regolamento di #Europol mette a rischio la #privacy di milioni di persone mentre #Frontex, chiamata a controllare le frontiere, punta sull’intelligenza artificiale e la biometria per fermare i migranti. Provando a eludere la legge.

    C’è una lotta interna nel cuore delle istituzioni europee il cui esito toccherà da vicino il destino di milioni di persone. Lo scontro è sul nuovo regolamento di Europol, l’Agenzia europea di contrasto al crimine, entrato in vigore a fine giugno 2022 con la “benedizione” del Consiglio europeo ma che il Garante per la protezione dei dati (Gepd) definisce un “colpo allo Stato di diritto”. “La principale controversia riguarda la possibilità per l’Agenzia di aggirare le proprie regole quando ha ‘bisogno’ di trattare categorie di dati al di fuori di quelli che può raccogliere -spiega Chloé Berthélémy, policy advisor dell’European digital rights (Edri), un’organizzazione che difende i diritti digitali nel continente-. Uno scandalo pari a quanto rivelato, quasi un decennio fa, da Edward Snowden sulle agenzie statunitensi che dimostra una tendenza generale, a livello europeo, verso un modello di sorveglianza indiscriminata”.

    Con l’obiettivo di porre un freno a questa tendenza, il 22 settembre di quest’anno il presidente del Gepd, Wojciech Wiewiórowski, ha comunicato di aver intentato un’azione legale di fronte alla Corte di giustizia dell’Unione europea per contestare la legittimità dei nuovi poteri attribuiti a Europol. Un momento chiave di questa vicenda è il gennaio 2022 quando l’ufficio del Gepd scopre che proprio l’Agenzia aveva conservato illegalmente un vasto archivio di dati sensibili di oltre 250mila persone, tra cui presunti terroristi o autori di reati, ma soprattutto di persone che erano entrate in contatto con loro. Secondo quanto ricostruito dal Guardian esisteva un’area di memoria (cache) detenuta dall’Agenzia contenente “almeno quattro petabyte, equivalenti a tre milioni di cd-rom” con dati raccolti nei sei anni precedenti dalle singole autorità di polizia nazionali. Il Garante ordina così di cancellare, entro un anno, tutti i dati più “vecchi” di sei mesi ma con un “colpo di mano” questa previsione viene spazzata via proprio con l’entrata in vigore del nuovo regolamento. “In particolare, due disposizioni della riforma rendono retroattivamente legali attività illegali svolte dall’Agenzia in passato -continua Berthélémy-. Ma se Europol può essere semplicemente esentata dai legislatori ogni volta che viene colta in flagrante, il sistema di controlli ed equilibri è intrinsecamente compromesso”.

    L’azione legale del Gepd ha però un ulteriore obiettivo. In gioco c’è infatti anche il “modello” che l’Europa adotterà in merito alla protezione dei dati: da un lato quello americano, basato sulla sorveglianza pressoché senza limiti, dall’altro il diritto alla protezione dei dati che può essere limitato solo per legge e con misure proporzionate, compatibili con una società democratica. Ma proprio su questo aspetto le istituzioni europee vacillano. “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’ che hanno come finalità l’identificazione di individui che potranno potenzialmente essere coinvolti nella commissione di reati”, sottolinea ancora la ricercatrice. Significa, in altri termini, l’analisi di grandi quantità di dati predeterminati (come sesso e nazionalità) mediante algoritmi e tecniche basate sull’intelligenza artificiale che permetterebbero, secondo i promotori del modello, di stabilire preventivamente la pericolosità sociale di un individuo.

    “Questo approccio di polizia predittiva si sviluppa negli Stati Uniti a seguito degli attentati del 2001 -spiega Emilio De Capitani, già segretario della Commissione libertà civili (Libe) del Parlamento europeo dal 1998 al 2011 che da tempo si occupa dei temi legati alla raccolta dei dati-. Parallelamente, in quegli anni, inizia la pressione da parte della Commissione europea per sviluppare strumenti di raccolta dati e costruzione di database”.

    “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’” – Chloé Berthélémy

    Fra i primi testi legislativi europei che si fondano sulla raccolta pressoché indiscriminata di informazioni c’è la Direttiva 681 del 2016 sulla raccolta dei dati dei passeggeri aerei (Pnr) come strumento “predittivo” per prevenire i reati di terrorismo e altri reati definiti come gravi. “Quando ognuno di noi prende un aereo alimenta due archivi: l’Advanced passenger information (Api), che raccoglie i dati risultanti dai documenti ufficiali come la carta di identità o il passaporto permettendo così di costruire la lista dei passeggeri imbarcati, e un secondo database in cui vengono versate anche tutte le informazioni raccolte dalla compagnia aerea per il contratto di trasporto (carta di credito, e-mail, esigenze alimentari, tipologia dei cibi, annotazioni relative a esigenze personali, etc.) -spiega De Capitani-. Su questi dati legati al contratto di trasporto viene fatto un controllo indiretto di sicurezza filtrando le informazioni in relazione a indicatori che potrebbero essere indizi di pericolosità e che permetterebbero di ‘sventare’ attacchi terroristici, possibili dirottamenti ma anche reati minori come la frode o la stessa violazione delle regole in materia di migrazione. Questo perché il testo della Direttiva ha formulazioni a dir poco ambigue e permette una raccolta spropositata di informazioni”. Tanto da costringere la Corte di giustizia dell’Ue, con una sentenza del giugno 2022 a reinterpretare in modo particolarmente restrittivo il testo legislativo specificando che “l’utilizzo di tali dati è permesso esclusivamente per lo stretto necessario”.

    L’esempio della raccolta dati legata ai Pnr è esemplificativo di un meccanismo che sempre di più caratterizza l’operato delle Agenzie europee: raccogliere un elevato numero di dati per finalità genericamente collegate alla sicurezza e con scarse informazioni sulla reale utilità di queste misure indiscriminatamente intrusive. “Alle nostre richieste parlamentari in cui chiedevamo quanti terroristi o criminali fossero stati intercettati grazie a questo sistema, che raccoglie miliardi di dati personali, la risposta è sempre stata evasiva -continua De Capitani-. È come aggiungere paglia mentre si cerca un ago. Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. E a perderci sono soprattutto le categorie meno protette, e gli stessi stranieri che vengono o transitano sul territorio europeo”.

    “Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. Soprattutto le categorie meno protette” – Emilio De Capitani

    I migranti in particolare diventano sempre più il “banco di prova” delle misure distopiche di sorveglianza messe in atto dalle istituzioni europee europee attraverso anche altri sistemi che si appoggiano anch’essi sempre più su algoritmi intesi a individuare comportamenti e caratteristiche “pericolose”. E in questo quadro Frontex, l’Agenzia che sorveglia le frontiere esterne europee gioca un ruolo di primo piano. Nel giugno 2022 ancora il Garante europeo ha emesso nei suoi confronti due pareri di vigilanza che sottolineano la presenza di regole “non sufficientemente chiare” sul trattamento dei dati personali dei soggetti interessati dalla sua attività e soprattutto “norme interne che sembrano ampliare il ruolo e la portata dell’Agenzia come autorità di contrasto”.

    Il Garante si riferisce a quelle categorie speciali come “i dati sanitari delle persone, i dati che rivelano l’origine razziale o etnica, i dati genetici” che vengono raccolti in seguito all’identificazione di persone potenzialmente coinvolte in reati transfrontalieri. Ma quel tipo di attività di contrasto non rientra nel mandato di Frontex come guardia di frontiera ma ricade eventualmente nelle competenze di un corpo di polizia i cui possibili abusi sarebbero comunque impugnabili davanti a un giudice nazionale o europeo. Quindi, conclude il Garante, il trattamento di questi dati dovrebbe essere protetto con “specifiche garanzie per evitare pratiche discriminatorie”.

    Ma secondo Chris Jones, direttore esecutivo del gruppo di ricerca indipendente Statewatch, il problema è a monte. Sono le stesse istituzioni europee a incaricare queste due agenzie di svolgere attività di sorveglianza. “Frontex ed Europol hanno sempre più poteri e maggior peso nella definizione delle priorità per lo sviluppo di nuove tecnologie di sicurezza e sorveglianza”, spiega. Un peso che ha portato, per esempio, a finanziare all’interno del piano strategico Horizon Europe 2020, che delinea il programma dell’Ue per la ricerca e l’innovazione dal 2021 al 2024, il progetto “Secure societies”. Grazie a un portafoglio di quasi 1,7 miliardi di euro è stata commissionata, tra gli altri, la ricerca “ITFlows” che ha come obiettivo quello di prevedere, attraverso l’utilizzo di strumenti di intelligenza artificiale, i flussi migratori. Il sistema predittivo, simile a quello descritto da Berthélémy, è basato su un modello per il quale, con una serie di informazioni storiche raccolte su un certo fenomeno, sarebbe possibile anticipare sugli eventi futuri.

    “Se i dati sono cattivi, la decisione sarà cattiva. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale” – Chris Jones

    “Se le mie previsioni mi dicono che arriveranno molte persone in un determinato confine, concentrerò maggiormente la mia sorveglianza su quella frontiera e potrò più facilmente respingerli”, osserva Yasha Maccanico, ricercatore di Statewatch. Sempre nell’ambito di “Secure societies” il progetto “iBorderCtrl” riguarda invece famigerati “rilevatori di bugie” pseudoscientifici che dedurrebbe lo stato emotivo, le intenzioni o lo stato mentale di una persona in base ai suoi dati biometrici. L’obiettivo è utilizzare questi strumenti per valutare la credibilità dei racconti dei richiedenti asilo nelle procedure di valutazione delle loro richieste di protezione. E in questo quadro sono fondamentali i dati su cui si basano queste predizioni: “Se i dati sono cattivi, la decisione sarà cattiva -continua Jones-. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale”. Per questi motivi AccessNow, che si occupa di tutela dei diritti umani nella sfera digitale, ha scritto una lettera (firmata anche da Edri e Statewatch) a fine settembre 2022 ai membri del consorzio ITFlows per chiedere di terminare lo sviluppo di questi sistemi.

    Anche sul tema dei migranti il legislatore europeo tenta di creare, come per Europol, una scappatoia per attuare politiche di per sé illegali. Nell’aprile 2021 la Commissione europea ha proposto un testo per regolamentare l’utilizzo dell’intelligenza artificiale e degli strumenti basati su di essa (sistemi di videosorveglianza, identificazione biometrica e così via) escludendo però l’applicazione delle tutele previste nei confronti dei cittadini che provengono da Paesi terzi. “Rispetto ai sistemi di intelligenza artificiale quello che conta è il contesto e il fine con cui vengono utilizzati. Individuare la presenza di un essere umano al buio può essere positivo ma se questo sistema è applicato a un confine per ‘respingere’ la persona diventa uno strumento che favorisce la lesione di un diritto fondamentale -spiega Caterina Rodelli analista politica di AccessNow-. Si punta a creare due regimi differenti in cui i diritti dei cittadini di Paesi terzi non sono tutelati come quelli degli europei: non per motivi ‘tecnici’ ma politici”. Gli effetti di scarse tutele per gli uni, i migranti, ricadono però su tutti. “Per un motivo molto semplice. L’Ue, a differenza degli Usa, prevede espressamente il diritto alla tutela della vita privata nelle sue Carte fondamentali -conclude De Capitani-. Protezione che nasce dalle più o meno recenti dittature che hanno vissuto gli Stati membri: l’assunto è che chi è o si ‘sente’ controllato non è libero. Basta questo per capire perché sottende l’adozione di politiche ‘predittive’ e la riforma di Europol o lo strapotere di Frontex, stiano diventando un problema di tutti perché rischiano di violare la Carta dei diritti fondamentali”.

    https://altreconomia.it/sorvegliare-in-nome-della-sicurezza-le-agenzie-ue-vogliono-carta-bianca
    #surveillance #biométrie #AI #intelligence_artificielle #migrations #réfugiés #Etat_de_droit #données #protection_des_données #règlement #identification #police_prédictive #algorythme #base_de_données #Advanced_passenger_information (#Api) #avion #transport_aérien #Secure_societies #ITFlows #iBorderCtrl #asile #

    • New Europol rules massively expand police powers and reduce rights protections

      The new rules governing Europol, which came into force at the end of June, massively expand the tasks and powers of the EU’s policing agency whilst reducing external scrutiny of its data processing operations and rights protections for individuals, says a report published today by Statewatch.

      Given Europol’s role as a ‘hub’ for information processing and exchange between EU member states and other entities, the new rules thus increase the powers of all police forces and other agencies that cooperate with Europol, argues the report, Empowering the police, removing protections (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation).

      New tasks granted to Europol include supporting the EU’s network of police “special intervention units” and managing a cooperation platform for coordinating joint police operations, known as EMPACT. However, it is the rules governing the processing and exchange of data that have seen the most significant changes.

      Europol is now allowed to process vast quantities of data transferred to it by member states on people who may be entirely innocent and have no link whatsoever to any criminal activity, a move that legalises a previously-illegal activity for which Europol was admonished by the European Data Protection Supervisor.

      The agency can now process “investigative data” which, as long it relates to “a specific criminal investigation”, could cover anyone, anywhere, and has been granted the power to conduct “research and innovation” projects. These will be geared towards the use of big data, machine learning and ‘artificial intelligence’ techniques, for which it can process sensitive data such as genetic data or ethnic background.

      Europol can now also use data received from non-EU states to enter “information alerts” in the Schengen Information System database and provide “third-country sourced biometric data” to national police forces, increasing the likelihood of data obtained in violation of human rights being ‘laundered’ in European policing and raising the possibility of third states using Europol as a conduit to harass political opponents and dissidents.

      The new rules substantially loosen restrictions on international data transfers, allowing the agency’s management board to authorise transfers of personal data to third states and international organisations without a legal agreement in place – whilst priority states for international cooperation include dictatorships and authoritarian states such as Algeria, Egypt, Turkey and Morocco.

      At the same time, independent external oversight of the agency’s data processing has been substantially reduced. The threshold for referring new data processing activities to the European Data Protection Supervisor (EDPS) for external scrutiny has been raised, and if Europol decides that new data processing operations “are particularly urgent and necessary to prevent and combat an immediate threat,” it can simply consult the EDPS and then start processing data without waiting for a response.

      The agency is now required to employ a Fundamental Rights Officer (FRO), but the role clearly lacks independence: the FRO will be appointed by the Management Board “upon a proposal of the Executive Director,” and “shall report directly to the Executive Director”.

      Chris Jones, Director of Statewatch, said:

      “The proposals to increase Europol’s powers were published six months after the Black Lives Matter movement erupted across the world, calling for new ways to ensure public safety that looked beyond the failed, traditional model of policing.

      With the new rules agreed in June, the EU has decided to reinforce that model, encouraging Europol and the member states to hoover up vast quantities of data, develop ‘artificial intelligence’ technologies to examine it, and increase cooperation with states with appalling human rights records.”

      Yasha Maccanico, a Researcher at Statewatch, said:

      “Europol has landed itself in hot water with the European Data Protection Supervisor three times in the last year for breaking data protection rules – yet the EU’s legislators have decided to reduce the EDPS’ supervisory powers. Independent, critical scrutiny and oversight of the EU’s policing agency has never been more needed.”

      The report (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation) has been published alongside an interactive ’map’ of EU agencies and ’interoperable’ policing and migration databases (https://www.statewatch.org/eu-agencies-and-interoperable-databases), designed to aid understanding and further research on the data architecture in the EU’s area of freedom, security and justice.

      https://www.statewatch.org/news/2022/november/new-europol-rules-massively-expand-police-powers-and-reduce-rights-prote
      #interopérabilité #carte #visualisation

    • EU agencies and interoperable databases

      This map provides a visual representation of, and information on, the data architecture in the European Union’s “area of freedom, security and justice”. It shows the EU’s large-scale databases, networked information systems (those that are part of the ’Prüm’ network), EU agencies, national authorities and international organisations (namely Interpol) that have a role in that architecture. It is intended to facilitate understanding and further investigation into that architecture and the agencies and activities associated with it.

      https://www.statewatch.org/eu-agencies-and-interoperable-databases
      #réseau #prüm_II

  • Clearview AI condamné à 20 M€ d’amende par la CNIL
    https://iatranshumanisme.com/2022/10/22/clearview-ai-condamne-a-20-me-damende-par-la-cnil

    Clearview AI condamné à 20 M€ d’amende par la CNIL Reconnaissance faciale : sanction de 20 millions d’euros à l’encontre de Clearview AI La CNIL a …

    #Intelligence_Artificielle #Technologie #Photographie #Société

    • Les ressources engrangées devraient donc assurer une « une rentabilité du projet dès sa seconde année de déploiement », précise l’administration fiscale. En effet, le coût du dispositif est estimé à 24 millions d’euros de 2021 à 2023.

      Ah oui quand même...

    • Dans Le Parisien en avril dernier, ce qu’en pensaient les syndicats :

      Chasse aux piscines non déclarées : le partenariat entre le fisc, Google et Capgemini fait grincer des dents - Le Parisien
      https://www.leparisien.fr/economie/chasse-aux-piscines-non-declarees-le-partenariat-entre-le-fisc-google-et-

      Les deux entreprises ont développé, pour le compte de Bercy, un logiciel qui traque les piscines non déclarées. Mais dans les départements tests, notamment dans les Bouches-du-Rhône, les agents déplorent de nombreuses erreurs.

      Certains contribuables se sont déjà déplacés au guichet, furieux de constater leur redressement par le fisc. Dans les centres des impôts des Bouches-du-Rhône, on s’attend même à une vague de colère et d’incompréhension dans les semaines qui viennent. Car depuis plus d’un mois, des milliers de courriers ont été envoyés aux contribuables pour leur signaler une hausse significative de leur prochaine taxe foncière.

      Au total, près de 8500 foyers sont concernés dans le département. La raison de ce redressement de grande ampleur ? Les piscines. Depuis plus d’un an, elles sont la cible du logiciel d’#intelligence_artificielle (#IA) mis en place début 2021 par #Google et développé ensuite par l’entreprise #Capgemini pour le compte de la Direction générale des finances publiques (DGFiP).

      Avant eux, l’entreprise Accenture avait décroché l’appel d’offres de Bercy. Un contrat de 20 millions d’euros pour une expérimentation menée dans trois départements et finalement arrêtée, faute de résultats corrects. Depuis, le duo Google-Capgemini a repris le flambeau pour peaufiner une IA capable d’identifier, grâce aux vues aériennes du cadastre, des piscines, des bâtiments isolés et, à terme, des extensions de maison. « Le premier étage de la fusée est derechercher massivement les piscines qui n’ont pas été déclarées, note Damien Robinet, le secrétaire national du syndicat Solidaires finances publiques. Mais le programme ne marche pas beaucoup mieux avec Capgemini : il y a beaucoup d’erreurs. »

      Un taux d’erreur estimé à 30 %

      Près de Marseille, les inspecteurs des impôts et les géomètres - censés scruter leur secteur pour identifier du bâti non déclaré - sont en effet peu convaincus. « Avec les confinements, les gens se sont rués sur des piscines achetées chez Leroy Merlin ou Castorama, explique Philippe Laget, inspecteur des impôts syndiqué à la CGT. Or, ces piscines, bien souvent hors sol ou installées dans un trou, ne devraient pas être imposées. On considère que s’il faut la démolir pour la faire bouger, par exemple si le contour est cimenté, la piscine devient imposable. Or, le logiciel de l’IA n’a pas ce niveau de précision. »

      Voilà pourquoi on a demandé aux géomètres du fisc de vérifier « via des photos aériennes ou Google Street View, sans bouger de leur bureau pour aller plus vite », les 11 482 détections de piscines de l’IA.

      « Parfois, l’IA a pris des bâches bleues pour des piscines, elle a enregistré des piscines hors sol ou en a oublié... » précise une géomètre du service des Bouches-du-Rhône. Dans les neuf départements qui expérimentent le logiciel, les syndicats estiment que le taux d’erreurs est de 30 %.

      « Après notre recoupage, dans les Bouches-du-Rhône, près de 8500 ménages vont être taxés d’environ 300 euros, selon la commune et le secteur, pour une piscine de 4 m sur 8 m, poursuit la géomètre. Et si la marge d’erreur devrait être faible, il y aura dans le lot des piscines taxées qui ne devraient pas l’être, faute de contrôle précis sur le terrain... » Contacté, le ministère des Finances ne souhaite pas commenter l’expérimentation.

      Un coût passé de 20 à 40 millions d’euros selon les syndicats

      En coulisses, certains syndicats assurent que le contrat avec Capgemini devrait être suspendu plus tôt que prévu, d’ici la fin de l’année, du fait de résultats insatisfaisants. Il faut dire que le deuxième étage de la fusée de l’IA - étudier les bâtis isolés - n’est pas du tout au point.

      « Puisqu’il n’utilise que des vues aériennes, le logiciel ne peut pas faire la différence entre un bâtiment habité et une pergola ou un carport (abri pour voitures), note Frédéric Scalbert, de la CGT. Dans l’un des départements où a lieu l’expérimentation, on a relevé 80 % d’erreurs : l’IA voyait des bâtiments à taxer à la place de bâches, de routes, de trottoirs, de parkings ou de dalles. Tout et n’importe quoi ! »

      À quel prix ? Au ministère des Finances, on préfère garder le silence sur la facture et l’avenir du contrat. Mais les syndicats estiment tous que le coût initial de 20 millions d’euros atteint désormais plus de 40 millions d’euros. « Ce qui est exaspérant c’est qu’en interne, la DGFiP a les ressources pour faire ce travail, râle Frédéric Scalbert. Les géomètres, dont 116 postes ne sont toujours pas remplacés, sont là pour ça. Et quand Capgemini a sous-traité une partie des tâches à une entreprise basée à Madagascar, alors que les dessinateurs du cadastre pouvaient le faire, ça n’est pas passé du tout. »

    • Oh, un lien vers France Soir ;-))

      Dépenser 20 ou 40 millions d’euros en sociétés de service en informatique pour envoyer des redressements indus, qui vont donner lieu à des conflits entre les contribuables et les impôts, c’est plutôt très très très fort en terme d’efficacité financière et de communication, d’autant plus quand on nous dit que ça permet pour un département « pilote » de récupérer à peine 500000 euros pour l’année en cours...

      Et ça houspille les écolos qui questionnent le fait d’avoir une piscine quand l’eau vient à manquer...

  • Une campagne d’ingérence étrangère proaméricaine démantelée sur Twitter et Facebook Jeff Yates - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1907927/ingerence-etrangere-americaine-moyen-orient-iran-asie-centale-faceb

    L’opération était gérée depuis les États-Unis, mais il n’est pas possible de savoir si le gouvernement se cache derrière.

    Des chercheurs ont détecté une campagne clandestine sur les réseaux sociaux visant à promouvoir les intérêts des États-Unis et à alimenter la méfiance envers leurs adversaires, selon un nouveau rapport publié mercredi https://fsi.stanford.edu/news/sio-aug-22-takedowns .

    Cette campagne clandestine, active depuis 2017, visait à influencer les utilisateurs de réseaux sociaux habitant en Asie centrale, en Iran, en Afghanistan et au Moyen-Orient. À l’aide de faux comptes se faisant passer pour des médias et des habitants locaux, la campagne cherchait à attiser le ressentiment envers la Russie, l’Iran et la Chine. Près de la moitié des comptes visaient la population iranienne.

    Les chercheurs, travaillant pour la firme d’analyse des réseaux sociaux Graphika, ainsi que pour l’Observatoire de l’Internet de l’Université Stanford, jugent qu’il s’agit de “la plus vaste opération d’influence pro-occidentale sur les réseaux sociaux jamais analysée par des chercheurs œuvrant dans le renseignement d’origine sources ouvertes (open source)”.

    En tout, l’équipe a analysé près de 300 000 tweets provenant de 146 faux comptes Twitter, ainsi que 39 faux comptes, 16 pages, 2 groupes sur Facebook et 26 comptes Instagram. Les chercheurs ont aussi trouvé des faux comptes associés sur d’autres réseaux sociaux de langue russe. Selon leur analyse, tous ces faux comptes agissaient de façon coordonnée.

    Meta, l’entreprise qui détient Facebook et Instagram, et Twitter ont supprimé l’entièreté du réseau et affirment que ces faux comptes auraient été gérés depuis les États-Unis. Ni ces entreprises ni les chercheurs ne peuvent dire avec certitude qui est derrière cette campagne.

    Les chercheurs notent toutefois qu’une version archivée d’un des faux comptes montre que celui-ci indiquait en 2021 appartenir à CENTCOM, le commandement central des États-Unis, responsable des opérations militaires au Moyen-Orient et en Asie centrale, entre autres.

    Le réseau a même utilisé des portraits générés par l’intelligence artificielle pour créer des faux profils plus réalistes. Ces comptes ont répandu des articles provenant de sites web de faux médias locaux, des caricatures, ainsi que des pétitions comportant un message pro-occidental.

    Quelques faux profils appartenant au réseau et visant le Moyen-Orient. Les photos de profil ont été créées à l’aide de l’intelligence artificielle. Photo : Graphika/Stanford University

    Peu après le début de l’invasion russe de l’Ukraine, plusieurs de ceux-ci ont cherché à dépeindre la Russie comme étant un agresseur et à mettre l’accent sur les atrocités alléguées commises par les soldats russes.

    “Jusqu’à maintenant, presque toute la recherche sur les opérations d’influence se penchait sur des activités liées à des régimes autoritaires. Notre rapport offre un des premiers regards sur une opération clandestine proaméricaine sur les réseaux sociaux”, juge Shelby Grossman, qui fait partie des auteurs du rapport et chercheuse à l’Observatoire de l’Internet de Stanford.

    Elle et ses collègues soulignent que la campagne était relativement de piètre qualité. Certains textes étaient par exemple traduits de l’anglais au russe de façon approximative. Les publications de ces faux comptes ont généré peu d’engouement chez les populations visées. Le tweet moyen associé à cette campagne a reçu 0,49 j’aime et 0,02 retweet, fait remarquer Mme Grossman. . . . . . . .

    #USA #CIA #twitter #facebook #méta #manipulation #algorithmes #réseaux_sociaux #ia #intelligence_artificielle #pétitions #influenceurs #influenceuses #centcom #médias #ukraine

  • À #Calais, une #surveillance du ciel au tunnel

    #Drones, #reconnaissance_faciale, #capteurs_de_CO2 et de battements cardiaques : face à l’afflux de réfugiés, la frontière franco-britannique est surveillée à grands coups d’#intelligence_artificielle. Premier volet de notre série sur la #cybersurveillance des frontières.

    Pablo lève les yeux au ciel et réfléchit. Brusquement, il fixe son ordinateur. Le chargé de communication et plaidoyer chez Human Rights Observers (HRO) fouille dans ses dossiers, ouvre un document d’une quinzaine de pages. « Tu vois, ce jour-là, ils ont utilisé un drone », indique-t-il en pointant l’écran du doigt. Le 9 juin, l’association pour laquelle il travaille assiste à une expulsion de réfugié·es à #Grande-Synthe. Dans son compte-rendu, elle mentionne la présence d’un drone. Des vols d’aéronefs, hélicoptères ou avions, devenus routiniers.

    En cette matinée de fin juin, Pablo a donné rendez-vous sur son lieu de travail, « l’entrepôt », comme il l’appelle. Ce vaste bâtiment désaffecté d’une zone industrielle à l’est de Calais héberge plusieurs associations locales. Les bureaux de HRO sont spartiates : un simple préfabriqué blanc planté dans la cour.

    C’est ici que ses membres se réunissent pour documenter les #violences d’État perpétrées contre les personnes en situation d’exil à la frontière franco-britannique, plus spécifiquement à Calais et à Grande-Synthe. Depuis plus de 20 ans, la ville est érigée en symbole de la crise migratoire. L’évacuation et la destruction de la jungle en octobre 2016 n’ont rien changé. Désormais réparties dans de multiples camps précaires, des centaines de migrants et migrantes tentent le passage vers l’Angleterre au péril de leur vie. Selon le ministère de l’intérieur, ils et elles étaient 52 000 en 2021, un record, contre « seulement » 10 000 en 2020.

    Sous l’impulsion des pouvoirs publics, Calais se barricade. Plus que les maisons de briques rouges, ce sont les #clôtures géantes, les rangées de #barbelés et les #marécages_artificiels qui attirent la vue. Tout semble construit pour décourager les exilé·es de rejoindre la Grande-Bretagne. « Avant, il n’y avait pas tout ça. C’est devenu assez oppressant », regrette Alexandra. Arrivée il y a sept ans dans le Pas-de-Calais, elle travaille pour l’Auberge des migrants, association qui coordonne le projet HRO.

    Quatre #caméras empilées sur un pylône à l’entrée du port rappellent que cette frontière n’est pas que physique. #Vidéosurveillance, #drones, #avions, #détecteurs_de_CO2… Le littoral nord incarne le parfait exemple de la « #smart_border ». Une frontière invisible, connectée. Un eldorado pour certaines entreprises du secteur de l’intelligence artificielle, mais un cauchemar pour les exilé·es désormais à la merci des #algorithmes.

    Si des dizaines de #caméras lorgnent déjà sur le port et le centre-ville, la tendance n’est pas près de s’inverser. La maire LR, #Natacha_Bouchart, qui n’a pas donné suite à notre demande d’interview, prévoit d’investir 558 000 euros supplémentaires en #vidéosurveillance en 2022.

    « C’est la nouvelle étape d’une politique en place depuis plusieurs décennies », analyse Pierre Bonnevalle, politologue, auteur d’un long rapport sur le sujet. À Calais, la #bunkérisation remonte, selon le chercheur, au milieu des années 1990. « À cette époque commencent les premières occupations des espaces portuaires par des personnes venues des pays de l’Est qui souhaitaient rejoindre la Grande-Bretagne. Cela entraîne les premières expulsions, puis un arrêté pris par la préfecture pour interdire l’accès au port. »

    Les années suivantes, c’est à #Sangatte que se dessinent les pratiques policières d’aujourd’hui. Dans cette commune limitrophe de Calais, un hangar préfigure ce que sera la « #jungle » et héberge jusqu’à 2 000 exilé·es. « La police cible alors tous ceux qui errent dans la ville, tentent d’ouvrir des squats, de dormir dans un espace boisé. » Une manière de « contenir le problème », de « gagner du temps ».

    En parallèle, la ville s’équipe en vidéosurveillance et en barbelés. En 2016, l’expulsion de la jungle fait émerger la politique gouvernementale actuelle : l’#expulsion par les forces de l’ordre, toutes les 24 ou 48 heures, des camps où vivent les personnes exilées.

    #Surveillance_aérienne

    Calme et grisâtre en ce jour de visite, le ciel calaisien n’est pas épargné. Depuis septembre 2020, l’armée britannique fait voler un drone #Watchkeeper, produit par l’industriel français #Thales, pour surveiller la mer. « Nous restons pleinement déterminés à soutenir le ministère de l’intérieur britannique alors qu’il s’attaque au nombre croissant de petits bateaux traversant la Manche », se félicite l’armée britannique dans un communiqué.

    Selon des données de vol consultées par Mediapart, un drone de l’#Agence_européenne_pour_la_sécurité_maritime (#AESM) survole également régulièrement les eaux, officiellement pour analyser les niveaux de pollution des navires qui transitent dans le détroit du Pas-de-Calais. Est-il parfois chargé de missions de surveillance ? L’AESM n’a pas répondu à nos questions.

    Au sein du milieu associatif calaisien, la présence de ces volatiles numériques n’étonne personne. « On en voit souvent, comme des hélicoptères équipés de caméras thermiques », confie Marguerite, salariée de l’Auberge des migrants. Chargée de mission au Secours catholique, Juliette Delaplace constate que cette présence complexifie leur travail. « On ne sait pas si ce sont des drones militaires, ou des forces de l’ordre, mais lorsque l’on intervient et que les exilés voient qu’un drone nous survole, c’est très compliqué de gagner leur confiance. »

    En décembre 2021, à la suite d’une demande expresse du ministre de l’intérieur, Gérald Darmanin, l’agence européenne #Frontex a dépêché un #avion pour surveiller la côte pendant plusieurs semaines. « Une mission toujours en cours pour patrouiller aux frontières française et belge », précise Frontex.

    « On sent une évolution des #contrôles depuis l’intervention de cet avion, qui a œuvré principalement la nuit, confie le maire d’une ville du Nord. Beaucoup de gens tentaient de monter dans des camions, mais cela a diminué depuis que les contrôles se sont durcis. »

    Il faut dire que la société #Eurotunnel, qui gère le tunnel sous la Manche, ne lésine pas sur les moyens. En 2019, elle a dépensé 15 millions d’euros pour installer des sas « #Parafe » utilisant la reconnaissance faciale du même nom, mise au point par Thales. Lors du passage de la frontière, certains camions sont examinés par des capteurs de CO2 ou de fréquence cardiaque, ainsi que par de l’#imagerie par #ondes_millimétriques, afin de détecter les personnes qui pourraient s’être cachées dans le chargement.

    « C’est un dispositif qui existe depuis 2004, lorsque Nicolas Sarkozy a fait évacuer le camp de Sangatte, informe un porte-parole d’Eurotunnel. Depuis 2015, il y a tellement de demandes de la part des routiers pour passer par ce terminal, car ils peuvent recevoir des amendes si un migrant est trouvé dans leur camion, que nous avons agrandi sa capacité d’accueil et qu’il fait partie intégrante du trajet. »

    Des outils de plus en plus perfectionnés qui coïncident avec l’évolution des modes de passage des personnes exilées, analyse le politologue Pierre Bonnevalle. « Pendant longtemps, il s’agissait de surveiller les poids lourds. Le #port et le #tunnel sont aujourd’hui tellement bunkérisés que les exilés traversent en bateau. »

    Les technologies employées suivent : en novembre 2021, le ministère de l’intérieur annonçait la mise à disposition de 4 x 4, de lunettes de vision nocturne ou de #caméras_thermiques pour équiper les gendarmes et policiers chargés de lutter contre l’immigration clandestine sur les côtes de la Manche.

    « Ces technologies ne servent à rien, à part militariser l’espace public. J’ai encore rencontré des associatifs la semaine dernière qui me disaient que cela n’a aucun impact sur le nombre de passages et les risques pris par ces gens », tempête l’eurodéputé et ancien maire de Grande-Synthe Damien Carême.

    Elles ont malgré tout un #coût : 1,28 milliard d’euros depuis 1998, selon Pierre Bonnevalle, dont 425 millions pour la seule période 2017-2021. « C’est une estimation a minima, pointe-t-il. Cela ne prend pas en compte, par exemple, le coût des forces de l’ordre. »

    Publié en novembre 2021, un rapport de la commission d’enquête parlementaire sur les migrations détaille les dépenses pour la seule année 2020 : l’État a investi 24,5 millions dans des dispositifs humanitaires d’hébergement, contre 86,4 pour la mobilisation des forces de l’ordre. Des sommes qui désespèrent Pablo, le militant de Human Rights Observers. « Cela aurait permit de bâtir de nombreux centres d’accueil pour que les exilés vivent dans des conditions dignes. » L’État semble avoir d’autres priorités.

    #technologie #frontières #contrôles_frontaliers #asile #migrations #réfugiés #surveillance_des_frontières #militarisation_des_frontières #IA #AI #complexe_militaro-industriel #Manche #La_Manche #France #UK #Angleterre
    –-

    via @olaf #merci :
    https://seenthis.net/messages/968794

  • Prédire les flux migratoires grâce à l’intelligence artificielle, le pari risqué de l’Union européenne
    https://disclose.ngo/fr/article/union-europeenne-veut-predire-les-flux-migratoires-grace-a-lintelligence-a

    Depuis plusieurs mois, l’Union européenne développe une intelligence artificielle censée prédire les flux migratoires afin d’améliorer l’accueil des migrants sur son sol. Or, selon plusieurs documents obtenus par Disclose, l’outil baptisé Itflows pourrait vite se transformer en une arme redoutable pour contrôler, discriminer et harceler les personnes cherchant refuge en Europe. Lire l’article

    • C’est un logiciel qui pourrait sa place dans une dystopie. Une intelligence artificielle capable de compiler des milliers de données afin de prédire des flux migratoires et identifier les risques de tensions liées à l’arrivée de réfugiés aux frontières de l’Europe. Son nom : Itflows, pour « outils et méthodes informatiques de gestion des flux migratoires ». Financé à hauteur de 5 millions d’euros par l’Union européenne et développé par un consortium composé d’instituts de recherche, d’une société privée (Terracom) et d’organisations caritatives, Itflows qui est en phase de test devrait rentrer en service à partir d’août 2023. Et ce, malgré des alertes répétées quant aux risques de détournement de ses capacités prédictives à des fins de contrôle et de restrictions des droits des réfugiés sur le sol européen.

      Encore méconnu, ce programme doit venir compléter un dispositif technologique destiné à la surveillance des frontières, notamment espagnoles, italiennes et grecques. Financé sur le budget d’« Horizon 2020 », le programme de recherche et d’innovation de l’Union européenne, Itflows s’ajoutera alors aux drones de surveillance autonome, aux détecteurs de mensonges dans les zones de passages ou à l’utilisation de logiciels d’extraction de données cellulaires.

      D’après notre enquête, les deux ONG contribuent à nourrir l’intelligence artificielle de Itflows en lui fournissant des informations précieuses. Des données directement issues d’entretiens réalisés dans des camps de réfugiés, auprès de Nigérians, de Maliens, d’Érythréens ou encore de Soudanais. Il pourra s’agir d’éléments liés à l’origine ethnique, l’orientation sexuelle ou encore la religion des personnes interrogées. Pour leur contribution, les branches italiennes de la Croix-Rouge et d’Oxfam ont respectivement reçu 167 000 euros et 116 000 euros de fonds publics européens.

      « Nous avons contribué à réaliser trente entretiens de migrants arrivés en Italie au cours des six dernières années », confirme la Croix rouge Italie, sollicitée par Disclose. Une fois analysées, puis rendues accessibles via une application baptisée EUMigraTool, ces informations serviront aux autorités italiennes dans leur analyse « des routes migratoires et des raisons qui poussent les gens à faire le voyage », ajoute l’association. Même son de cloche du côté de Oxfam Italie, qui salue l’intérêt pour « les responsables politiques des pays les plus exposés aux flux migratoires. » Les dirigeants pourront également s’appuyer sur l’analyse des risques politiques liés à l’arrivée de migrants sur leur sol. Le projet inclut en effet la possibilité d’étudier l’opinion publique dans certains pays européens vis-à-vis des migrants à travers une veille sur le réseau social Twitter.
      Des rapports internes alarmants

      En réalité, les risques de détournement du programme existent bel et bien. C’est ce que révèlent des rapports internes (https://www.documentcloud.org/projects/logiciel-itflows-208987) au consortium que Disclose a obtenu à la suite d’une demande d’accès à des documents administratifs. Lesdits rapports, datés de janvier et juin 2021, ont été rédigés par les membres du comité éthique du projet Itflows. Leurs conclusions sont alarmantes. Le premier document, une somme de 225 pages, révèle que « le consortium Itflows est pleinement conscient des risques et des impacts potentiels en matière de droits de l’homme, que les activités de recherche empirique sur les migrations (…) et les développements technologiques prévus dans le projet peuvent poser ». Plus loin, les auteurs enfoncent le clou. Selon eux, les informations fournies par l’algorithme pourraient servir, si elles devaient être utilisées « à mauvais escient », à « stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile ».

      Cinq mois plus tard, le comité éthique rend un second rapport. Il détaille un peu plus le danger : « Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants » ; « risque d’identification physique des migrants » ; « discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge » ; « risque que les migrants puissent être identifiés et sanctionnés pour irrégularités ». Et le régulateur d’alerter sur un autre péril : la poussée des « discours de haine » que pourrait induire une éventuelle diffusion des prédictions du logiciel dans « les zones où les habitants sont informés de déplacements » de populations.
      L’Europe fait la sourde oreille

      Des alertes qui ne semblent pas avoir été entendues. Comme en atteste un bilan dressé lors d’une réunion (https://www.documentcloud.org/documents/22120596-emt-symposium-agenda-16-sep-2021?responsive=1&title=1) en ligne le 16 septembre 2021 par la coordinatrice du comité éthique de Itflows, #Alexandra_Xanthaki, devant des responsables européens, dont #Zsuzsanna_Felkai_Janssen, rattachée à la direction générale des affaires intérieures de la Commission. « Nous avons passé six mois à travailler jour et nuit pour rédiger un rapport instaurant un cadre qui intègre les droits de l’homme », débute la responsable du comité éthique, selon un enregistrement que Disclose s’est procuré. Elle poursuit : « Il me semble pourtant que ce que disent les techniciens de l’équipe aujourd’hui c’est : nous n’en tenons pas compte ». Un manque de précaution qui inquiète jusqu’au sein du conseil d’administration d’Itflows. Joint par Disclose, Alexander Kjærum, analyste pour le conseil danois pour les réfugiés et membre du conseil de surveillance estime en effet qu’il existe « un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières. »

      Sollicitée, la coordinatrice du programme, #Cristina_Blasi_Casagran, assure que le logiciel « ne sera pas utilisé à mauvais escient ». Selon elle, Itflows « devrait même faciliter l’entrée des migrants [dans l’Union européenne] en permettant une meilleure affectation des ressources engagées dans l’#accueil ».

      #Frontex inquiète

      Un dernier point vient renforcer le risque d’un détournement du logiciel : l’intérêt de Frontex pour Iflows. D’après des documents internes, l’agence en charge de la surveillance des frontières de l’UE suit étroitement les avancées du programme. Jusqu’à y contribuer activement via la fourniture de données récoltées dans le cadre de ses missions. Or, depuis plusieurs années, l’agence européenne est régulièrement accusée d’expulsions illégales et de violations des droits de l’homme. Interrogée sur ce point, l’ONG Oxfam considère qu’il n’y a pas de risque de détournement du logiciel au profit de l’agence. La branche italienne de la Croix rouge déclare quant à elle que « la convention de subvention régissant la mise en œuvre du projet Itflows ne désigne pas Frontex comme utilisateur de l’outil, mais simplement comme source de données ouvertes ». En 2021, Frontex a élu l’interface Itflows parmi les projets d’Horizon 2020 au « potentiel opérationnel et innovant » le plus élevé.

      #AI #IA #intelligence_artificielle #complexe_militaro-industriel #asile #migrations #frontières #EU #UE #Union_européenne #prédiction #Itflows #contrôle #logiciel #risques #Terracom #surveillance #Espagne #Italie #Grèce #horizon_2020 #camps_de_réfugiés #Croix-Rouge #Oxfam #religion #origine_ethnique #ethnie #orientation_sexuelle #données #EUMigraTool #risques #risques_politiques #twitter #réseaux_sociaux #opinion_publique #technologie #algorithme #discrimination #identification #Croix_Rouge

      ping @reka @isskein @karine4 @_kg_

  • #Infernet / Tay les agents conversationnels sont des cons
    https://www.blast-info.fr/articles/2022/infernet-tay-les-agents-conversationnels-sont-des-cons-VfabKlwDThWcH-rSdD

    Internet peut être défini comme un couplage : couplage entre les réseaux de télécommunication et l’hypertexte, document ou ensemble de documents informatiques permettant de passer d’une information à une autre par un système de liens. L’hypertexte est le…

    #Intelligence_artificielle
    https://static.blast-info.fr/stories/2022/thumb_story_list-infernet-tay-les-agents-conversationnels-sont-des

  • TAY : L’INTELLIGENCE ARTIFICIELLE DEVENUE NAZIE EN 24H SUR TWITTER
    https://www.youtube.com/watch?v=mtpanIOCRQw

    « De même qu’après avoir détruit la planète, exterminé une immense partie des espèces animales et appauvri les neufs dixièmes des êtres humains au profit d’une minorité toujours plus réduite de bénéficiaires, le capitalisme finira nécessairement par se dévorer lui-même, les réseaux sociaux, par nature, ne seront plus un jour peuplés que par deux espèces : les trolls et les agents conversationnels, et ils seront indiscernables. Parce que le danger représenté par l’Intelligence artificielle n’est pas que des machines puissent commencer à penser comme nous.

    Le danger, c’est que nous puissions nous mettre à penser comme elles. Le problème n’est pas que les agents conversationnels soient des cons. Le problème, c’est que, à force de coexister avec eux et de vivre dans un milieu favorable à leur expansion, nous finissions par éteindre notre sensibilité afin de devenir leurs semblables. »

    Chroniqueur : Pacôme Thiellement
    Réalisateur : Mathias Enthoven
    Montage : Camille Chalot
    Images : Ameyes Aït-Oufella
    Son : Baptiste Veilhan
    Graphisme : Adrien Colrat
    Diffusion : Maxime Hector
    Production : Thomas Bornot
    Rédaction en chef : Soumaya Benaissa

    #Tay #troll
    #Intelligence
    #Infernet

  • Tay : l’intelligence artificielle devenue nazie en 24h sur #Twitter
    https://www.blast-info.fr/emissions/2022/tay-lintelligence-artificielle-devenue-nazie-en-24h-sur-twitter-zal8fhkuS

    De même qu’après avoir détruit la planète, exterminé une immense partie des espèces animales et appauvri les neufs dixièmes des êtres humains au profit d’une minorité toujours plus réduite de bénéficiaires, le capitalisme finira nécessairement par se…

    #Intelligence_artificielle
    https://static.blast-info.fr/stories/2022/thumb_story_list-tay-lintelligence-artificielle-devenue-nazie-en-2

  • Une start-up israélienne produit le premier miel fabriqué par intelligence artificielle
    https://fr.timesofisrael.com/une-start-up-israelienne-produit-le-1er-miel-fabrique-par-intellig
    Dans un kibboutz de Galilée, une start-up israélienne construit des ruches robotisées qui surveillent les abeilles 24 heures sur 24 et permettent de réduire la mortalité de ces pollinisateurs majeurs, garants de la sécurité alimentaire.

    « Il y a deux millions d’abeilles ici », dit Shlomki Frankin en entrant dans un conteneur blanc de 12 mètre carrés, posé en plein milieu des champs d’avocats du kibboutz Bet Haemek, dans le nord d’Israël.


    Un ingénieur installe de nouvelles ruches, dans le cadre du projet high-tech Beehome, dans le kibboutz israélien Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP)

    Le conteneur appelé « Beehome » (maison des abeilles en anglais) peut abriter 24 ruches, explique à l’AFP l’apiculteur de 41 ans qui porte un chapeau avec un voile pour se protéger des éventuelles piqûres.

    Ces maisons d’abeilles fonctionnent comme des ruches normales en bois, si ce n’est qu’elles sont gérées par un robot placé à l’intérieur qui surveille ces insectes, contrôle leur habitat et leur procure des soins, précise M. Frankin qui travaille pour la société Beewise à l’origine de la méga ruche.

    Venu effectuer une visite de contrôle, il observe l’appareil électrique qui se déplace au centre du caisson bourdonnant et vient tirer un cadre de miel où sont agglutinées des abeilles mellifères.

    Intelligence artificielle 
    « Le robot est équipé de capteurs qui lui permettent de savoir ce qu’il se passe dans les cadres », explique à l’AFP Netaly Harari, directrice des opérations de Beewise.

    « Grâce à l’intelligence artificielle, notre logiciel sait ce dont les abeilles ont besoin », dit-elle dans l’atelier où sont assemblées les grandes ruches métalliques.

    Le robot peut en outre distribuer automatiquement du sucre, de l’eau, des médicaments.

    En cas de problème, il alerte l’apiculteur via une application. Ce dernier peut alors intervenir à distance depuis son ordinateur et se déplacer si nécessaire.


    Un apiculteur travaille sur une ruche robotisée, du projet high-tech Beehome, au kibboutz Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP)

    La méga ruche, qui fonctionne à l’énergie solaire, peut aussi réguler la température, éliminer les nuisances et même extraire du miel, grâce à une centrifugeuse intégrée, affirme Netaly Harari.

    La start-up va pour la première fois produire du miel à partir de la fin mai, le « premier miel au monde fabriqué avec l’intelligence artificielle ! », s’enthousiasme Mme Harari.

    Pour Shlomki Frankin, « le robot est un outil pour l’apiculteur, mais il ne le remplace pas ».

    « Je peux effectuer beaucoup de tâches simples à distance comme agrandir la ruche ou la réduire (…) ou bien laisser le robot faire cela et me concentrer sur d’autres tâches », dit-il ajoutant « gagner beaucoup de temps ».

    Une centaine de ces ruches robotisées ont déjà été déployées en Israël et une dizaine aux Etats-Unis. Beewise lorgne une entrée sur le marché européen dans deux ans.

    En avril, la start-up créée en 2018, qui compte plus de 100 employés, a levé environ 76 millions d’euros d’investissement pour développer ses exportations.


    _ Un ingénieur installe de nouvelles ruches, dans le cadre du projet high-tech Beehome, dans le kibboutz israélien Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP)

    Journée mondiale
    Selon le professeur Sharoni Shafir qui dirige le centre d’étude des abeilles de l’université hébraïque à Rehovot, la technologie peut aider à protéger les colonies d’abeilles de plus en plus fragilisées.

    « Parfois, un apiculteur met plusieurs mois à se rendre compte d’un problème, avec le robot, il peut s’occuper du problème en temps réel, cela réduit la mortalité des abeilles », dit-il à l’AFP.

    Ces dernières années, beaucoup d’entre elles ont disparu dans le monde, victimes du ‘syndrome d’effondrement des colonies’, imputé à la combinaison de plusieurs facteurs.

    « La diminution des champs de fleurs sous l’effet de la construction a réduit les sources et la diversification de l’alimentation des abeilles », note l’expert.

    A cela s’ajoute l’utilisation des pesticides, les maladies et les parasites comme le Varroa destructor, un acarien dévastateur, liste le professeur Shafir.


    Une ruche robotisée, du projet high-tech Beehome, au kibboutz Bet Haemek, dans le nord de la Galilée, le 14 mai 2022. (Crédit : JACK GUEZ / AFP) _

    « En Israël, entre 20 et 30 % des ruches disparaissent chaque année », or, « nous dépendons des abeilles », affirme l’entomologiste qui rappelle qu’une part significative de l’alimentation humaine résulte de la pollinisation, assurée par les insectes et qui permet aux plantes de se reproduire.

    Plus de 70 % des cultures – quasiment tous les fruits, légumes, oléagineux et protéagineux, épices, café et cacao – en dépendent très fortement.

    « Les abeilles et autres pollinisateurs sont essentiels à la sécurité alimentaire et à la nutrition », résume l’Organisation des Nations unies pour l’alimentation et l’agriculture (FAO), qui célèbre le 20 mai la Journée mondiale des abeilles pour souligner l’importance de leur préservation.

    #abeilles #agriculture #environnement #apiculture #miel #biodiversité #écologie #fin_du_monde #catastrophe #collapsologie #capitalocène #intelligence_artificielle #robot #pollen #ruches

    • Tout ce qui touche à #Israël doit-il être hors du commun ? Le Monde, sur un projet qui a l’air assez semblable, présente les choses de façon bien plus modeste !

      https://www.lemonde.fr/afrique/article/2022/05/20/en-tunisie-des-ruches-intelligentes-pour-sauver-les-abeilles-et-produire-plu

      En Tunisie, des « ruches intelligentes » pour sauver les abeilles et produire plus et mieux

      Une start-up tunisienne a créé l’application Smart Bee qui permet aux apiculteurs de surveiller la santé des essaims et d’adapter le rucher aux aléas climatiques.

      Elias se précipite vers ses « ruches intelligentes ». L’apiculteur a reçu un signal d’alerte sur son téléphone grâce à une application, 100 % tunisienne et pionnière en Afrique du Nord, destinée à éviter la surmortalité des abeilles et à optimiser la production de miel.

      Sur une colline de son terrain familial à Testour, au nord-ouest de Tunis, Elias Chebbi, 39 ans, ouvre le volet d’une ruche et montre un petit appareil blanc similaire à un décodeur qui mesure les variables et l’avertit de tout incident, via l’application Smart Bee. La start-up tunisienne Beekeeper Tech a mis au point un dispositif de capteurs à infrarouge qui fournit en permanence des données sur l’environnement et la santé des abeilles, pour « un prix abordable ».

    • C’est pas tellement supprimer l’humain qui m’inquiète. Pour ça je veux bien les aider (en commencant par le haut). Et en terme d’humanité, ça fait lgtps qu’Israel à fait cessession.
      C’est contourner le vivant et industrialiser le vivant (libre) le plus grave.

  • Decolonial AI Manyfesto
    https://manyfesto.ai/index.html

    This manyfesto is a provocation, a question, an opening, a dance about a future of AI technologies that is decolonial. We call it manyfesto, since it reflects some visions among many, and we hope to invite exchange, conversation, and the development of statements from people affected by AI technology.

    We begin with the challenge posed by the language we use to talk about AI: language that has emerged, as much of the technology has, dominated by Western male voices, whiteness, and wealth. We seek to uncover, to question, upend, and reinvent the assumptions underlying this language, even as we use it.

    “Artificial” and “intelligence” are loaded terms, their definitions subject to cultural biases. AI is a technology, a science, a business, a knowledge system, a set of narratives, of relationships, an imaginary. Across each facet, our effort is to undo the colonial erasure of non-Western ways of being and knowing. The word “decoloniality,” too, resonates differently in different communities, including with Indigenous peoples and those for whom colonialism is not a history but a present reality. Some reject the term decolonial in this context. We acknowledge both its use and its rejection.

    We do not seek consensus: we value human difference. We reject the idea that any one framework could rule globally. We reject the Western-normative language of “ethical” AI and suggestions of “inclusivity” that do not destabilize current patterns of domination and address power asymmetries. We reject as half-measures any principles meant to tweak, reinforce, and whitewash the status quo, merely blunting its devastation. They fail to acknowledge how the social and the technical are interwoven, and technologies have immaterial as well as material impacts over specific gendered, racialized bodies and territories. Decoloniality rejects the divorcing of the material and immaterial, of feeling from being, knowing, doing or living.

    Notions of decolonial governances will emerge from community and situated contexts, questioning what currently constitutes hegemonic narratives. Decolonialilty is not merely diversity and inclusion; removing the echoes of coloniality in AI will require reparations for present and past material and epistemic injustice and dispossession. These reinventions of AI governance will acknowledge the expertise that comes from lived experience, and create new pathways to make it possible for those who have historically been marginalized to have the opportunity to decide and build their own dignified socio-technical futures. Decolonial governance will recognize, in a way that Western-centric governance structures historically have not, how our destinies are intertwined. We owe each other our mutual futures.

    Our humanity is relational, defined by how we are tied to one another. Technology has an important role in those relationships. Creation, art, stories and sensitive experience are some of the paths that we must explore in order to foster the decolonial imagination. We seek to center the engineering, design, knowledge-production, and dispute-resolution practices of diverse cultures, which are embedded with their own value systems.

    Our urgency arises from humans’ capacity to use AI as a knowledge system to create irrefutable “algorithmic truths” to reinforce domination. In doing so, other systems of knowledge production and other visions are denied and erased, as are other peoples’ agency, autonomy, and contestation. In this way AI coloniality extends beyond data colonialism: AI implies material extractivism, and the use of AI has the capacity to shape reality. Designed in an unequal society, these systems can be employed to reproduce those inequalities. Built with an emphasis on efficiency rather than dignity, they can do irreparable harm. In insisting on a decolonial AI, we stand for the right of each historically marginalized community to reshape reality on their terms.

    Our methods will evolve, sensitive to needs and opportunities, but our aim is to create and hold a resonant forum for learning and exchange from and between voices silenced by colonialist structures and the coloniality in force through socio-technical systems.

    #Intelligence_artificielle #Etudes_décoloniales #Data_colonialism #Colonialisme

  • Timnit Gebru Is Building a Slow AI Movement - IEEE Spectrum
    https://spectrum.ieee.org/timnit-gebru-dair-ai-ethics

    Timnit Gebru was a well-known scholar in the AI-ethics community long before she got fired by Google in December 2020—but that messy and dramatic incident brought a new level of attention to her work. Google apparently exiled Gebru from its AI ethics team (and subsequently fired the other leader of the team) in response to a paper about the dangers of the large language models that have become so important to the world’s biggest technology companies. The episode created a firestorm in the AI field.

    But Gebru has made the most of the jarring opportunity. In December 2021, she announced the founding of a new organization, the Distributed AI Research Institute (DAIR), which is billed as “a space for independent, community-rooted AI research free from Big Tech’s pervasive influence.” Since then, Gebru has been staffing up. In February, AI and sociology researcher Alex Hanna joined as research director, departing from her Google job with a blistering resignation letter. Gebru and Hanna spoke with IEEE Spectrum about their plans for DAIR.

    Alex Hanna: I’m not necessarily thinking about it from the perspective of the precautionary principle. I’m thinking of it more from the perspective of developing technology that works for people. A lot of the AI research that happens right now is AI for the value of AI itself. A lot of people are thinking about this body of tools known as AI and saying, “Well, everything looks like a nail, and we have this big hammer.”

    We already know that deep learning has problems. These modes of research require organizations that can gather a lot of data, data that is often collected via ethically or legally questionable technologies, like surveilling people in nonconsensual ways. If we want to build technology that has meaningful community input, then we need to really think about what’s best. Maybe AI is not the answer for what some particular community needs.

    It’s interesting to hear you talk about challenges with the data sets. Timnit, in your work on large language models you’ve called attention to problems with existing data sets, including embedded bias. The response I often hear is, essentially, “It’s just too hard to make data sets better.”

    Gebru: If it’s just too hard to build a safe car, would we have cars out there? It goes back to what Alex was saying about a hammer. People think there’s just one way to do it. We’ve been trying to say, “Maybe there’s a different way we can think about this.” If you think [data-set curation] is a necessity, that means it’ll take more time and resources before you put something out there.

    Hanna: This is a point we’ve made over and over. We’ve published on data-set practices and how many of these things go out with not enough attention paid to what’s in them. This data-hungry version of building models started with ImageNet, and it wasn’t until ImageNet was out for about 10 years that people started to dig in and say, “Wait, this [data set] is really problematic.”

    Merci @fil pour le lien.

    #Timnit_Gebru #Alex_Hanna #Intelligence_artificielle #Travail_de_la_donnée

  • Intelligence artificielle : par-delà le bien et le mal ?
    https://www.franceculture.fr/emissions/la-methode-scientifique/intelligence-artificielle-par-dela-le-bien-et-le-mal

    Pour une fois une émission pas conne sur l’IA.

    Pour une fois on entend vraiment dire que les réseaux de neurones et les techniques d’apprentissage qui vont avec ne sont pas toute l’IA.

    Pour une fois on entend quelqu’un qui reprend l’animateur en lui disant que dire « une intelligence artificielle » c’est juste complètement débile, c’est faire la supposition d’une entité autonome, ce qu’elle n’est pas.

    Pour une fois on entend dire que les réseaux de neurones artificiels c’est bien mignon mais que c’est à peine de la science : ce sont des boîtes noires dont on ne sait pas expliquer les résultats.

    Pour une fois on entend expliquer qu’en fait les problèmes d’éthique et leur modélisation (logiques déontiques, etc) ben on a pas attendu les medias mainstream pour travailler dessus.

    Haaaa, respiration, je me sens moins seul ! Putain de merci ! À Raja Chatila en particulier.

  • Hilarant ! : l’intelligence artificielle devrait contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030 Par Jean-François Noulet - RTBF

    Proximus lance « ADA » pour miser sur l’intelligence artificielle et la cybersécurité
    https://www.rtbf.be/article/proximus-lance-ada-pour-miser-sur-lintelligence-artificielle-et-la-cybersecurit
    L’intelligence artificielle et la cybersécurité sont au cœur du développement actuel de nos économies. L’intelligence artificielle, ce sont des en quelque sorte des ordinateurs robots, alimentés par des données numériques qui permettent de développer de nouvelles solutions dans de nombreux domaines, tels que la santé, l’énergie, la mobilité, notamment. Cette exploitation de quantités gigantesques données numériques va de pair avec un risque pour la sécurité informatique. La cybersécurité est un enjeu. C’est logique, les risques de cyberattaques augmentent avec l’accroissement de l’utilisation des données numériques. C’est pour se renforcer sur ces deux tableaux et devenir un acteur de premier ordre que Proximus lance « ADA », une filiale dédiée à l’intelligence artificielle et à la cybersécurité.


    Aider la société belge à relever les défis informatiques
    ADA, c’est d’abord un hommage et un clin d’œil à Ada Lovelace, une mathématicienne et écrivaine anglaise de la première moitié du 19e siècle. Elle est considérée comme une pionnière de la programmation informatique.

    Pour créer sa filiale, qui démarrera ses activités le 1er avril, Proximus est parti d’un constat : l’intelligence artificielle et la cybersécurité gagneront en importance dans les années à venir. Que ce soit pour aider à réduire la consommation d’énergie, prédire des erreurs dans les systèmes techniques, améliorer la détection de fraudes, l’intelligence devrait, selon les chiffres cités par Proximus, contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030. En Belgique, cela représenterait une contribution de 330 millions d’euros à l’horizon 2024, selon Proximus.

    Parallèlement au développement de cette nouvelle économie numérique, la cybersécurité est essentielle pour lutter contre les cyberattaques et protéger les activités et les données des particuliers et des entreprises.

    Dans ces domaines où les données sont importantes, Proximus estime être « bien placé pour y jouer un rôle de plus en plus important ». Le groupe belge a développé ces dernières années de l’expertise en la matière, tant en Belgique qu’à l’étranger, via certaines de ses filiales. Ainsi, TeleSign, spécialisé dans les services d’identité digitale et des solutions logicielles « est un partenaire de confiance pour 8 des 10 plus grandes entreprises du monde », affirme Proximus. BICS, autre filiale, est un leader mondial dans le domaine des communications digitales.

    La création de Proximus ADA devrait, selon Guillaume Boutin, le CEO de Proximus, « permettre d’accélérer cette position de leader » et « contribuer à faire de la société belge une société prête au futur ».

    Pour permettre à ce projet de se développer, le CEO de Proximus insiste sur la nécessité d’avoir « des réseaux de dernière génération » pour « permettre cette sécurisation des données ». Avoir des réseaux de « très haut débit » est, explique le CEO, essentiel. Il rappelle l’importance du déploiement de la fibre optique. 

    Miser sur les talents belges
    A son lancement, ADA emploiera une cinquantaine de collaborateurs. L’objectif est d’arriver à 150 personnes d’ici trois ans. Ce que recherche Proximus, ce sont des « experts locaux ». L’idée est de nouer « des collaborations avec le tissu éducatif belge », selon Guillaume Boutin pour qui il s’agit de « former et retenir les talents belges » pour renforcer les équipes d’experts de Proximus. Ingénieurs, spécialistes en cybersécurité et autres en formation sont donc dans le viseur des recruteurs du groupe de télécommunication.

    Ce que Proximus espère, c’est placer la Belgique au centre de l’échiquier mondial dans les deux domaines clés de la cybersécurité et de l’intelligence artificielle.

     #intelligence_artificielle #humour #algorithme #surveillance #ia #biométrie #vidéo-surveillance #bigdata #santé #technologie #facial #en_vedette #ai #transhumanisme

  • With drones and thermal cameras, Greek officials monitor refugees

    Athens says a new surveillance system will boost security, but critics raise alarm over its implications for privacy.

    “Let’s go see something that looks really nice,” says Anastasios Salis, head of information and communications technology at the Greek Migration and Asylum Ministry in Athens, before entering an airtight room sealed behind two interlocking doors, accessible only with an ID card and fingerprint scan.

    Beyond these doors is the ministry’s newly-installed centralised surveillance room.

    The front wall is covered by a vast screen. More than a dozen rectangles and squares display footage from three refugee camps already connected to the system.

    Some show a basketball court in a refugee camp on the island of Samos. Another screen shows the playground and another the inside of one of the containers where people socialise.

    Overhead, lights suddenly flash red. A potential threat has been detected in one of the camps. This “threat” has been flagged by Centaur, a high-tech security system the Greek Migration Ministry is piloting and rolling out at all of the nearly 40 refugee camps in the country.

    Centaur includes cameras and motion sensors. It uses algorithms to automatically predict and flag threats such as the presence of guns, unauthorised vehicles, or unusual visits into restricted areas.

    The system subsequently alerts the appropriate authorities, such as the police, fire brigade, and private security working in the camps.

    From the control room, operators deploy camera-equipped drones and instruct officers stationed at the camp to rush to the location of the reported threat.

    Officers carry smartphones loaded with software that allows them to communicate with the control centre.

    Once they determine the nature and severity of the threat, the control room guides them on the ground to resolve the incident.

    Video footage and other data collected as part of the operation can then be stored under an “incident card” in the system.

    This particular incident is merely a simulation, presented to Al Jazeera during an exclusive tour and preview of the Centaur system.

    The aim of the programme, according to Greek officials, is to ensure the safety of those who live inside the camps and in surrounding communities.

    “We use technology to prevent violence, to prevent events like we had in Moria – the arson of the camp. Because safety is critical for everyone,” Greek Migration Minister Notis Mitarachi told Al Jazeera at the November inauguration of a new, EU-funded “closed-controlled” refugee camp on Kos island, one of the first facilities to be connected to the Centaur system.

    ‘Dystopian’ surveillance project

    Nearly 40 cameras are being installed in each camp, which can be operated from the control room.

    There will also be thermal cameras, drones, and other technology – including augmented reality glasses, which will be distributed to police and private security personnel.

    “This was not to monitor and invade the privacy of the people [in the camps],” said Salis, one of the architects of Centaur. “You’re not monitoring them. You’re trying to prevent bad things from happening.”

    Greek authorities headline this new surveillance as a form of security but civil society groups and European lawmakers have criticised the move.

    “This fits a broader trend of the EU pouring public money into dystopian and experimental surveillance projects, which treat human beings as lab rats,” Ella Jakubowska, policy and campaigns officer at European Digital Rights (EDRi), told Al Jazeera. “Money which could be used to help people is instead used to punish them, all while the surveillance industry makes vast profits selling false promises of magical technology that claims to fix complex structural issues.”

    Recent reporting, which revealed Centaur will be partly financed by the EU COVID Recovery fund, has led a group of European lawmakers to write to the European Commission with their concerns about its implementation.

    Homo Digitalis, a Greek digital rights advocacy group, and EDRi said they made several requests for information on what data protection assessments were carried out before the development and deployment of Centaur.

    Such analysis is required under the EU’s General Data Protection Regulation (GDPR). They have also asked what data will be collected and how long it will be held by authorities. Those requests, they said, have gone unanswered.

    The Greek Migration Ministry did not respond to Al Jazeera’s query on whether an impact assessment was completed, and on policies regarding data retention and the processing of data related to children.

    In Samos, mixed feelings

    Advocates in Samos told Al Jazeera they raised concerns about camp residents being adequately notified about the presence of these technologies.

    But Salis, at the control centre, said this has been achieved through “signs – a lot of signs”, in the camps.

    The system does not currently incorporate facial recognition technology, at least “not yet”, according to Leonidas Petavrakis, a digital software specialist with ESA Security Solutions S.A., one of the companies contracted for the Centaur project.

    The potential use of facial recognition in this context is “a big concern”, said Konstantinos Kakavoulis of Homo Digitalis.

    Facial recognition systems often misidentify people of colour and can lead to wrongful arrests and convictions, according to studies. Human rights organisations globally have called for their use to be limited or banned.

    An EU proposal on regulating artificial intelligence, unveiled by the European Commission in April, does not go far enough to prevent the misuse of AI systems, critics claim.

    For some of those living under the glare of this EU-funded surveillance system, the feeling is mixed.

    Mohammed, a 25-year-old refugee from Palestine living in the new Samos camp, said that he did not always mind the cameras as he thought they might prevent fights, which broke out frequently at the former Samos camp.

    “Sometimes it’s [a] good feeling because it makes you feel safe, sometimes not,” he said but added that the sense of security came at a price.

    “There’s not a lot of difference between this camp and a prison.”

    https://www.aljazeera.com/news/2021/12/24/greece-pilots-high-tech-surveillance-system-in-refugee-camps
    #Grèce #réfugiés #asile #migrations #surveillance #complexe_militaro-industriel #drones #caméras_thérmiques #Samos #îles #camps_de_réfugiés #Centaur #algorythme #salle_de_contrôle #menace #technologie #EU_COVID_Recovery_fund #reconnaissance_faciale #intelligence_artificielle #AI #IA

    –—

    sur ces nouveaux camps de réfugiés fermés (et surveillés) dans les #îles grecques notamment :
    https://seenthis.net/messages/917173

    ping @etraces

    • Greece plans automated drones to spot people crossing border

      The Greek Migration Ministry announced it would use EU-funded drones with “Artificial Intelligence” to track people seeking refuge at the border. Promises that they will also improve search and rescue operations ring hollow.

      At the opening of the Thessaloniki International Trade Fair this September, Greek migration minister Notis Mitarakis – otherwise known for dismissing the ongoing evidence of Greek border guards’ brutal and illegal pushbacks of asylum seekers as “fake news” – made national headlines when he introduced his ministry’s latest project: €3.7m funding for drones with “innovative algorithms” that can “automatically identify defined targets of interest” at the Greek border.

      What did he mean? In a demo video, two men – one in sunglasses and a red shirt, another blurred – walk next to a line drawn through a field, with boxes marking them as “person”. As the guy in sunglasses walks closer towards the line, he gets labeled as “person of interest”. He starts running, jumps over the line, runs, lies down on a bench, disappearing from view. When he gets up, the box keeps tracking him.

      EU funding for Greek security projects

      “I actually recognize people from my department in this video”, one IT researcher told us, chuckling, at the Greek Ministry for Migration’s stall at the Thessaloniki Trade Fair on 13 September.

      His department – the Information Technologies Institute at the Center for Research and Technology Hellas (CERTH) – is in a quiet building in the outskirts of Thessaloniki. Here, researchers work on 27 different projects, mostly funded by the European Commission.

      The first time CERTH got funding for a security project was in 2017, when the European Union’s research and innovation program Horizon 2020 paid them to coordinate “ROBORDER”, an €8m project which aimed to develop and pilot “a fully autonomous border surveillance system” where, researchers said, robots will be able to identify humans and independently decide if they represent a threat. These days, the CERTH researcher says, there is a lot of interest from European institutions for funding “security projects”.

      REACTION

      Now, REACTION, or “Real-Time Artificial Intelligence for Border Surveillance” will also be CERTH-coordinated and funded by the European Commission’s Migration and Home Affairs Fund. It is set to start in November 2022, and run for 36 months.

      Computer scientist Stathes Hadjiefthymiades, who is part of the REACTION team, said they want to combine the research from ROBORDER and “AIDERS” – another EU-funded project aimed at processing data from drones, sensors and cameras to “improve emergency responses” in case of a fire, flood or shipwreck. The aim, he says, is to bring the technologies – “or goodies”, as he calls them – into the hands of the police, who want drones (as well as thermal sensors, motion detectors and cameras already installed at the Greek border) to alert them of border crossings.

      Once alerted, law enforcement will “not necessarily” stop people from crossing into Greece, Mr Hadjiefthymiades said. They could also be arrested or brought to camps and be instructed on how to apply for asylum. He added that pushbacks, which Amnesty International describes as “Greece’s de facto border policy”, are “in the news” but he does not believe that Greek border guards are pushing boats of asylum seekers back to Turkey.

      “Innovative algorithms”

      In his speech at the Thessaloniki Trade Fair, migration minister Mr Mitarakis said REACTION’s “use of artificial intelligence” will allow drones to identify and monitor “targets of interest”. However, one young man from the research consortium told us that “[the Migration Ministry] do not really know anything about what we are doing”, because they are “in a different field” and are “end users”.

      At the Thessaloniki Trade Fair, three drones were on display at the Greek Migration Ministry’s stall. Two were from the Chinese commercial drone maker DJI. The third was wrapped in wires and was, a presenter explained, trained to do what Mr Mitarakis said: scan an area, and, if it spots something “more interesting”, like a person crossing a border, independently change its course to track this person. However, the presenter told us, it is the only drone they have that can do this, because “on-board processing” is very expensive and requires a lot of energy.

      Mr Hadjiefthymiades confirmed that they were “dealing with reduced-size drones with limited on-board power. We are struggling to do on-board intelligence with off-the-shelf drones.”

      In the brochure for REACTION, the Greek migration ministry says that one of the project’s aims is “to use the funding to buy equipment needed for the border project.”

      Search and Rescue

      After police are alerted about a person or vehicle crossing the Greek border, “they will go see what is happening”, the young man from the research consortium told us. A woman, overhearing this, said angrily, “I will tell you what they do, they will either come with guns to shoot, or they will beat them”. Later, the young man admitted, “For me, the one thing is, I don’t know exactly what the police will do to the migrants after we alert them.” He grimaced. “But what can I do,” he said.

      When asked about REACTION’s claim that it will be used for “search and rescue”, the young man said he believed that people at the “Multimedia Knowledge Lab” at CERTH are training an algorithm to spot if someone is injured at the border. But Yiannis Kompatsiaris, a senior researcher there, told us that his lab is not currently training such an algorithm.

      In recent years, the Greek Coast Guard, like other European authorities, was repeatedly accused of delaying rescue operations. Earlier this month, Deutsche Welle published a report which showed that Greek authorities left a group of 38 asylum-seekers stranded on an islet on the Evros river, which marks most of the border between Greece and Turkey, despite a nearby pylon with heat sensors and cameras, which should have been able to immediately locate the group.

      Since 2017, open-source researcher Phevos Simeonidis tracks local and EU-funded border surveillance projects in Greece. So far, he says, “this ever-increasing apparatus always seems to fall short of assisting search and rescue, and also evidently turns a blind eye when footage or data could help individuals substantiate claims that they have been victims of human rights violations.”

      https://algorithmwatch.org/en/greece-plans-automated-drones

      #AI #IA #intelligence_artificielle #Real-Time_Artificial_Intelligence_for_Border_Surveillance #REACTION #ROBORDER #AIDERS #CERTH

  • A New Year’s Letter from the President | SQUARE ENIX HOLDINGS
    https://www.hd.square-enix.com/eng/news/2022/html/a_new_years_letter_from_the_president_2.html

    Another term that gained quick currency in 2021 was “NFT” or “non-fungible token.” The advent of NFTs using blockchain technology significantly increased the liquidity of digital goods, enabling the trading of a variety of such goods at high prices and sparking conversations the world over. I see 2021 not only as “Metaverse: Year One,” but also as “NFTs: Year One” given that it was a year in which NFTs were met with a great deal of enthusiasm by a rapidly expanding user base.

    #jeu_vidéo #jeux_vidéo #square_enix #business #blockchain #nft #vœux #ai #intelligence_artificielle #ia #nouvel_an

  • Hypermarchés, la chute de l’empire

    Le modèle de l’hypermarché a-t-il fait son temps ? Ce concept révolutionnaire du « tout sous le même toit », popularisé en 1963 par Carrefour, a conquis le monde entier. Aujourd’hui pourtant, le pionnier français, comme ses concurrents, a un genou à terre. En cause notamment, la crise du gigantisme, associé à une déshumanisation du commerce et à la surconsommation, pointée du doigt à l’heure des grands défis écologiques, mais aussi la concurrence du e-commerce. Désormais, tout le secteur cherche à sauver ce qui peut l’être, quitte à verser dans des pratiques à la limite de la légalité. Pour obtenir des prix toujours plus bas, sans lesquels elles seraient désertées, les grandes enseignes mettent les fournisseurs de plus en plus sous pression.

    http://www.film-documentaire.fr/4DACTION/w_fiche_film/19158_1

    #film #film_documentaire #documentaire
    #consommation #grande_distribution #Amazon #hypermarchés #hypermarché #Marcel_Fournier #Carrefour #consommation_de_masse #prix #crise #guerre_des_prix #fournisseurs #omerta #RCD #rétorsions #justice #distributeurs #coopernic #CWT #AgeCore #Horizon_International #Suisse #accords_internationaux #Genève #Nestlé #pratiques_commerciales_abusives #Carrefour_Franchising #franchising #illégalité #Whole_Foods #secteur_alimentaire #Amazon_Fresh #JD.com #robotisation #Agriculture_Brain #industrie_agro-alimentaire #intelligence_artificielle #AI #IA #Slovaquie #Amazon_Prime #concurrence #e-commerce #automatisation #centre-ville #Carrefour_City #technologie

  • Contre les migrants, toujours plus de #technologie

    Reporterre s’est rendu au salon #Milipol pour découvrir les innovations technologiques sécuritaires. Elles sont de plus en plus déployées pour repousser les migrants.

    « Viens ici pépère ! » lance un homme élancé en costume-cravate en direction d’un chien-robot en mouvement, faisant mine de lui proposer à manger. Derrière les regards amusés autour du robot développé par l’entreprise étasunienne #Ghost_Robotics, son « maître » le guide avec sa télécommande d’un œil malicieux. Ce chien-robot au look Black Mirror répond au nom de #Q-UGV et sa mission consiste à surveiller des sites ultrasensibles comme les centrales nucléaires.

    Ce surveillant atypique, capable de courir, grimper et nager dans des environnements extrêmes, était l’une des nombreuses innovations présentées sur le salon Milipol de la sécurité intérieure au parc des expositions de Villepinte (Seine-Saint-Denis). Près de 1 000 exposants, dont deux tiers d’entreprises internationales, y ont élu domicile du mardi 19 au vendredi 22 octobre. Plus de 30 000 professionnels de la sécurité publique et privée de 150 pays déambulaient dans les allées. Entre une coupe de champagne et des petits fours, ils s’informaient pour en faire commerce sur les dernières grenades lacrymogènes, les dispositifs de reconnaissance faciale ou les fusils d’assaut.

    L’heure est à la reprise pour le secteur de la #sécurité. « La première des libertés », comme l’a assuré le ministre de l’Intérieur, Gérald Darmanin, lors de sa visite du salon le premier jour. Après avoir subi la crise sanitaire à l’instar d’une large partie de l’économie mondiale, le marché mondial de la #sécurité_intérieure devrait rebondir. Sa prévision de croissance est de 8 % en 2021 et de 6 % en 2022, après une baisse de 3 % en 2020. En France, il n’a pas été épargné non plus et les dépenses étatiques consacrées à la sécurité ont baissé de 8,6 %, pour atteindre 3,6 milliards d’euros. Mais certains domaines, comme celui des #drones_de_surveillance, ont tiré leur épingle du jeu avec une progression de 5,8 %. Alors que l’Union européenne peine toujours à s’accorder sur une politique commune de gestion des #frontières, chaque État membre est tenté de renforcer la #surveillance des siennes grâce à des technologies toujours plus sophistiquées.

    Mille et une façons de traquer les migrants

    Déjà déployés, en passe d’être expérimentés ou pas encore autorisés, les dispositifs de #détection de migrants sont présentés aux quatre coins de l’immense salle d’exposition. Nichés entre deux stands de drones, les représentants de la société française #HGH, spécialisée dans les #systèmes_électro-optiques, sont ainsi très sollicités. La série de #caméras_thermiques #Spynel, qui promet une « #surveillance_panoramique 360 degrés, #jour et #nuit, jusqu’à l’horizon » sur les frontières des pays intéressés, a du succès. À l’occasion du salon, l’entreprise vient de finaliser un contrat d’un million d’euros avec un pays de l’#Otan (Organisation du traité de l’Atlantique Nord) — dont elle tait le nom — pour sécuriser et surveiller sur près de 1 000 kilomètres de côte et empêcher les passages des migrants et des trafiquants de drogues. « C’est impossible d’échapper à la #vigilance de cette caméra, et à l’inverse des drones, on ne peut pas brouiller son signal, car elle n’émet aucune onde », se félicite le responsable marketing. « Si un groupe de personnes ou un zodiac s’approche de nuit d’un littoral dans la zone surveillée, l’#intelligence_artificielle détectera automatiquement le #mouvement et une alerte sera envoyée aux forces de sécurité », poursuit-il.

    De l’autre côté du salon, un groupe de gendarmes écoute attentivement les explications du représentant de l’entreprise néerlandaise #UVI-Scan. Sur la brochure commerciale, une page est consacrée à un #scanner capable de détecter les passagers clandestins sous les camions. Le visuel est explicite : accrochés sous un véhicule, deux migrants sont pris en flagrant délit. « Ce sont de vraies photos ! » assume le consultant technique. « C’est un système intégré à la chaussée qui détecte les #intrus et prend automatiquement une photo à l’approche des postes frontières et des ferrys », explique-t-il. « Nous en avons déployés un peu partout en Europe, notamment à #Dieppe, en France ». Là où de nombreux exilés tentent leur chance pour gagner les côtes anglaises par le ferry ou des embarcations de fortune.

    Entre deux stands de fusils d’assaut et des tenues de camouflages, un drone blanc aux allures d’avion miniature surplombe le stand de #German_Drones. L’entreprise allemande propose un « service personnalisé » à ses clients en fonction des usages ». Pour la détection de passages de migrants à la frontière, Anis Fellahi, le chef de projet international du groupe, recommande « le modèle 150, le plus performant, qui peut voler une heure et demie, couvrir une centaine de kilomètres, et transmet une vidéo de meilleure qualité ». Le dit #Songbird est d’ores et déjà déployé aux frontières allemandes et belges, et cherche à étendre son empreinte.

    Les industriels ne s’arrêtent pas là et proposent aux autorités des outils de #surveillance_aérienne toujours plus développées et intrusifs. L’entreprise française #T-ops intègre des #IMSI-Catcher directement embarqués sur les drones. Ce dispositif de #surveillance_de_masse est capable d’intercepter le trafic des communications téléphoniques, de récupérer et recouper ces informations à distance et de suivre les mouvements des utilisateurs. « Là nous proposons un produit avec une #efficacité au-delà du réel ! » s’exclame le représentant de la société. Cette technologie peut-elle être déployée pour repérer les migrants ? « C’est possible, oui. Mais nous ne fournissons qu’un service, le responsable de son utilisation est l’État », répond-il sobrement.

    Certains produits attendent des évolutions législatives pour être pleinement déployés. C’est le cas du drone de surveillance très longue distance présenté par le groupe belge #John_Cockerill, traditionnel acteur de la défense, lancé depuis peu dans la sécurité intérieure. « Ce type d’appareil peut voir jusqu’à 30 kilomètres et il est en capacité d’identifier très clairement des personnes », explique #Jean-Marc_Tyberg, le président du conseil d’administration du groupe. « À ce stade, nous devons intégrer un logiciel qui floute automatiquement le visage de la personne pour ne pas la reconnaître ». Mais selon lui, « se priver de ces outils de reconnaissance revient à fermer les yeux en conduisant. Il faut que l’on rattrape notre retard législatif pour que ces solutions puissent être pleinement utilisées. » Jean-Marc Tyberg fait référence aux longs débats autour de la controversée #loi_Sécurité_globale. Le Conseil constitutionnel avait fini par censurer le dispositif d’encadrement de l’utilisation des images des drones utilisés les forces de l’ordre, jugée trop dangereux au regard du #droit_à_la_vie_privée. Mais le gouvernement est revenu à la charge à la rentrée avec une disposition remaniée dans le projet de loi relatif à la sécurité intérieure, actuellement débattu au Parlement.

    Si la France n’est pas le terrain de jeu technologique idéal des industriels, d’autres États comme la #Grèce accueillent de nombreuses expérimentations plus poussées. Le pays frontalier de la Turquie est un passage obligé dans le parcours des migrants. Et il reçoit le soutien de l’agence de gardes-côtes européens #Frontex, accusée par des ONG et des médias d’opérer des refoulements illégaux à l’extérieur de l’UE. Si le gestionnaire des frontières européennes n’a pas de stand dédié ici, ses fournisseurs sont disséminés sur le salon. La société française #Cnim_Air_Space est l’un d’eux. « Notre modèle de #ballon_captif #Eagle_Owl gonflé à l’Hélium peut voler jusqu’à 600 mètres de haut, et possède une autonomie de 7 jours », expose fièrement le représentant de l’entreprise. Il est actuellement utilisé par les autorités grecques et l’agence Frontex. Un modèle plus petit a également été expérimenté autour de #Calais par la gendarmerie. Avec sa caméra embarquée, il renvoie en continu les #images vers une station positionnée au sol. « En cas d’alerte, si un zodiac débarque, les autorités grecques sont en capacité de les repérer à des kilomètres avant d’intervenir », précise-t-il. « Il mesure 22 mètres de long, donc le fait de le voir peut aussi avoir un effet dissuasif… ».

    La Grèce accueille également l’expérimentation du projet #Roborder, contraction de #robot et de border (frontière en anglais), lancé en 2017, qui prévoit un #système_de_surveillance des frontières par un essaim de #drones_autonomes, capables par l’intelligence artificielle de déterminer les franchissements. Le projet #iborder_control ambitionne quant à lui de développer un #algorithme capable de détecter les #mensonges des migrants lors de leur passage à l’aéroport.

    Mais sur le terrain, les associations d’aide aux personnes exilées observent que le renforcement de la surveillance des frontières ne décourage pas les candidats à l’asile, mais rend simplement leur parcours plus dangereux. Alors que la surveillance se renforce d’année en année, l’Organisation internationale des migrations a comptabilisé 1 146 décès de migrants sur les routes maritimes vers l’Europe au premier semestre 2021, contre 513 en 2020 et 674 en 2019 à la même période. Mais au salon Milipol, le rêve d’une Europe forteresse a de belles années devant lui.

    https://reporterre.net/Contre-les-migrants-toujours-plus-de-technologie

    ping @isskein @karine4

  • Rapport parlementaire : de nouveaux moyens de contrainte technologique
    https://www.piecesetmaindoeuvre.com/spip.php?article1568

    En juin 2021, le Sénat publiait un rapport légitimant la contrainte numérique durant les crises sanitaires (lire ici), où l’on pouvait notamment lire cette affirmation :

    « Plus la menace sera grande, plus les sociétés seront prêtes à accepter des technologies intrusives, et des restrictions plus fortes à leurs libertés individuelles – et c’est logique. »

    Confirmation en ce mois de septembre 2021 avec un autre rapport remis au Premier ministre, signé du député LREM de la Loire et ex-attaché parlementaire Jean-Michel Mis. Ce rapport est intitulé « Pour un usage responsable et acceptable par la société des technologies de sécurité ». La sécurité, comme la santé, étant « la première des libertés », selon la novlangue de l’ère cybernétique, on ne sera pas surpris du contenu de ce rapport. Il s’agit d’étendre les (...)

    https://www.vie-publique.fr/sites/default/files/rapport/pdf/281424.pdf #Nécrotechnologies

  • Pourquoi s’obstiner à numériser l’école ?
    https://reporterre.net/Mais-pourquoi-s-obstiner-a-numeriser-l-ecole

    « Pourquoi river les enfants à des machines dès leur plus jeune âge ? », écrit l’auteur de cette tribune. Il ne s’agit pas d’être technophobe mais de faire preuve de « techno-discernement » face au tout numérique à l’école et à ses néfastes effets sanitaires et écologiques.
    Philippe Bihouix est ingénieur et auteur d’essais sur les questions environnementales. En 2016, il publiait avec Karine Mauvilly Le désastre de l’école numérique — Plaidoyer pour une école sans écrans, aux éditions du Seuil, qui reparaît aujourd’hui en poche.


    Des enfants utilisent une application d’aide à l’apprentissage de la lecture dans une école marseillaise, en 2018. - © Bertrand Langlois / AFP

    Il y a cinq ans, nous publiions, avec Karine Mauvilly, Le désastre de l’école numérique. Ce livre se voulait un cri d’alerte, au titre provocateur sans doute, à la suite de l’annonce du Plan numérique pour l’éducation lancé deux ans auparavant par le président François Hollande. Nous voulions ouvrir le débat, comprendre, contextualiser, prévenir, interroger et mobiliser enseignants, syndicats, élus, parents et citoyens sur une évolution plus que contestable : celle d’une généralisation de l’enseignement sur écran.

    En termes d’innovation – et de fascination – « technopédagogique », l’école n’en était pas à son coup d’essai. Depuis cent cinquante ans, à l’apparition de chaque nouveau médium (lanterne magique, cinéma, radio, télévision, machines électromécaniques… mini puis micro-informatique), les pédagogues se sont emballés pour les formidables opportunités qui s’ouvraient, séduits, souvent, par des fournisseurs de matériel promettant monts et merveilles. Il est frappant de constater à quel point les mêmes arguments, à travers les âges, ont été brandis… jusqu’à aujourd’hui.


    Les miracles de l’école numérique n’ont été corroborés par aucune étude scientifique. Flickr / CC BY-SA 2.0 / Lucélia Ribeiro

    Les promoteurs du numérique à l’école parlent de motivation et de concentration accrues, d’amélioration des performances, de possibilités de travail collectif, de pédagogies actives ou ludiques, d’adaptation au rythme de chaque enfant… On a hâte de voir les résultats. Ces miracles n’ont été corroborés par aucune étude scientifique – aucune. Pourquoi alors river les enfants à des machines dès leur plus jeune âge ?

    Les preuves des effets délétères de la surexposition aux écrans sur la jeunesse s’accumulent
    L’école numérique soulève par ailleurs d’énormes questions sanitaires et écologiques, entre autres.

    • Sanitaires, d’abord, car les preuves des effets délétères de la surexposition aux écrans sur la jeunesse s’accumulent : phénomènes d’addiction, de dépression, d’agitation, difficultés de concentration, troubles de l’attention, troubles cognitifs, intolérance à la frustration, baisse de l’empathie, violence… Et que fait l’école numérique ? Elle augmente le temps global d’écran des enfants, et, en demandant aux élèves de se connecter après l’école pour faire leurs devoirs, elle légitime auprès des parents l’usage des écrans.

    • Écologiques, ensuite, car l’empreinte du numérique est forte, loin de l’illusion d’immatérialité. Évidemment, il ne viendrait à personne l’idée de contester les avancées technologiques dans d’autres domaines, la médecine par exemple, de dénoncer les appareils électroniques chez les dentistes ou dans les hôpitaux, au prétexte qu’on opérait mieux les patients avant ! Mais, dans le domaine éducatif, la course en avant technologique est bien loin d’avoir démontré une quelconque utilité.

    Cinq ans après la parution de notre livre, où en sommes-nous ? À son arrivée, en 2017, le nouveau ministre de l’Éducation nationale, Jean-Michel Blanquer, a commencé par prendre une posture officielle plutôt distanciée avec le numérique. Le « grand plan » a été discrètement remisé : il s’agissait maintenant de bâtir « l’école de la confiance ». Le téléphone portable a même été interdit dans les écoles et les collèges pour la rentrée 2018 – effet d’annonce, car de fait, il l’était déjà…

    Jean-Michel Blanquer n’est pas technophobe, il est au contraire tout à fait fan des possibilités offertes par les « EdTechs » (educational technologies), des start-up qui innovent au service de l’éducation – et notamment avec l’intelligence artificielle (IA). Lors de l’inauguration du « Lab 110 bis » en juin 2018 — un « espace dédié à l’innovation et favorisant l’intelligence collective » logé dans les bureaux du ministère — Jean-Michel Blanquer mentionnait les axes désormais prioritaires du numérique à l’école : « L’IA pour personnaliser les parcours, améliorer l’efficacité de l’enseignement, permettre au professeur de se concentrer sur l’essentiel, notamment par l’aide à l’évaluation ; le traitement massif des données pour permettre une meilleure orientation des étudiants, proposer des formations pros plus pertinentes et améliorer l’employabilité ; la robotique et les objets connectés pour permettre l’inclusion des plus fragiles. »

    Décryptons ce jargon : l’IA pour « personnaliser les parcours » et décharger le professeur du fardeau de l’évaluation consistera à coller l’élève devant son écran, et à mener des tests par QCM (questionnaires à choix multiple) vaguement améliorés sans doute, grâce à un peu de machine learning (l’apprentissage par les machines) ; le « traitement massif des données » pour l’orientation, cela signifie que les parents et les futurs bacheliers n’ont pas fini de souffrir face à l’opacité du logiciel Parcoursup ; quant à la « robotique pour les plus fragiles », mystère !

    Puis vint la crise sanitaire… La grande accélération numérique provoquée par la pandémie de Covid-19 aurait pu être l’occasion de relancer le débat sur la place de ces outils à l’école. Et ce d’autant plus que l’expérience de l’enseignement à distance, malgré l’effort à saluer de nombreux enseignants pour maintenir le lien avec leurs élèves, s’est révélée pitoyable. Mais le débat a surtout porté, dans les premiers temps, sur les inégalités d’équipement des élèves, tous n’ayant pas un ordinateur ou une tablette pour suivre les cours et rendre les devoirs à distance. Et si le contenu pédagogique pendant cette période n’a pas été à la hauteur, c’est l’argument du manque de préparation, d’adaptation (voire d’implication) des enseignants qui a été brandi. Ainsi va la transformation numérique à marche forcée : si elle ne tient pas ses promesses, c’est qu’on n’a pas encore pris la pleine mesure de son potentiel pédagogique.

    La crise a permis un « boom sans précédent du numérique éducatif » — titre d’un article publié dans le Figaro — notamment dans l’enseignement à distance pour les entreprises. Pour ce qui est de l’éducation, c’est moins clair, car, en France, « certains freins subsistent ». Pour Marie-Christine Levet, cofondatrice du fonds Educapital, start-uppeuse des EdTechs — et interrogée dans le même article —, s’il y a des progrès à faire, c’est dans « le grand chantier [de] la digitalisation de notre éducation, de l’école primaire à l’enseignement supérieur. C’est là que nous avons le plus de retard ».

    Il ne s’agit pas de prôner le retour à l’école d’antan mais de faire preuve de « techno-discernement »
    Retard sur quoi, sur qui ? Peu importe ! C’est le principe même du progrès technologique : comme l’explique la Reine rouge dans la suite des Aventures d’Alice au pays des merveilles de Lewis Caroll, ne pas avancer (mais vers où ?), ce n’est pas faire du surplace, c’est reculer : « Ici, vois-tu, on est obligé de courir tant qu’on peut pour rester au même endroit. Si on veut aller ailleurs, il faut courir au moins deux fois plus vite que ça. Allons, allons, plus vite, plus vite ! »

    Le débat n’a toujours pas eu lieu. Il ne s’agit pas d’être technophobe, passéiste ou conservateur, mais de regarder les faits le plus objectivement possible. D’ailleurs, pourquoi la charge de la preuve a-t-elle été inversée, pourquoi est-ce aux « détracteurs » du numérique de démontrer que celui-ci a plus d’effets nuisibles que positifs ? Pourquoi acceptons-nous, collectivement, de prendre pour argent comptant les balivernes des vendeurs de matériel et de logiciel ? Ou celles de leurs chercheurs inféodés, un petit cercle d’acteurs qui font carrière dans le secteur public ou le secteur privé (voire les deux) sur les projets « innovants » autour du numérique ?

    Certes, la crise de l’école n’est pas née avec sa numérisation. Il ne s’agit aucunement de prôner le retour à l’école d’antan, avec tableau noir et règle en bois, mais de faire preuve de « techno-discernement », d’oser questionner la doxa technopédagogique, et d’admettre que l’alternative non numérique est, dans la plupart des cas, meilleure.

    #Enfants #Ecole #éducation #france #enfants #inégalités #travail #education #enseignement #écoles #IA #intelligence_artificielle #numérique #cultures_numériques #internet #google #algorithme #politique #bigdata #france #pouvoirs #data #smartphone #technologisme #surveillance ne l’oublions pas