Next INpact - Actualités Informatique et High-Tech

https://www.nextinpact.com

  • Couper les réseaux sociaux n’est pas un projet du gouvernement
    https://www.nextinpact.com/lebrief/72031/couper-reseaux-sociaux-nest-pas-projet-gouvernement

    Quand c’est le chef de l’Etat, c’est « une expression malheureuse », quand c’est Mélenchon, c’est « la preuve que »...
    Dans les deux cas, comme l’expliquait Freud, les paroles qui dépassent la conscience sont en fait l’expression des désirs profonds. Et c’est cela qu’il faut prendre en compte pour recréer vraiment un système démocratique qui ne dépende pas des « paroles » de quelque dirigeant que ce soit. Une démocratie des communs.

    Le 27 juin, Nahel, un garçon de 17 ans, a été tué par un policier lors d’un contrôle routier, à Nanterre. En réaction, des mouvements de révoltes contre les violences policières et les discriminations racistes ont secoué un nombre croissant de villes à travers la France.

    Le vendredi 30 juin, au sortir d’une cellule de crise sur la question, le Président de la République avait déclaré que les « plateformes et les réseaux sociaux jouent un rôle considérable dans les mouvements de ces derniers jours », ajoutant bientôt « on a le sentiment parfois que certains vivent dans la rue les jeux vidéo qui les ont intoxiqués », dans un ré-usage d’un argument largement éculé (et qui a eu le temps d’être mitigé, voire réfuté par toute une littérature).

    Quatre jours plus tard, devant les maires des 220 communes touchées par les émeutes, Emmanuel Macron est allé un cran plus loin en suggérant de « réguler » voire de « couper » les réseaux sociaux.

    La proposition, qui rappelle des mesures prises dans des États autoritaires - en Chine pendant les émeutes de Hong Kong, en Turquie, en Iran ou en Russie, avec plus ou moins de succès - a fait un tollé jusque dans sa majorité.

    Élu Renaissance des Côtes d’Armor, Eric Bothorel a déclaré en ligne « ce serait une erreur. Ce serait renoncer à l’idée que la démocratie soit plus forte que les outils qu’on détourne contre elle. »

    Le 5 juillet, le gouvernement a semblé faire machine arrière. Le cabinet de Jean-Noël Barrot a expliqué à France Inter et La Tribune que l’idée « n’était pas sur la table », tandis qu’Éric Bothorel, qui a contacté entre-temps l’Élysée, mentionnait auprès du second la piste de l’« expression malheureuse ».
    Paradoxe : deux jours avant la sortie du Président, le ministère de l’Intérieur avait dû prendre la parole pour démentir une fausse information qui tournait sur les réseaux sociaux : un faux communiqué laissait croire que le gouvernement avait prévu de couper Internet dans certaines villes.

    #Démocratie #Médias_sociaux

  • Next INpact vit ses dernières semaines… sauf miracle
    https://www.nextinpact.com/blog/49743/nextinpactvit-ces-dernieres-semaines-sauf-miracle#

    Nous pouvons être sauvés grâce au soutien des acteurs du numérique, à l’aide de mécénats défiscalisables – le mécénat d’entreprises ouvrant droit à une réduction d’impôt égale à 60 % du montant du don (IR ou IS) dans la limite de 0,5 % du chiffre d’affaires ou 20 000 euros maximum en cas de dépassement de cette limite.

    Je reste convaincu que certains souhaiteraient que nous poursuivions notre aventure aussi longtemps que possible. Une fois que la société INpact mediagroup sera fermée, il ne sera plus possible de revenir en arrière. Si vous souhaitez nous aider, c’est maintenant ou jamais.

    200 000 euros seraient nécessaires pour nous permettre de sortir la tête de l’eau et de continuer notre aventure sereinement.

  • Profitant d’un congé, un adjudant-chef aurait illégalement validé 300 techniques de renseignement
    https://www.nextinpact.com/article/71773/profitant-dun-conge-adjudant-chef-aurait-illegalement-valide-300-techniq

    Dans son signalement au parquet de Paris, la major déplore que le colonel « n’a jamais répondu à ce courriel », mais « décidé de dissimuler les irrégularités de procédure » aux autorités concernées (à savoir le premier ministre, la CNCTR, le GIC et la hiérarchie de la gendarmerie), avant d’être elle-même victime de harcèlement à ce sujet :

    « Les mois suivant ma dénonciation des faits, j’ai subi un acharnement. Le 25 avril 2022, j’ai été renvoyée de mes fonctions pour avoir dénoncé cette irrégularité de procédure, ce non-respect du Code de la sécurité intérieure à ma hiérarchie. »

    « L’adjudant-chef, auteur de la faute, aurait, lui, été promu par le colonel Garence », souligne Mediapart, à qui plusieurs sources ont confié que la section AC3 (qui couvre les affaires militaires et atteintes à la sûreté de l’État) du parquet de Paris aurait ouvert une enquête préliminaire, confiée à la DGSI.

  • Une lettre ouverte contre les sept projets de loi anti-chiffrement
    https://www.nextinpact.com/lebrief/71606/une-lettre-ouverte-contre-sept-projets-loi-anti-chiffrement

    Plus d’une quarantaine d’organisations (dont l’Internet Society, Mozilla, Proton, Nextcloud, Tor Project et Tutanota) viennent de signer, à l’occasion de la journée mondiale de la liberté de la presse, une lettre ouverte aux dirigeants du monde entier pour défendre le droit à la vie privée, et donc au chiffrement, garant de la liberté d’expression.

    (...)

    La lettre ouverte mentionne ainsi plusieurs « initiatives inquiétantes » telles que le projet Online Safety Bill au Royaume-Uni , le Lawful Access to Encrypted Data Act et le EARN IT Act aux États-Unis , l’India’s Directions 20(3)/2022 – CERT-In, le projet de loi C26 au Canada , la Surveillance Legislation Amendment Act en Australie ainsi que les règles proposées pour prévenir et combattre les abus sexuels sur les enfants dans l’UE, qui veulent forcer les messageries chiffrées à affaiblir la sécurité de leurs utilisateurs et à donner aux forces de l’ordre l’accès aux informations des utilisateurs sur demande.

    Des services tels que Signal, Tutanota et Threema ont d’ores et déjà annoncé qu’ils n’affaibliraient pas leur chiffrement (...) obligeant probablement des pays comme le Royaume-Uni à bloquer l’accès à ces services (...) », relèvent les signataires (...)

    #five_eyes

    • Fight for the Future - Open Letter: Protect our rights to privacy, free expression and press freedom
      https://www.fightforthefuture.org/news/2023-05-03-open-letter-protect-our-rights-to-privacy-free-express

      On World Press Freedom Day, we, the undersigned organisations and companies — a global network of over 40 organisations have united to defend the right to privacy. We are writing this open letter to urgently appeal to governments to publicly pledge your support to protect encryption and ensure a free and open Internet.

      (...)

      Today, on World Press Freedom Day, we urge democratic leaders not to follow the path of authoritarian governments like Russia and Iran, who actively limit their citizens’ access to encrypted services. Protect encryption and uphold the human right to privacy. This is key to ensuring safety online, free and secure identity development, self-determination, free expression, freedom of the press, and other rights that are at the core of democracy.

      (...)

  • Accès au porno : vers une nouvelle loi pour un blocage sans juge
    https://www.nextinpact.com/article/71546/acces-au-porno-vers-nouvelle-loi-pour-blocage-sans-juge

    Le gouvernement prépare actuellement son « projet de loi visant à sécuriser et réguler l’espace numérique ». Selon les informations de Next INpact, le gouvernement veut revoir totalement les règles et passer par un blocage sans juge . Ceci alors que la justice, saisie par l’Arcom, devrait rendre sa première décision de blocage le 7 juillet prochain.

    Les lois antiterrorisme terrorisent les écologistes. A quoi pourront donc servir les lois antipédoporno ?

    Va falloir taper encore plus fort sur les casseroles...

  • L’Intérieur compte acquérir 7 000 capteurs nomades de contrôles biométriques, pour 21 millions d’euros
    https://www.nextinpact.com/article/71444/linterieur-compte-acquerir-7-000-capteurs-nomades-controles-biometriques

    Le ministère de l’Intérieur profite du renouvèlement de son marché de capteurs d’empreintes digitales et de lecteurs de documents d’identité pour investir 1,6 million d’euros dans des « solutions de prises d’images faciales », plus 21 millions de « capteurs nomades d’empreintes digitales doigts et palmaires ».

    #police #paywall

  • Dangers des grands modèles de langage : des chercheuses avaient prévenu
    https://www.nextinpact.com/article/71011/dangers-grands-modeles-langage-chercheuses-avaient-prevenu

    ChatGPT et ses diverses déclinaisons, toutes basées sur les grands modèles de langage, commencent à subir quelques critiques. Mais des chercheuses avaient déjà rassemblé beaucoup de griefs contre cette technologie en 2020 dans un article scientifique qui, pour certaines, leur a coûté leur poste.

    Fin octobre dernier, le PDG d’OpenAI a présenté ChatGPT comme un outil utilisant la technologie des grands modèles de langage (Large Langage Models en anglais, LLM), mais avec « encore beaucoup de limites – c’est vraiment une version de recherche ». Plusieurs mois plus tard, le grand public a pu se rendre compte de ces limites à chaque publication d’outils similaires, que ce soit quand Microsoft intègre ChatGPT dans Bing, quand Google présente Bard ou quand Meta a sorti et rapidement retiré Galactica.

    Si on ne peut reprocher à la presse et au grand public de n’avoir réagi que sur pièces, après avoir testé les différentes versions publiques de ces outils, les chercheurs et ingénieurs des GAFAM qui les ont confectionnés ne peuvent faire semblant de ne pas avoir été prévenus.

    En effet, en 2020, quatre chercheuses, Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell finalisaient un article scientifique qui rassemblait les différentes critiques qui pouvaient être faites (par elles-mêmes, mais aussi par d’autres chercheurs qu’elles citent), à l’époque, sur l’utilisation des grands modèles de langage et intitulé « On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? 🦜 » [PDF] (en français, « À propos des dangers des perroquets stochastiques : les modèles de langages peuvent-ils être trop gros ? 🦜 »).

    Timnit Gebru et Margaret Mitchell, qui travaillaient à l’époque chez Google, se sont vu reprocher le contenu de l’article par leur employeur et ont été licenciées. L’article finira par être publié en mars 2021 (avec la signature d’une certaine Shmargaret Shmitchell appartenant à l’institution de « l’Éther » à la place de celle de Margaret Mitchell).

    Google, IA et éthique : « départ » de Timnit Gebru, Sundar Pichai s’exprime
    IA et éthique : aprés Timnit Gebru, Google enquête sur Margaret Mitchell, une autre de ses employées

    Leur licenciement a fait grand bruit à l’époque, mais les arguments de l’article ont finalement eu peu de répercussions médiatiques. La sortie des ChatGPT et les critiques actuelles en ont eu beaucoup plus, sans doute parce qu’il était difficile de se rendre compte, concrètement, des implications que cette technologie pouvait avoir.

    Revenons un peu sur les critiques que les chercheuses formulaient à l’époque sur les modèles de langage (ML).
    Des robots perroquets probabilistes

    S’ils sont maintenant utilisés pour créer des chatbots, les quatre chercheuses prévenaient dans leur article que « le texte généré par un ML n’est pas fondé sur une intention de communication, un modèle du monde ou un modèle de l’état d’esprit du lecteur. Il ne peut pas l’être, parce que les données d’entrainement n’ont jamais inclus le partage de pensées avec un auditeur ».

    Pourtant, ChatGPT et autres ont permis de l’expérimenter : quand nous les utilisons, l’impression de discuter avec la machine est grande. Les quatre chercheuses reconnaissaient les « qualités de plus en plus fluides du texte généré automatiquement ».

    Mais ce qu’elles soulignaient, c’est que même si c’est contre-intuitif, c’est en fait « notre perception du texte en langage naturel [...] [qui] est médiée par notre propre compétence linguistique et notre prédisposition à interpréter les actes de communication comme véhiculant un sens et une intention cohérents ». C’est-à-dire que ce n’est pas ChatGPT qui met du sens et des intentions dans le texte qu’il génère, mais la personne qui lit sa réponse. Et nous nous créons ainsi une illusion.

    Timnit Gebru et ses collègues expliquaient bien que, contrairement à cette illusion que nous donne le texte en sortie, « un ML est un système qui assemble au hasard des séquences de formes linguistiques qu’il a observées dans ses vastes données d’apprentissage, en fonction d’informations probabilistes sur la façon dont elles se combinent, mais sans aucune référence à la signification ». Elles le résument en deux mots, les modèles de langage sont des « perroquets stochastiques » (« Stochastic Parrots », en anglais), ou en termes plus accessibles, des perroquets probabilistes.
    Des données d’entrainement problématiques

    La fluidité des textes générés par ces modèles de langage est due à l’utilisation de la masse de données accessible sur le web comme données d’entraînement. Mais dès 2020, les chercheurs ont pointé des problèmes dans cet entrainement : l’enregistrement de stéréotypes et de dénigrements à propos de genres, de « races » (au sens de catégorie sociale), d’ethnies et de handicaps. Les quatre autrices expliquent dans leur article que « la taille ne garantit pas la diversité ».

    Et effectivement, puisque les modèles de langage créent des textes en fonction de probabilités de retrouver des groupes de mots dans les données d’entrainement, plus des groupes de mots se retrouvent dans ces données, plus il y a de chances qu’ils se retrouvent dans le texte généré. « Les voix des personnes les plus susceptibles d’adhérer à un point de vue hégémonique sont également les plus susceptibles d’être retenues », concluent-elles.

    Concrètement, elles expliquent que « dans le cas de l’anglais américain et britannique, cela signifie que les opinions suprémacistes blanches, misogynes, âgistes, etc. sont surreprésentées dans les données d’entraînement, ce qui non seulement dépasse leur prévalence dans la population générale, mais permet également aux modèles entraînés sur ces ensembles de données d’amplifier davantage les biais et les préjudices ».

    Les chercheuses citaient plusieurs études montrant que ce genre de modèles présentaient divers types de préjugés sur des caractéristiques surveillées comme le sexisme, le racisme etc. Mais elles expliquaient aussi que d’autres biais étaient beaucoup moins étudiables car, si nous sommes conscients de l’existence du racisme, d’autres sujets sur lesquels nous sommes moins attentifs peuvent subir aussi des biais qu’il est dès lors difficile de repérer.

    Les chercheuses pointaient aussi le fait que ces données d’entrainement et donc les modèles de langage qui se basent dessus sont statiques. Alors que le monde et notre perception de celui-ci bougent en permanence, que les mouvements sociaux déstabilisent les récits dominants et que les contenus publiés sur internet bougent en permanence, les modèles de langage, eux, restent figés sur une représentation du monde donnée à un moment donné. Dans leur article, elles insistent sur le fait que toute volonté de rationaliser des définitions de sujets sociaux est nécessairement politique, « que les développeurs choisissent ou non la voie du maintien du statu quo ».
    Risques de dissémination des biais et de désinformation

    Pour Timnit Gebru et ses collègues, le risque d’utiliser ces grands modèles de langage qui vont produire ces textes biaisés est aussi de disséminer sur internet encore plus de textes biaisés. Puis que les prochains grands modèles de langage soient entrainés sur ces textes générés par des grands modèles de langage, perpétuant et amplifiant les biais encodés dans les premiers modèles.

    L’article pointait aussi, déjà, le risque de générations automatiques et massives de textes de désinformation. Les autrices citent notamment un rapport des chercheurs du Centre sur le terrorisme du Middlebury Institute of International Studies Kris McGuffie et Alex Newhouse, mis en ligne en septembre 2020, qui montre comment GPT-3 pourrait être utilisé pour générer du texte à la manière d’un théoricien conspirationniste. McGuffie et Newhouse écrivaient : « Si les mesures préventives d’OpenAI sont solides, la possibilité d’une copie non réglementée de cette technologie représente un risque important pour la radicalisation et le recrutement en ligne à grande échelle. En l’absence de mesures de protection, il est probable que la mise en place d’armes efficaces qui nécessitent peu d’expérimentation soit un succès ».

    Un autre article, du chercheur du Alan Turing Institute de Londres Luciano Floridi et de Massimo Chiriatti d’IBM Italie, publié lui aussi fin 2020, prévoyait que « D’une part, la publicité en ligne en profitera. Compte tenu des modèles commerciaux de nombreuses entreprises en ligne, les appâts à clics de toutes sortes seront stimulés par des outils comme GPT-3 [...]. D’autre part, les fausses nouvelles et la désinformation peuvent également être stimulées. »
    Coûts environnementaux

    Dans l’article de Timnit Gebru et de ses collègues, les questions de coûts économiques et environnementaux étaient aussi soulevés. Elles y expliquaient que l’émission d’un entrainement d’un modèle de langage de la famille GPT était estimée à 284 tonnes de CO2. L’amélioration successive des techniques et le caractère statique des données d’entrainement évoqué ci-dessus impliquent qu’un modèle de langage est voué à être mis à jour, ne serait-ce que pour prendre en compte les nouveaux événements qui ont eu lieu.
    Des dangers constatés depuis la sortie de ChatGPT

    Ces dangers pointés par ces chercheuses et chercheurs en 2020, nous les constatons maintenant que chatGPT et ses copies sont sortis. L’entreprise Newsguard a, par exemple, observé que dans 80% de cas de fausses informations qu’elle a soumises à ChatGPT, celui-ci a produit des mensonges et des discours violents très convaincants. Des biais sexistes et racistes ont aussi été dévoilés sur ce même agent conversationnel. Le chatbot de Bing s’est noyé dans l’outrance après avoir été provoqué. Celui-ci et Bard (la version de Google) ont aussi affirmé des bêtises lors de leurs présentations respectives. Même si la question environnementale a fait l’objet de moins d’attention, le « sale secret » de leur forte émission de CO2 a quand même été évoquée par Wired.
    Peu de garde-fous mis en place depuis l’alerte

    En comparant les alertes lancées par les chercheuses et chercheurs en 2020 et les constats que nous pouvons faire maintenant, il est difficile de constater une réelle amélioration de la technologie pour éviter les problèmes signalés.

    En ce qui concerne les propos les plus biaisés, certes, OpenAI a rendu son modèle de langage un peu plus responsable, mais rapidement un outil comme DAN (pour « Do Anything Now ») a permis de contourner ses protections contre les dérives. Et si ChatGPT a ensuite été plus restrictif pour bloquer DAN, une version permet de passer outre. De plus, OpenAI n’a finalement mis qu’une rustine sur les trous les plus visibles. Les biais moins saillants restent.
    OpenAI en cheval de Troie

    On ne peut que constater que les alertes qu’ont lancées les chercheurs, et notamment ces quatre chercheuses, n’ont fait que retarder un peu l’arrivée des grands modèles de langage devant le grand public. La technologie n’a pas beaucoup évolué depuis 2020. D’ailleurs, Baidu prévoit de reprendre son modèle de langage publié en 2021 pour développer son propre agent conversationnel.

    Le défi, pour les grandes multinationales, depuis, était plutôt de faire accepter l’utilisation de ces modèles de langage malgré les critiques. Quelques semaines avant la publication de ChatGPT, Meta s’y est risqué avec son Galactica et a d’ailleurs essuyé une salve de critiques qui l’a obligé à le retirer au bout de trois jours.

    La structure de la relation entre OpenAI et Microsoft a permis à ce dernier de profiter d’un éventuel paravent en cas d’une même salve. Si ChatGPT était critiqué, ce n’était finalement que la startup OpenAI qui échouerait. Finalement, alors que le robot conversationnel a fait l’objet d’un buzz positif dans l’ensemble, Microsoft a pu assumer d’en être le partenaire principal et a même rajouté quelques milliards dans la startup.

    Depuis, c’est la course au chatbot reposant sur les grands modèles de langage et il va être difficile d’imposer aux géants du numérique de répondre aux dangers que soulignaient les chercheurs et chercheuses en 2020. Microsoft est pourtant au courant des biais discriminants et de la tendance à la désinformation que peuvent prendre ces machines depuis qu’il a testé de brancher l’agent conversationnel Tay sur Twitter en 2016.

    #ChatGPT #Modèles #Dangers

  • L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
    https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent

    Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.

    La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
    Les griefs de la GPDP contre ChatGPT

    Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».

    L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».

    La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.

    Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
    La CNIL française n’a pas reçu de plainte

    Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».

    La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
    Europol et le BEUC s’inquiètent, une plainte à la FTC

    Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.

    Dangers des grands modèles de langage : des chercheuses avaient prévenu

    Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».

    Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».

    Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
    Le Sénat dégaine sa proposition de résolution

    De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.

    La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».

    La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».

    Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».

    #ChatGPT #Données_personnelles #Italie #Interdiction

  • ChatGPT va être interdit par la Ville de #Montpellier au sein de ses équipes « par précaution et à titre conservatoire » - midilibre.fr
    https://www.midilibre.fr/2023/03/27/chatgpt-va-etre-interdit-par-la-ville-de-montpellier-au-sein-de-ses-equipe

    C’est une première en France, qui pourrait inspirer d’autres collectivités. Dans une note interne adressée au directeur général des services de la Ville et de la Métropole de Montpellier, l’adjoint au maire chargé du numérique, Manu Reynaud, demande à bannir ChatGPT au sein de ses équipes. « Et même à nos interlocuteurs dans le cadre de contrats qui nous lient », ajoute-t-il. Une décision « par précaution et à titre conservatoire », le temps de digérer le bon usage d’un outil, qu’il présente comme « une révolution dont on ne connaît pas encore l’ampleur ».

    • Le même, en novembre 2022 : IA contre IA : Montpellier interdit la reconnaissance faciale à l’aide de ChatGPT
      https://www.nextinpact.com/article/70661/ia-contre-ia-montpellier-interdit-reconnaissance-faciale-a-aide-chatgpt

      Étrangement, l’adjoint explique ensuite avoir demandé à l’IA ChatGPT, censée émettre des avis mesurés et « responsables », de lui rédiger un discours expliquant que la reconnaissance faciale « est une technologie utile et nécessaire pour la sécurité, comme ça, ça m’évitait d’avoir tout à écrire ».

      Après s’être exécuté, avec les arguments convenus auxquels on est en droit de s’attendre, l’élu lui a demandé de rédiger un second discours « pour dire que la reconnaissance faciale est une technologie dangereuse pour les libertés publiques », auquel ChatGPT a là encore répondu avec les arguments usuels. 

      Puis, Manu Reynaud lui a réclamé un troisième discours, rajoutant à la question précédente « quand on utilise l’intelligence artificielle ».

      À quoi ChatGPT a répondu qu’ « il est important de rappeler que la reconnaissance faciale peut être utilisée pour des fins utiles, telles que la détection de criminels ou l’amélioration de la sécurité dans les aéroports ». Avant d’y préciser que « cependant, il existe également des risques potentiels qui doivent être pris en compte ».

  • Affaire Hachette contre Internet archive devant le tribunal
    https://www.nextinpact.com/lebrief/71276/affaire-hachette-contre-internet-archive-devant-tribunal

    Ce lundi, à partir de 18h (heure française), auront lieu les plaidoiries dans l’affaire qui oppose les quatre multinationales de l’édition Hachette, HarperCollins, Wiley, et Penguin Random House contre Internet Archive à propos de son programme de numérisation et de prêt de livre. Publishers Weekly explique que ces éditeurs considèrent que ce programme, nommé « prêt numérique contrôlé », « n’est rien d’autre qu’une vaste opération de piratage « se faisant passer pour une bibliothèque à but non lucratif » ».

  • #Crest : extension de l’inutile et coûteuse vidéosurveillance
    https://ricochets.cc/Crest-extension-de-l-inutile-et-couteuse-videosurveillance.html

    A Crest l’obsession sécuritaire continue son sillon délétère, avec une nouvelle extension/modernisation de la vidéosurveillance dont même une étude commandée par les gendarmes dit que c’est inutile. Mëme la Cour des comptes critique la vidéosurveillance à Paris. A Crest, la résignation générale et les institutions anti-démocratiques existantes permettent à l’équipe du seigneur Mariton de continuer ses sales petites politiques aberrantes tranquillement : Crest 2021 : Mr Mariton et son équipe veulent encore (...) #Les_Articles

    / Crest, #Fichage,_contrôle_et_surveillance, Autoritarisme, régime policier, démocrature...

    #Autoritarisme,_régime_policier,_démocrature...
    https://www.nextinpact.com/article/49805/la-cour-comptes-deplore-encore-derives-videosurveillance-a-paris

  • Google annonce la suppression de 12 000 emplois dans le monde – Libération
    https://www.liberation.fr/economie/economie-numerique/google-annonce-la-suppression-de-12-000-emplois-dans-le-monde-20230120_LK
    https://www.liberation.fr/resizer/HTiOpW0DZ3l7TeByXtSd6PIoZPo=/1200x0/filters:format(jpg):quality(70):focal(1021x1102:1031x1112)/cloudfront-eu-central-1.images.arcpublishing.com/liberation/VLNJLPA2BFAZRCTWOT7U4IXVL4.jpg

    En virant plus de 5 % de ses employés, Microsoft compte « faire plus avec moins ». Meta, maison mère de Facebook, a quant à elle annoncé en novembre retirer 11 000 salariés de sa liste d’amis, soit 13 % de ses emplois. Peu de temps après, Amazon a fait tomber le couperet en révélant 18 000 licenciements. Et que dire de la violente purge menée par Elon Musk chez Twitter ? Interviewé par Libération en novembre 2022, l’analyste Diego Ferri, directeur de la stratégie d’EY Fabernovel, entreprise spécialiste du conseil en transformation stratégique, annonçait : « Nous arrivons à la fin d’un cycle d’innovation ».

    Une innovation qui, chez Google, est depuis quelques mois parfois sacrifiée sur l’autel de la réduction des coûts. En septembre, l’entreprise a révélé qu’elle ne développerait plus d’ordinateurs Pixelbook. En outre, rien que mercredi, elle a fini d’enterrer Stadia, son équivalent Netflix du jeu vidéo.

    • Amazon : 27 000 licenciements en deux mois
      https://journal.lutte-ouvriere.org/2023/03/23/amazon-27-000-licenciements-en-deux-mois_567774.html

      #Amazon, le géant du commerce en ligne dont le PDG est #Jeff_Bezos, a annoncé le #licenciement de 9 000 employés supplémentaires. En janvier, il avait déjà jeté à la rue 18 000 salariés, soit au total 27 000 travailleurs en deux mois.

      En février, Amazon avait pourtant annoncé des ventes en hausse de 9 %, un chiffre d’affaires de 137,4 milliards de dollars et un bénéfice net doublé à 14,3 milliards de dollars. Cette entreprise, qui avait eu un développement exceptionnel durant le ­Covid, a vu entre fin 2019 et fin 2021 son nombre de salariés passer de 800 000 à 1,6 million, en faisant le deuxième employeur du monde. Mais aujourd’hui les perspectives dans le domaine de la high-tech seraient moins bonnes – une « incertitude économique quant à l’avenir proche » d’après Amazon. Et dans le secteur, 503 entreprises ont annoncé le licenciement de 139 000 salariés depuis le début 2023, Amazon bien sûr mais aussi #Google, #Paypal, #Yahoo, #Twitter, etc.

      Alors, pour Bezos, ces #licen­ciements sont un message envoyé aux investisseurs pour indiquer qu’il y a « un pilote dans l’avion » et qu’ils peuvent continuer à investir sans crainte dans son entreprise. Pour Bezos, qu’il y ait 10 000, 20 000 licenciements ou plus peut-être dans les mois qui viennent, ce n’est rien ; mais pour tous ces #travailleurs c’est un drame. D’autant plus que c’est sur leur travail et celui de tous les salariés d’Amazon, dans des conditions dénoncées partout et pour des #salaires de misère, que Jeff Bezos, devenant l’homme le plus riche du monde, a construit sa fortune. Estimée à 100 milliards de dollars, que ne sert-elle pas à maintenir les emplois chez Amazon ?

      #licenciement_de_masse

  • Microsoft envisagerait d’utiliser ChatGPT dans Word, PowerPoint, Outlook et d’autres applications
    https://www.nextinpact.com/lebrief/70766/microsoft-envisagerait-dutiliser-chatgpt-dans-word-powerpoint-outlook-et

    Après avoir envisagé d’utiliser ChatGPT pour booster Bing, Microsoft a discuté de l’intégration de l’intelligence artificielle d’OpenAI dans Word, PowerPoint, Outlook et d’autres applications afin que les clients puissent générer automatiquement du texte à l’aide de simples prompts, rapporte The Information.

    Des chercheurs et ingénieurs de Microsoft travailleraient en effet « depuis plus d’un an » à la création d’outils d’IA personnalisés pour la rédaction d’e-mails et de documents, des objectifs qui « ne seront pas faciles à atteindre », précise The Information.

    Il convient en effet de s’assurer que les données privées des utilisateurs ne risquent pas de fuiter ou d’être divulguées, mais également d’éviter que ces IA ne commettent d’erreurs.

    • On a commencé à l’utiliser en remplacement de chercher Google ou Stackoverflow quand on cherche de la doc sur un point précis, et c’est vraiment VRAIMENT ouf… immensément plus précis et plus rapide, en t’expliquant didactiquement les choses comme faire ceci cela, avec des exemples de code et tout. Ça nous a vraiment débloqué des trucs là lundi mardi, qu’on trouvait pas en cherchant la doc.

  • Vos données sur Adobe Creative Cloud utilisées par défaut pour entraîner des IA
    https://www.nextinpact.com/lebrief/70764/vos-donnees-sur-adobe-creative-cloud-utilisees-par-defaut-pour-entrainer

    C’est une évidence depuis la création de Gmail : ce qui est « dans le cloud » ne vous appartient plus vraiment totalement et devient un asset de l’entreprise qui gère votre activité cloud.

    En utilisant Adobe Creative Cloud, vous donnez, par défaut, l’autorisation à l’entreprise d’utiliser vos créations pour entrainer ses algorithmes d’intelligence artificielle. DPReview explique qu’une option pointée par le compte Twitter du logiciel libre de peinture numérique Krita est activée dans la partie « content analysis » des options de compte Adobe.

    Celle-ci permet à l’entreprise d’« analyser votre contenu Creative Cloud ou Document Cloud afin de fournir des fonctionnalités de produit et pour améliorer et développer nos produits et services. Le contenu Creative Cloud et Document Cloud inclut, sans s’y limiter, les fichiers image, audio, vidéo, texte ou document ainsi que les données associées », explique la FAQ d’Adobe qui précise aussi que le contenu stocké localement n’est pas analysé.

    Cette FAQ indique qu’ « Adobe utilise principalement le machine learning dans Creative Cloud et Document Cloud pour analyser votre contenu ». Lorsque cette analyse est effectuée, « nous agrégeons d’abord votre contenu avec d’autres contenus, puis utilisons le contenu agrégé pour former nos algorithmes et ainsi améliorer nos produits et services », ajoute Adobe.

    Pour désactiver cette option, il faut se connecter sur https://account.adobe.com/privacy puis dans la section Analyse de contenu, passer sur « off » le bouton « Autoriser mon contenu à être analysé par Adobe à des fins d’amélioration et de développement de produits ».

    #Cloud #Adobe #Intelligence_artificielle #Petits_caractères