• Thomas Piketty : « L’idéologie antipauvres finit par conduire à une dégradation générale de la qualité du service public »
    https://www.lemonde.fr/idees/article/2023/12/09/thomas-piketty-l-ideologie-antipauvres-finit-par-conduire-a-une-degradation-

    Ce n’est pas en se défoulant sur les plus précaires que l’on va résoudre les problèmes sociaux, plaide l’économiste dans sa chronique.

    Disons-le d’emblée : l’enquête édifiante publiée par Le Monde sur les procédures intrusives et ubuesques subies par des milliers d’allocataires des caisses d’allocations familiales (CAF) pose des problèmes fondamentaux pour l’avenir de la Sécurité sociale et des services publics, en France, en Europe et dans le monde. En épluchant des milliers de lignes de code indûment dissimulées, en rencontrant des personnes fragilisées et des parents isolés injustement pourchassés pour des trop-perçus imaginaires, les journalistes ont montré les conséquences dramatiques de ces pratiques algorithmiques aveugles sur les existences quotidiennes.

    Encore faut-il préciser que les agents des CAF sont souvent (? ndc) les premiers à dénoncer ces pratiques imposées par leur direction et par les responsables politiques à l’institution sociale à laquelle ils sont attachés. Rappelons que les CAF gèrent avec des moyens limités non seulement les allocations familiales, mais aussi le revenu de solidarité active (revenu de base et complément de revenu pour les bas salaires), les allocations logement, celles destinées aux parents isolés ou aux personnes handicapées, les prestations liées aux gardes d’enfants, etc., soit au total près de 14 millions d’allocataires (environ la moitié des ménages).

    Les coûts de fonctionnement des CAF comme des caisses de l’Assurance-maladie et de l’ensemble des caisses de la Sécurité sociale ont toujours été extrêmement modestes : entre 2 % et 3 % des prestations versées suivant les cas, contre 15 % à 20 % pour les compagnies d’assurances privées. Cette efficacité publique est une bonne chose en soi, à condition toutefois de ne pas pousser trop loin dans cette direction.
    Le problème est que le pouvoir politique n’a cessé de faire pression sur les caisses pour réduire toujours davantage ces coûts. La situation s’est notamment dégradée à la suite de l’arrivée au pouvoir en 2007 de Nicolas Sarkozy, qui a mis en avant la nécessité d’une chasse sans merci à la fraude sociale et les allocataires soupçonnés de ruiner le système.

    Glorification des « premiers de cordée »

    Et qu’importe si toutes les études montrent que la fraude fiscale et l’évasion en col blanc portent sur des montants autrement importants. Puisqu’il est compliqué de s’en prendre aux plus riches, vengeons-nous sur les plus pauvres ! Cette glorification des « premiers de cordée » et cette stigmatisation des plus #pauvres (réputés incapables de « traverser la rue » pour trouver un emploi, et régulièrement accusés de coûter un « pognon de dingue ») se sont encore accentuées avec Emmanuel Macron depuis 2017. Sommées de débusquer les #fraudeurs et de faire du chiffre avec des moyens humains réduits, les CAF se sont alors lancées dans la dérive algorithmique mise au jour par les journalistes. [dès 2010, en fait,c-à-d sous Hollande ndc]

    Le pire dans cette évolution est que l’#idéologie_antipauvres finit par conduire à une dégradation générale de la qualité du service public. Si vous n’en avez pas fait l’expérience vous-même, demandez autour de vous. Depuis plusieurs années, si vous envoyez un message aux CAF sur l’interface prévue à cet effet, la machine vous répond que les messages traités actuellement sont ceux réceptionnés il y a trois mois, et que le vôtre devra attendre (six mois plus tard, il attend toujours).

    En revanche, si l’on vous reproche un trop-perçu, parfois fantaisiste, il faut payer tout de suite, sans recours possible. Pour ceux qui en ont les moyens, ces situations ubuesques sont pénibles mais gérables. Pour tous ceux dont les finances sont tendues, c’est insupportable. De toute évidence, les #CAF ne disposent pas des moyens humains permettant de rendre un service de qualité et de traiter correctement les usagers, ce qui est extrêmement douloureux pour toutes les personnes impliquées.

    Cette dégradation du service public se retrouve dans de multiples domaines, par exemple avec des délais de plus de six mois pour obtenir des papiers d’identité, des procédures de remboursement toujours trop lourdes auprès de l’Assurance-maladie et des mutuelles, ou encore l’opacité extrême des #algorithmes d’affectation dans l’enseignement supérieur, dans un contexte de pénurie de places et de moyens dans les filières les plus recherchées.

    Stratégie de droite

    La stratégie de la droite visant à stigmatiser les pauvres et les « assistés » comme responsables des maux du pays est doublement perdante : elle fragilise les plus modestes et conduit à la dégradation du service public pour tous et au règne du chacun-pour-soi, au moment même où nous aurions besoin de socialiser davantage de ressources pour pourvoir aux besoins criants dans la santé, l’éducation et l’environnement. La vérité est que c’est dans le secteur privé que se trouvent les gaspillages et les rémunérations indues, et non dans les caisses sociales et les services publics.

    Cette nouvelle idéologie antipauvres est d’autant plus inquiétante qu’elle est au cœur des recompositions politiques actuelles. La loi antisquatteurs adoptée fin 2022 par une coalition RN-LR-Renaissance en est l’incarnation. Elle montre aussi les impasses de cette approche : ce n’est pas en se défoulant sur les plus #précaires et en fragilisant l’ensemble des #locataires à grands coups de bail raccourci de location meublée et d’expulsion accélérée que l’on va résoudre les problèmes de logement des dizaines de millions de ménages mal logés et mal isolés.

    Cette question est aussi l’occasion de combattre le RN sur le seul terrain qui vaille : celui des faiblesses et des incohérences de son programme. La conversion sociale du RN est un leurre. Le parti reste profondément imprégné de libéralisme économique, comme le montre sa volonté de supprimer l’impôt sur la fortune immobilière, de la même façon que Jean-Marie Le Pen voulait supprimer l’impôt sur le revenu dans les années 1980. Il est plus que temps de sortir des obsessions identitaires actuelles et de remettre les questions socio-économiques au centre du débat public.

    https://seenthis.net/messages/1028926

  • #Interpol makes first border arrest using Biometric Hub to ID suspect

    Global database of faces and fingerprints proves its worth.

    European police have for the first time made an arrest after remotely checking Interpol’s trove of biometric data to identify a suspected smuggler.

    The fugitive migrant, we’re told, gave a fake name and phony identification documents at a police check in Sarajevo, Bosnia and Herzegovina, while traveling toward Western Europe. And he probably would have got away with it, too, if it weren’t for you meddling kids Interpol’s Biometric Hub – a recently activated tool that uses French identity and biometrics vendor Idemia’s technology to match people’s biometric data against the multinational policing org’s global fingerprint and facial recognition databases.

    “When the smuggler’s photo was run through the Biometric Hub, it immediately flagged that he was wanted in another European country,” Interpol declared. “He was arrested and is currently awaiting extradition.”

    Interpol introduced the Biometric Hub – aka BioHub – in October, and it is now available to law enforcement in all 196 member countries.

    Neither Interpol nor Idemia immediately responded to The Register’s questions about how the technology and remote access works.

    But Cyril Gout, Interpol’s director of operational support and analysis, offered a canned quote: “The Biometric Hub helps law enforcement officers know right away whether the person in front of them poses a security risk.”

    That suggests Interpol member states’ constabularies can send biometric data to BioHub from the field and receive real-time info about suspects’ identities.

    The multinational policing org has said that Hub’s “biometric core” combines Interpol’s existing fingerprint and facial recognition databases, which both use Idemia tech, with a matching system also based on Idemia’s biometric technology.

    Interpol and Idemia have worked together for years. In 1999, he police organization chose Idemia to develop its fingerprint database, called the Automated Fingerprint Identification System (AFIS). And then in 2016, Interpol inked another contract with Idemia to use the French firm’s facial recognition capabilities for the Interpol Face Recognition System (IFRS).

    According to Idemia, the latest version of its Multibiometric Identification System, MBIS 5, uses “new generation algorithms which provide a higher matching accuracy rate with a shorter response time and a more user-friendly interface.”

    In its first phase, Interpol will use MBIS 5 to identify persons of interest (POIs) for police investigations.

    A second phase, which will take two years to become fully operational, will extend the biometric checks to border control points. During this phase the system will be able to perform up to one million forensic searches per day – including fingerprints, palm prints, and portraits.

    Interpol expects the combined fingerprints and facial recognition system will speed future biometric searches. Instead of running a check against separate biometric databases, BioHub allows police officers to submit data to both through one interface, and it only requires human review if the “quality of the captured biometric data is such that the match falls below a designated threshold.”

    To address data governance concerns, Interpol claims BioHub complies with its data protection framework. Additionally, scans of faces and hands uploaded to the Hub are not added to Interpol’s criminal databases or made visible to other users. Any data that does not result in a match is deleted following the search, we’re told.

    While The Register hasn’t heard of any specific data privacy and security concerns related to BioHub, we’re sure it’s only a matter of time before it’s misused.

    America’s Transportation Security Agency (TSA) over the summer also said it intends to expand its facial recognition program, which also uses Idemia’s tech, to screen air travel passengers to 430 US airports. The TSA wants that capability in place within ten years.

    The TSA announcement was swiftly met with opposition from privacy and civil rights organizations, along with some US senators who took issue [PDF] with the tech.

    https://www.theregister.com/2023/12/01/interpol_biohub_arrest

    #frontières #contrôles_frontaliers #technologie #empreintes_digitales #biométrie #Interpol #migrations #asile #réfugiés #Biometric_Hub #Balkans #route_des_Balkans #Bosnie-Herzégovine #Idemia #reconnaissance_faciale #passeurs #BioHub #extradition #sécurité #risque #interopérabilité #base_de_données #Automated_Fingerprint_Identification_System (#AFIS) #Interpol_Face_Recognition_System (#IFRS) #Multibiometric_Identification_System #MBIS_5 #algorithmes #persons_of_interest (#POIs) #portraits #Transportation_Security_Agency (#TSA)

  • Notation des allocataires : l’indécence des pratiques de la CAF désormais indéniable – La Quadrature du Net
    https://www.laquadrature.net/2023/11/27/notation-des-allocataires-lindecence-des-pratiques-de-la-caf-desormais

    C’est en transformant les allocataires en « assisté·es », puis en risques pour la survie de notre système social que le discours de « lutte contre l’assistanat » a fait de leur contrôle un impératif de « bonne gestion »18. Qu’importe que toutes les estimations montrent que la « fraude sociale » est marginale et que c’est au contraire le non-recours aux aides qui se révèle être un phénomène massif.

    Devenu objectif institutionnel, le contrôle doit être rationalisé. Le numérique devient alors l’outil privilégié de « la lutte contre la fraude sociale » par la capacité qu’il offre aux dirigeant·es de répondre aux injonctions de résultats tout en offrant un alibi technique quant aux pratiques de discrimination généralisée que leur tenue impose.

    Ces logiques sont saillantes dans la réponse écrite par la CAF pour s’opposer à la transmission du code de son algorithme, avant d’y être contrainte par la Commission d’Accès aux Documents Administratifs (CADA). Elle assume ouvertement un discours policier en avançant comme principal argument que cette communication consisterait en une « atteinte à la sécurité publique » car « en identifiant les critères constituant des facteurs de ciblage, des fraudeurs pourraient organiser et monter des dossiers frauduleux ».

    Enfin, un chiffre transmis dans la même réponse témoigne de l’emballement gestionnaire à l’œuvre et vient souligner la disproportion entre les moyens techniques déployés et les enjeux financiers. L’algorithme est entraîné pour détecter des trop-perçus s’élevant à 600 euros sur deux ans. Soit donc, 32 millions d’intimités violées par un algorithme à la recherche de… 25 euros par mois.

  • Greek data watchdog to rule on AI systems in refugee camps

    A forthcoming decision on the compliance of surveillance and security systems in Greek refugee camps could set a precedent for how AI and biometric systems are deployed for ‘migration management’ in Europe

    Greece’s data protection watchdog is set to issue a long-awaited decision on the legality of controversial high-tech surveillance and security systems deployed in the country’s refugee camps.

    The Greek Data Protection Authority’s (DPA) decision, expected by the end of the year, concerns in part a new multimillion-euro Artificial Intelligence Behavioural Analytics security system, which has been installed at several recently constructed refugee camps on the Aegean islands.

    The system – dubbed #Centaur and funded through the European Union (EU) – relies on algorithms and surveillance equipment – including cameras, drones, sensors and other hardware installed inside refugee camps – to automatically detect purported threats, alert authorities and keep a log of incidents. Hyperion, another system that relies on biometric fingerprint data to facilitate entry and exit from the refugee camps, is also being examined in the probe.

    Centaur and #Hyperion came under investigation in March 2022, after several Greek civil society organisations and a researcher filed a complaint to the Greek DPA questioning the legality of the programs under Greek and European laws. The Greek DPA’s decision could determine how artificial intelligence (AI) and biometric systems are used within the migration management context in Greece and beyond.

    Although the data watchdog’s decision remains to be seen, a review of dozens of documents obtained through public access to documents requests, on-the-ground reporting from the islands where the systems have been deployed, as well as interviews with Greek officials, camp staff and asylum seekers, suggest the Greek authorities likely sidestepped or botched crucial procedural requirements under the European Union’s (EU) privacy and human rights law during a mad rush to procure and deploy the systems.

    “It is difficult to see how the DPA will not find a breach,” said Niovi Vavoula, a lecturer at Queen Mary University of London, who petitioned the Greek DPA alongside Greek civil society organisations Homo Digitalis, The Hellenic League for Human Rights, and HIAS Greece.

    She said “major shortcomings” identified include the lack of appointment of a data protection officer at the Greek Migration Ministry prior to the launch of its programs.

    Security systems a hallmark of new EU camps

    Centaur and Hyperion are hallmarks of Greece’s newest migrant facilities, also known as Closed Controlled Access Centres (CCACs), which began opening in the eastern Aegean in 2021 with funding and supervision from the European Commission (EC). Greek authorities have lauded the surveillance apparatus at the revamped facilities as a silver-bullet solution to the problems that plagued previous makeshift migrant camps in Greece.

    The Centaur system allows authorities to monitor virtually every inch of the camps’ outdoor areas – and even some indoor spaces – from local command and control centres on the islands, and from a centralised control room in Athens, which Greece’s former migration minister Notis Mitarachi unveiled with much fanfare in September 2021.

    “We’re not monitoring people. We’re trying to prevent something bad from happening,” Anastasios Salis, the migration ministry’s director general of ICT and one of the self-described architects of the Centaur system, told me when I visited the ministry’s centralised control room in Athens in December 2021. “It’s not a prison, okay? It’s something different.”

    Critics have described the new camps as “prison-like” and a “dystopian nightmare”.

    Behind closed doors, the systems have also come under scrutiny by some EU authorities, including its Fundamental Rights Agency (FRA), which expressed concerns following a visit to one of the camps on Samos Island in May 2022.

    In subsequent informal input on Greece’s refugee camp security measures, the FRA said it was “concerned about the necessity and proportionality of some of the measures and their possible impact on fundamental rights of residents” and recommended “less intrusive measures”.

    Asked during the control room tour in 2021 what is being done to ensure the operation of the Centaur system respects privacy laws and the EU’s General Data Protection Regulation (GDPR), Salis responded: “GDPR? I don’t see any personal data recorded.”

    ‘Spectacular #experimentation’

    While other EU countries have experimented with myriad migration management and surveillance systems, Greece’s refugee camp deployments are unique.

    “What we see in Greece is spectacular experimentation of a variety of systems that we might not find in this condensed way in other national contexts,” said Caterina Rodelli, a policy analyst at the digital rights non-profit Access Now.

    She added: “Whereas in other European countries you might find surveillance of migrant people, asylum seekers … Greece has paved the way for having more dense testing environments” within refugee camps – particularly since the creation of its EU-funded and tech-riddled refugee camps.

    The #Samos facility, arguably the EU’s flagship camp, has been advertised as a model and visited by officials from the UK, the US and Morocco. Technology deployments at Greece’s borders have already been replicated in other European countries.

    When compared with other Mediterranean states, Greece has also received disproportionate funding from the EU for its border reinforcement projects.

    In a report published in July, the research outfit Statewatch compared commission funds to Greece between 2014 and 2020 and those projected to be paid between 2021 and 2027, finding that “the funding directed specifically towards borders has skyrocketed from almost €303m to more than €1bn – an increase of 248%”.

    Greece’s Centre for Security Studies, a research and consulting institution overseen by the Greek minister of citizen protection, for example, received €12.8m in EU funds to develop border technologies – the most of any organisation analysed in the report during an eight-year period that ended in 2022.

    Surveillance and security systems at Greek refugee camps are funded through the EU’s Covid recovery fund, known formally as the European Commission’s Recovery and Resilience Facility, as well as the Internal Security Fund.
    Early warnings

    At the heart of the Greek DPA probe are questions about whether Greece has a legal basis for the type of data processing understood to be required in the programs, and whether it followed procedures required under GDPR.

    This includes the need to conduct data protection impact assessments (DPIAs), which demonstrate compliance with the regulation as well as help identify and mitigate various risks associated with personal data processing – a procedure the GDPR stipulates must be carried out far in advance of certain systems being deployed.

    The need to conduct these assessments before technology deployments take place was underscored by the Greek DPA in a letter sent to the Greek migration ministry in March 2022 at the launch of its probe, in which it wrote that “in the case of procurement of surveillance and control systems” impact studies “should be carried out not only before their operation, but also before their procurement”.

    Official warnings for Greece to tread carefully with the use of surveillance in its camps came as early as June 2021 – months before the opening of the first EU-funded camp on Samos Island – when the FRA provided input on the use of surveillance equipment in Greek refugee camps, and the Centaur project specifically.

    In a document reviewed by Computer Weekly, the FRA wrote that the system would need to undergo “a thorough impact assessment” to check its compatibility with fundamental rights, including data protection and privacy safeguards. It also wrote that “the Greek authorities need to provide details on the equipment they are planning to use, its intended purpose and the legal basis for the automated processing of personal data, which to our understanding include sensitive biometric data”.
    A botched process?

    However, according to documents obtained through public record requests, the impact assessments related to the programs were only carried out months after the systems were deployed and operational, while the first assessments were not shared with the commission until late January 2022.

    Subsequent communications between EU and Greek authorities reveal, for the first time, glaring procedural omissions and clumsy efforts by Greek authorities to backpedal into compliance.

    For example, Greece’s initial assessments of the Centaur system covered the use of the CCTV cameras, but not the potentially more sensitive aspects of the project such as the use of motion analysis algorithms and drones, a commission representative wrote to Greek authorities in May 2022. The representative further underscored the importance of assessing “the impact of the whole project on data protection principles and fundamental rights”.

    The commission also informed the Greek authorities that some areas where cameras were understood to have been placed, such as common areas inside accommodation corridors, could be deemed as “sensitive”, and that Greece would need to assess if these deployments would interfere with data protection, privacy and other rights such as non-discrimination or child rights.

    It also requested more details on the personal data categories being processed – suggesting that relevant information on the categories and modalities of processing – such as whether the categories would be inferred by a human or an algorithm-based technology – had been excluded. At the time, Greek officials had reported that only “physical characteristics” would be collected but did not expand further.

    “No explanation is provided on why less intrusive measures cannot be implemented to prevent and detect criminal activities,” the commission wrote, reminding Greece that “all asylum seekers are considered vulnerable data subjects”, according to guidelines endorsed by the European Data Protection Board (EDPB).

    The FRA, in informal input provided after its visit to the Samos camp in May 2022, recommended basic safeguards Greece could take to ensure camp surveillance systems are in full compliance with GDPR. This included placing visible signs to inform camp residents and staff “about the operation of CCTV cameras before entering a monitored area”.

    No such signs were visible in the camp’s entry when Computer Weekly visited the Samos camp in early October this year, despite the presence of several cameras at the camp’s entry.

    Computer Weekly understands that, as of early October, procedural requirements such as impact assessments had not yet been finalised, and that the migration ministry would remain in consultation with the DPA until all the programs were fully GDPR-compliant.

    Responding to Computer Weekly’s questions about the findings of this story, a Greek migration ministry spokesperson said: “[The ministry] is already in open consultation with the Greek DPA for the ‘Centaur’ and ‘Hyperion’ programs since March 2022. The consultation has not yet been completed. Both of these programs have not been fully implemented as several secondary functions are still in the implementation phase while the primary functions (video surveillance through closed circuit television and drone, entry – exit through security turnstiles) of the programs are subject to continuous parameterisation and are in pilot application.

    “The ministry has justified to the Greek DPA as to the necessity of implementing the measure of installing and operating video surveillance systems in the hospitality structures citing the damage that the structures constantly suffer due to vandalism, resulting in substantial damage to state assets … and risking the health of vulnerable groups such as children and their companions.”

    The commission wrote to Computer Weekly that it “do[es] not comment on ongoing investigations carried out by independent data protection authorities” and did not respond to questions on the deployment of the systems.

    Previous reporting by the Greek investigative outlet Solomon has similarly identified potential violations, including that the camp programs were implemented without the Greek ministry of migration and asylum hiring a data protection officer as required under the GDPR.
    Lack of accountability and transparency?

    The commission has said it applies all relevant checks and controls but that it is ultimately up to Greece to ensure refugee camps and their systems are in line with European standards.

    Vavoula, the researcher who was involved in the Greek DPA complaint, said the EU has been “funding … these initiatives without proper oversight”.

    Saskia Bricmont, a Belgian politician and a Member of the European Parliament with the Greens/European Free Alliance, described unsuccessful efforts to obtain more information on the systems deployed at Greece’s camps and borders: “Neither the commission nor the Greek authorities are willing to share information and to be transparent about it. Why? Why do they hide things – or at least give the impression they do?”

    The European Ombudsman recently conducted a probe into how the commission ensures fundamental rights are being respected at Greece’s EU-funded camps. It also asked the commission to weigh in on the surveillance systems and whether it had conducted or reviewed the data protection and fundamental rights impact assessments.

    The commission initially reported that Greece had “completed” assessments “before the full deployment of the surveillance systems”. In a later submission in August, however, the commission changed its wording – writing instead that the Greek authorities have “drawn up” the assessments “before the full deployment” of the tools.

    The commission did not directly respond to Computer Weekly’s query asking it to clarify whether the Greek authorities have “completed” or merely “drawn up” DPIAs, and whether the commission’s understanding of the status of the DPIAs changed between the initial and final submissions to the European ombudsman.

    Eleftherios Chelioudakis, co-founder of the Greek digital rights organisation Homo Digitalis, rejected the suggestion that there are different benchmarks on deployment. “There is no legal distinction between full deployment of a system or partial deployment of a system,” he said. “In both cases, there are personal data processing operations taking place.”

    Chelioudakis added that the Greek DPA holds that even the mere transmission of footage (even if no data is recorded/stored) constitutes personal data processing, and that GDPR rules apply.
    Check… check… is this camera on?

    Greek officials, initially eager to show off the camps’ surveillance apparatus, have grown increasingly tight-lipped on the precise status of the systems.

    When visiting the ministry’s centralised control room at the end of 2021, Computer Weekly’s reporter was told by officials that three camps – on Samos, Kos and Leros islands – were already fully connected to the systems and that the ministry was working “on a very tight timeframe” to connect the more than 30 remaining refugee camps in Greece. During a rare press conference in September 2022, Greece’s then-migration minister, Notis Mitarachi, said Centaur was in use at the three refugee camps on Samos, Kos and Leros.

    In October 2022, Computer Weekly’s reporter was also granted access to the local control room on Samos Island, and confirmed that monitoring systems were set up and operational but not yet in use. A drone has since been deployed and is being used in the Samos camp, according to several eyewitnesses.

    Officials appear to have exercised more caution with Hyperion, the fingerprint entry-exit system. Computer Weekly understands the system is fully set up and functioning at several of the camps – officials proudly demonstrated its functions during the inauguration of the Kos camp – but has not been in use.

    While it’s not yet clear if the more advanced and controversial features of Centaur are in use – or if they ever will be – what is certain is that footage from the cameras installed on several islands is being fed to a centralised control room in Athens.

    In early October, Computer Weekly’s reporter tried to speak with asylum seekers outside the Samos camp, after officials abruptly announced the temporary suspension of journalist access to this and other EU-funded camps. Guards behind the barbed wire fence at the camp’s gate asked the reporter to move out of the sight of cameras – installed at the gate and the camp’s periphery – afraid they would receive a scolding call from the migration ministry in Athens.

    “If they see you in the cameras they will call and ask, ‘Why is there a journalist there?’ And we will have a problem,” one of the guards said. Lawyers and others who work with asylum seekers in the camp say they’ve had similar experiences.

    On several occasions, Computer Weekly’s reporter has asked the Greek authorities to provide proof or early indications that the systems are improving safety for camp residents, staff and local communities. All requests have been denied or ignored.

    Lawyers and non-governmental organisations (NGOs) have also documented dozens of incidents that undermine Greek officials’ claims of increased safety in the tech-riddled camps.
    Unmet promises of increased security

    In September 2022, a peaceful protest by some 40 Samos camp residents who had received negative decisions on their asylum claims escalated into a riot. Staff evacuated the camp and police were called in and arrested several people.

    Lawyers representing those accused of instigating the brawl and throwing rocks at intervening police officers said they were struck by the absence of photographic or video evidence in the case, despite their clients’ request to use the footage to prove their innocence.

    “Even with all these systems, with all the surveillance, with all the cameras … there were no photographs or video, something to show that those arrested were guilty,” said Dimitris Choulis, a lawyer with the Human Rights Legal Project on Samos.

    Asked about the incident, the Samos camp director at the time explained that the system has blind spots and that the cameras do not cover all areas of the camp, a claim contrary to other official statements.

    Choulis’s organisation and the legal NGO I Have Rights have also collected testimonies from roughly a dozen individuals who claim they were victims of police brutality in the Samos CCAC beginning in July 2022.

    According to Nikos Phokas, a resident of Leros Island, which houses one of the EU-funded facilities, while the surveillance system has proven incapable of preventing harm on several occasions, the ability it gives officials in Athens to peer into the camps at any moment has shifted dynamics for camp residents, staff and the surrounding communities. “This is the worst thing about this camp – the terror the surveillance creates for people. Everyone watches their backs because of it.”

    He added the surveillance apparatus and the closed nature of the new camp on Leros has forced some camp employees to operate “under the radar” out of fear of being accused of engaging in any behaviour that may be deemed out-of-line by officials in Athens.

    For example, when clothes were needed following an influx of arrivals last summer, camp employees coordinated privately and drove their personal vehicles to retrieve items from local volunteers.

    “In the past, it was more flexible. But now there’s so much surveillance – Athens is looking directly at what’s happening here,” said Catharina Kahane, who headed the NGO ECHO100PLUS on Leros, but was forced to cut down on services because the closed nature of the camp, along with stricter regulations by the Greek migration ministry, made it nearly impossible for her NGO to provide services to asylum seekers.

    Camp staff in one of the island facilities organised a protest to denounce being subjected to the same monitoring and security checks as asylum seekers.

    Residents of the camps have mixed views on the surveillance. Heba*, a Syrian mother of three who lodged an asylum claim in Samos and was waiting out her application, in early October said the cameras and other security measures provided a sense of safety in the camp.

    “What we need more is water and food,” said Mohammed*, a Palestinian asylum seeker who got to Samos in the midst of a recent surge in arrivals that brought the camp’s population to nearly 200% capacity and has led to “inhumane and degrading conditions” for residents, according to NGOs. He was perplexed by the presence of high-tech equipment in a refugee camp that has nearly daily water cuts.

    https://www.computerweekly.com/feature/Greek-data-watchdog-to-rule-on-AI-systems-in-refugee-camps
    #camps_de_réfugiés #surveillance #AI #IA #intelligence_artificielle #Grèce #asile #migrations #réfugiés #camps_de_réfugiés #biométrie #algorithmes

  • La chute du Heron blanc, ou la fuite en avant de l’agence #Frontex

    Sale temps pour Frontex, l’agence européenne de gardes-frontières : après le scandale des pushbacks dans les eaux grecques, qui a fait tomber son ex-directeur, l’un de ses drones longue portée de type Heron 1, au coût faramineux, s’est crashé fin août en mer ionienne. Un accident qui met en lumière la dérive militariste de l’Union européenne pour barricader ses frontières méridionales.

    Jeudi 24 août 2023, un grand oiseau blanc a fait un plongeon fatal dans la mer ionienne, à 70 miles nautiques au large de la Crète. On l’appelait « Heron 1 », et il était encore très jeune puisqu’il n’avait au compteur que 3 000 heures de vol. Son employeur ? Frontex, l’agence européenne de gardes-frontières et de gardes-côtes chargée depuis 2004 de réguler les frontières européennes, avec un budget sans cesse en hausse.

    Le Heron 1 est désigné dans la terminologie barbare du secteur de l’armement comme un drone MALE (Medium Altitude Long Endurance) de quatrième génération, c’est-à-dire un engin automatisé de grande taille capable de voler sur de longues distances. Frontex disposait jusqu’au crash de seulement deux drones Heron 1. Le premier a été commandé en octobre 2020, quand l’agence a signé un contrat de 50 millions d’euros par an avec Airbus pour faire voler cet appareil en « leasing » – Airbus passant ensuite des sous-contrats, notamment avec le constructeur israélien IAISystem
    1
    – pour un total de 2 400 heures de vol, et avec des dépassements qui ont fait monter la facture annuelle. En clair, le coût de fonctionnement de ce drôle d’oiseau est abyssal. Frontex rechigne d’ailleurs à entrer dans les détails, arguant de « données commerciales sensibles », ainsi que l’explique Matthias Monroy, journaliste allemand spécialisé dans l’aéronautique : « Ils ne veulent pas donner les éléments montrant que ces drones valent plus cher que des aéroplanes classiques, alors que cela semble évident. »
    2

    La nouvelle de la chute de l’onéreux volatile n’a pas suscité beaucoup de réactions publiques – il n’en est quasiment pas fait mention dans les médias autres que grecs, hormis sur des sites spécialisés. On en trouve cependant une trace sur le portail numérique du Parlement européen, en date du 29 août 2023. Ce jour-là, Özlem Demirel, députée allemande du parti de gauche Die Linke, pose la question « E-002469/2023 » (une interpellation enregistrée sous le titre : « Crash of a second long-range drone operated on Frontex’s behalf »), dans laquelle elle interroge la fiabilité de ces drones. Elle y rappelle que, déjà en 2020, un coûteux drone longue distance opéré par Frontex s’était crashé en mer – un modèle Hermes 900 cette fois-ci, tout aussi onéreux, bijou de l’israélien Elbit Systems. Et la députée de demander : « Qui est responsable ? »

    Une question complexe. « En charge des investigations, les autorités grecques détermineront qui sera jugé responsable, explique Matthias Monroy. S’il y a eu une défaillance technique, alors IAI System devra sans doute payer. Mais si c’est un problème de communication satellite, comme certains l’ont avancé, ou si c’est une erreur de pilotage, alors ce sera à Airbus, ou plutôt à son assureur, de payer la note. »
    VOL AU-DESSUS D’UN NID D’EMBROUILLES

    Le Heron 1 a la taille d’un grand avion de tourisme – presque un mini-jet. D’une envergure de 17 mètres, censé pouvoir voler en autonomie pendant 24 heures (contre 36 pour le Hermes 900), il est équipé de nombreuses caméras, de dispositifs de vision nocturne, de radars et, semble-t-il, de technologies capables de localiser des téléphones satellites
    3
    . Détail important : n’étant pas automatisé, il est manœuvré par un pilote d’Airbus à distance. S’il est aussi utilisé sur des théâtres de guerre, notamment par les armées allemande et israélienne, où il s’est également montré bien peu fiable
    4
    , sa mission dans le cadre de Frontex relève de la pure surveillance : il s’agit de fournir des informations sur les embarcations de personnes exilées en partance pour l’Europe.

    Frontex disposait de deux drones Heron 1 jusqu’au crash. Airbus était notamment chargé d’assurer le transfert des données recueillies vers le quartier général de Frontex, à Varsovie (Pologne). L’engin qui a fait un fatal plouf se concentrait sur la zone SAR(Search and Rescue
    5
    ) grecque et avait pour port d’attache la Crète. C’est dans cette même zone SAR que Frontex a supervisé plus ou moins directement de nombreux pushbacks (des refoulements maritimes), une pratique illégale pourtant maintes fois documentée, ce qui a provoqué un scandale qui a fini par contraindre le Français Fabrice Leggeri à démissionner de la tête de l’agence fin avril 2022. Il n’est pas interdit de penser que ce Heron 1 a joué en la matière un rôle crucial, fournissant des informations aux gardes-côtes grecs qui, ensuite, refoulaient les embarcations chargées d’exilés.

    Quant à son jumeau, le Heron positionné à Malte, son rôle est encore plus problématique. Il est pourtant similaire à celui qui s’est crashé. « C’est exactement le même type de drone », explique Tamino Bohm, « tactical coordinator » (coordinateur tactique) sur les avions de Sea-Watch, une ONG allemande de secours en mer opérant depuis l’île italienne de Lampedusa. Si ce Heron-là, numéro d’immatriculation AS2132, diffère de son jumeau, c’est au niveau du territoire qu’il couvre : lui survole les zones SAR libyennes, offrant les informations recueillies à ceux que la communauté du secours en mer s’accorde à désigner comme les « soi-disant gardes-côtes libyens »
    6
    – en réalité, des éléments des diverses milices prospérant sur le sol libyen qui se comportent en pirates des mers. Financés en partie par l’Union européenne, ils sont avant tout chargés d’empêcher les embarcations de continuer leur route et de ramener leurs passagers en Libye, où les attendent bien souvent des prisons plus ou moins clandestines, aux conditions de détention infernales
    7
    .

    C’est ainsi qu’au large de Lampedusa se joue une sorte de guerre aérienne informelle. Les drones et les avions de Frontex croisent régulièrement ceux d’ONG telles que Sea-Watch, dans un ballet surréaliste : les premiers cherchant à renseigner les Libyens pour qu’ils arraisonnent les personnes exilées repérées au large ; les seconds s’acharnant avec leurs maigres moyens à documenter et à dénoncer naufrages et refoulements en Libye. Et Tamino d’asséner avec malice : « J’aurais préféré que le drone crashé soit celui opérant depuis Malte. Mais c’est déjà mieux que rien. »
    BUDGET GONFLÉ, MANDAT ÉLARGI

    Tant que l’enquête sur le crash n’aura pas abouti, le vol de drones Heron 1 est suspendu sur le territoire terrestre et maritime relevant des autorités grecques, assure Matthias Monroy (qui ajoute que cette interdiction s’applique également aux deux drones du même modèle que possède l’armée grecque). Le crash de l’un de ses deux Heron 1 est donc une mauvaise nouvelle pour Frontex et les adeptes de la forteresse Europe, déjà bien éprouvés par les arrivées massives à Lampedusa à la mi-septembre et l’hospitalité affichée sur place par les habitants. À l’image de ces murs frontaliers bâtis aux frontières de l’Europe et dans l’espace Schengen – un rapport du Parlement européen, publié en octobre 2022 « Walls and fences at EU borders » (https://www.europarl.europa.eu/thinktank/en/document/EPRS_BRI(2022)733692), précise que l’on en est à 2 035 kilomètres de barrières frontalières, contre 315 en 2014 –, matérialisation d’un coûteux repli identitaire clamant une submersion fantasmée, il est évident que la démesure sécuritaire ne freine en rien les volontés de rejoindre l’Europe.

    Ce ne sont pourtant pas les moyens qui manquent. Lors de sa première année d’opérations, en 2005, Frontex disposait d’un budget de 6 millions d’euros. Depuis, celui-ci n’a cessé d’enfler, pour atteindre la somme de 845,4 millions d’euros en 2023, et un effectif de plus de 2 100 personnels – avec un budget prévisionnel 2021-2027 de 11 milliards d’euros et un objectif de 10 000 gardes d’ici à 2027 (dont 7 000 détachés par les États membres).

    Depuis 2019, Frontex dispose d’un mandat élargi qui autorise l’acquisition et la possession d’avions, de drones et d’armes à feu. L’agence s’est aussi géographiquement démultipliée au fil de temps. Ses effectifs peuvent aussi bien patrouiller dans les eaux de Lampedusa que participer à des missions de surveillance de la frontière serbo-hongroise, alors que son rôle initial était simplement d’assister les pays européens dans la gestion de leurs frontières. L’agence européenne joue aussi un rôle dans la démesure technologique qui se développe aux frontières. Rien que dans les airs, l’agence se veut novatrice : elle a déjà investi plusieurs millions d’euros dans un projet de #zeppelin automatisé relié à un câble de 1 000 mètres, ainsi que dans le développement de drones « #quadcopter » pesant une dizaine de kilos. Enfin, Frontex participe aussi à la collecte généralisée de #données migratoires dans le but d’anticiper les refoulements. Elle soutient même des projets visant à gérer les flux humains par #algorithmes.

    Traversée comme les armées par une culture du secret, l’agence s’est fait une spécialité des zones grises et des partenariats opaques, tout en prenant une place toujours plus importante dans la hausse de la létalité des frontières. « Frontex est devenue l’agent de la #militarisation_des_frontières européennes depuis sa création, résume un rapport de la Fondation Jean-Jaurès sorti en juillet 2023. Fondant son fonctionnement sur l’#analyse_des_risques, Frontex a contribué à la perception des frontières européennes comme d’une forteresse assiégée, liant le trafic de drogue et d’êtres humains à des mouvements migratoires plus larges. »

    « VOUS SURVEILLEZ LES FRONTIÈRES, NOUS VOUS SURVEILLONS »

    Dans sa volonté d’expansion tous azimuts, l’agence se tourne désormais vers l’Afrique, où elle œuvre de manière plus ou moins informelle à la mise en place de politiques d’#externalisation des frontières européennes. Elle pèse notamment de tout son poids pour s’implanter durablement au #Sénégal et en #Mauritanie. « Grâce à l’argent des contribuables européens, le Sénégal a construit depuis 2018 au moins neuf postes-frontières et quatre antennes régionales de la Direction nationale de lutte contre le trafic de migrants. Ces sites sont équipés d’un luxe de #technologies de #surveillance_intrusive : outre la petite mallette noire [contenant un outil d’extraction des données], ce sont des #logiciels d’#identification_biométrique des #empreintes_digitales et de #reconnaissance_faciale, des drones, des #serveurs_numériques, des lunettes de vision nocturne et bien d’autres choses encore », révèle une enquête du journal étatsunien In These Times. Très impopulaire sur le continent, ce type de #néocolonialisme obsidional se déploie de manière informelle. Mais il porte bien la marque de Frontex, agence agrippée à l’obsession de multiplier les murs physiques et virtuels.

    Au Sénégal, pour beaucoup, ça ne passe pas. En août 2022, l’association #Boza_Fii a organisé plusieurs journées de débat intitulées « #Pushback_Frontex », avec pour slogan : « Vous surveillez les frontières, nous vous surveillons ». Une manifestation reconduite en août 2023 avec la mobilisation « 72h Push Back Frontex ». Objectif : contrer les négociations en cours entre l’Union européenne et le Sénégal, tout en appelant « à la dissolution définitive de l’agence européenne de gardes-frontières ». Sur RFI, son porte-parole #Saliou_Diouf expliquait récemment son point de vue : « Nous, on lutte pour la #liberté_de_circulation de tout un chacun. […] Depuis longtemps, il y a beaucoup d’argent qui rentre et est-ce que ça a arrêté les départs ? »

    Cette politique « argent contre muraille » est déployée dans d’autres États africains, comme le #Niger ou le #Soudan. Frontex n’y est pas directement impliquée, mais l’Europe verse des centaines de millions d’euros à 26 pays africains pour que des politiques locales visant à bloquer les migrations soient mises en place.

    « Nous avons besoin d’aide humanitaire, pas d’outils sécuritaires », assure Mbaye Diop, travailleur humanitaire dans un camp de la Croix-Rouge situé à la frontière entre le Sénégal et la Mauritanie, dans l’enquête de In These Times. Un constat qui vaut de l’autre côté de la Méditerranée : dans un tweet publié après le crash du Heron 1, l’ONG Sea-Watch observait qu’avec les 50 millions alloués à Airbus et à ses sous-traitants pour planter son Heron dans les flots, « on pourrait faire voler pendant 25 ans nos avions de secours Seabird 1 et Seabird 2 ».

    https://afriquexxi.info/La-chute-du-Heron-blanc-ou-la-fuite-en-avant-de-l-agence-Frontex

    #drones #Heron_1 #frontières #surveillances_des_frontières #contrôles_frontaliers #migrations #asile #réfugiés #drone_MALE (#Medium_Altitude_Long_Endurance) #crash #Airbus #complexe_militaro-industriel #IAI_System #coût #prix #budget #chute #fiabilité #Hermes_900 #Elbit_Systems #données #push-backs #refoulements #AS2132 #Libye #guerre_aérienne_informelle #biométrie

  • Faux abonnés, faux commentaires ou faux « j’aime » : comment tricher sur Instagram ? François Ruchti, Camille Lanci, Valentin Tombez - RTS - Mise au point
    Le business des influenceurs et influenceuses

    Acheter des abonnés ou des « j’aime » pour paraître plus populaire sur les réseaux sociaux : des sites internet proposent ce type de services pour une poignée de francs suisses. Parmi la clientèle, des personnes actives dans le monde de l’influence, de la politique ou du sport, comme le révèle une enquête de Mise au Point.

    En quelques clics, l’équipe de Mise au Point est virtuellement devenue, avec son profil « Emmalicieuse », l’un des comptes Instagram les plus prometteurs de Suisse romande. Pourtant, sur le profil de cette dernière, rien n’est vrai. Tout est acheté sur des sites internet qui proposent des centaines d’abonnés et des « j’aime » pour quelques euros.

    Pour paraître plus populaire et gonfler son audience, Emmalicieuse a ainsi pu compter sur l’achat de plus de 13’000 abonnés, de milliers de « j’aime » et de milliers de vues pour ses vidéos. Avec un budget total de 300 francs suisses , il a également été possible de lui payer des dizaines de commentaires comme « trop belle la photo » ou encore « j’adore ton look ». Son profil a depuis été effacé.

    Durant l’expérience qui a duré quelques semaines, le compte Emmalicieuse n’a jamais été bloqué par Instagram. Le réseau social prétend pourtant lutter activement contre les abonnés achetés et autres techniques pour gonfler sa notoriété.

    https://scontent-cdg4-3.cdninstagram.com/v/t51.2885-19/331936339_966551758087518_1492022311809588947_n.jpg
    Capture d’écran du profil d’Emmalicieuse [Instagram]

    Sous-traitants basés en Asie
    Parmi les fournisseurs d’abonnés achetés, Marc (Nom connu de la rédaction) , le patron d’une entreprise française spécialisée dans le domaine, a accepté de répondre aux questions de Mise au Point sous couvert d’anonymat.

    "Il y a différents types de qualité d’abonnés, avec plus ou moins de photos et d’éléments pour les rendre plus authentiques. Une fois qu’un client nous fait une commande, nous utilisons des stocks de profils pour générer des « j’aime » ou des commentaires. Généralement, ce ne sont pas de vraies personnes qui cliquent, tout est fabriqué par des réseaux d’ordinateurs et des sous-traitants basés en Asie. Il y a également la possibilité d’obtenir des vrais profils, des vrais abonnés. Ceci est possible grâce à des concours où il est obligatoire de s’abonner à nos clients. Ce service coûte plus cher", révèle-t-il.

    Ces gens veulent crédibiliser leur présence sur les réseaux. Avoir 100 ou 50’000 abonnés, cela fait la différence
    Marc*, le patron d’une entreprise française spécialisée dans le domaine

    Le jeune homme ne souhaite pas donner le nom de ses clients. « Parmi eux, il y a des gens qui souhaitent briller sur les réseaux, qui souhaitent impressionner leurs amis. Ce sont des ’Monsieur et Madame tout le monde’ », explique-t-il au micro de l’émission de la RTS. Avant d’ajouter qu’il y a aussi des politiciens, des influenceurs et de grosses entreprises qui font appel aux services de son entreprise. « Ces gens veulent crédibiliser leur présence sur les réseaux. Avoir 100 ou 50’000 abonnés, cela fait la différence », souligne-t-il.

    Son entreprise est également sollicitée pour se servir de l’algorithme de YouTube. Ces plateformes mettent en avant, comme il l’explique, les vidéos qui ont du succès. Et le succès amène le succès : « Notre service permet de créer de la visibilité. J’ai un client qui achète des dizaines de milliers de vues dès qu’il publie une vidéo. À chaque fois, cela lui permet de mettre en avant sa vidéo. Des vraies personnes finissent par aller voir sa vidéo. Et il fait ainsi facilement un million de vues », poursuit-il.

    Avec Emmalicieuse, la fausse influenceuse de Mise au Point, les abonnés ont été achetés via le site de Marc, mais également sur le site de ses concurrents. Ceci a permis d’identifier précisément un échantillon de 200 profils payants sur Instagram. L’équipe data de la RTS a analysé ces 200 comptes. Ces profils payants sont abonnés à Emmalicieuse, mais également à toute une série de gens bien réels.

    Des sportifs, artistes et politiciens _
    nicocapone.comedy [Instagram]De petites célébrités locales, des entrepreneurs, mais aussi quelques sportifs et artistes ont les mêmes abonnés qu’Emmalicieuse. Sur les 200 profils payants analysés, une cinquantaine suit par exemple le joueur de football Olivier Boumal. On trouve également une politicienne turque, Elvan Işık Gezmiş, membre du Parlement.

    En Suisse, c’est chez des influenceurs vaudois, nicocapone.comedy, qu’on retrouve une partie de notre échantillon de profils payants. Le couple vaudois, connu sur internet, fait régulièrement des apparitions à la télévision. Il affiche officiellement plus de 10 millions d’abonnés sur Instagram.

    Contactées, aucune de ces personnes n’a répondu à nos questions. Attention toutefois : les profils payants analysés se sont peut-être abonnés exceptionnellement gratuitement à ces différentes personnes.

    Sortir du lot *
    Mais pourquoi cette course aux « j’aime », aux abonnés ou aux commentaires ? Certains influenceurs interrogés ont avoué sous couvert d’anonymat utiliser ces artifices afin de sortir du lot et devenir attractifs pour les marques. En Suisse, une personne influenceuse peut déjà gagner plusieurs milliers de francs par mois avec 20 à 30’000 abonnés.

    Avec l’avènement des réseaux sociaux, des agences d’influence ont vu le jour. Ces agences mettent en relation les marques avec des influenceurs. Ils utilisent des outils afin de vérifier l’authenticité des influenceurs, mais la supercherie est parfois très dure à détecter. Hors caméra, des agences d’influenceurs avouent à demi-mot connaître l’ampleur du faux. Cette supercherie ne semble toutefois pas leur poser des problèmes.

    « Si 50% des abonnés d’un instagrammer sont achetés, ce n’est pas si grave. Certains ont plus d’un million de followers... Alors 50% de faux, ça reste 500’000 personnes qui peuvent être touchées, impactées par cette personne. Ca reste très intéressant de faire de la publicité avec ces influenceurs », indique l’une d’entre elles.

    Dans ce monde du faux, entre la course à la notoriété, aux partenariats, aux « j’aime » et aux commentaires, il est difficile de savoir qui joue le jeu sans tricher. Les consommatrices et consommateurs lambda sont donc laissés à eux-mêmes dans la jungle d’Instagram.

    #influenceurs #influenceuses #publicité #sport #politique #notoriété #réseaux_sociaux #blogs #notoriété #profils #abonnements #partenariats #fraude #internet #algorithmes #supercherie

    Source : https://www.rts.ch/info/suisse/14241142-faux-abonnes-faux-commentaires-ou-faux-jaime-comment-tricher-sur-instag

  • TikTok, le roi de l’économie de l’attention
    https://lesechos.fr/tech-medias/medias/tiktok-le-roi-de-leconomie-de-lattention-1965285

    […] Un public captif et captivé de plus d’un milliard d’utilisateurs mensuels actifs qui, sans être aussi valorisé par les annonceurs qu’une audience plus mûre au pouvoir d’achat supérieur, est prisé pour sa capacité à façonner les tendances de demain. « #TikTok est devenu le point de destination d’une génération sur Internet, souligne Alexandre Mahé, de Fabernovel. De toutes les plateformes, il reste celle où l’on peut toucher l’audience la plus jeune. » Les annonceurs apprécieront cette statistique : 46 % des sondés par Kantar affirment « ne pas se laisser distraire » lorsqu’ils sont sur TikTok.

    « Temps de cerveau humain disponible »

    Car le dernier-né des réseaux a réussi une véritable prouesse : capter l’intérêt des usagers dans un univers ultra-concurrentiel dans lequel « l’abondance d’informations crée une rareté de l’#attention », comme le théorisait, en 1971, le psychologue et économiste américain Herbert A. Simon. Le concept d’« économie de l’attention » n’est pas né d’hier. En 2004, Patrick Le Lay, PDG du groupe TF1, avait déjà reconnu que son métier consistait à « vendre à Coca-Cola du temps de cerveau humain disponible ». Les géants du numérique ont encore professionnalisé l’opération.

    « Si les plateformes ont des usages multiples et proposent des fonctionnalités distinctes, leur modèle économique est sensiblement le même : il consiste à transformer le temps que nous y passons en revenus publicitaires, expose Arthur Grimonpont dans ’#Algocratie, vivre libre à l’heure des #algorithmes', paru en 2022 chez Actes Sud. De là naît une compétition redoutable pour se partager une ressource rare et précieuse : notre #temps_d'attention. »

    Et TikTok exploite mieux que quiconque ce « nouveau pétrole » grâce à son algorithme, aussi mystérieux que surperformant, qui génère un flux infini de recommandations en rapport avec les centres d’intérêt de chaque usager à partir de ses « scrolls » passés, de ses interactions, des vidéos regardées jusqu’au bout ou même visionnées plusieurs fois, etc. […]

    (Les Échos)

    #capitalisme #capitalisme_de_surveillance

  • Gouverner par les #données ? Pour une sociologie politique du numérique

    Cet ouvrage est une invitation à entrer dans la boîte noire des #algorithmes, non pas d’un point de vue technique, mais de sociologie politique. La multiplication des données disponibles en ligne, couplée au progrès de l’#intelligence_artificielle, ont-ils des effets sur les manières de gouverner ? Les algorithmes peuvent-ils « prédire » les comportements des citoyens ? Comment sont fabriqués ces algorithmes, dits prédictifs, et par qui ? Sont-ils neutres et objectifs ? Quels sont les enjeux sociaux, éthiques et politiques, liés à l’exploitation des données ? Et quelles sont les stratégies commerciales et marchandes à l’œuvre ? Peut-on encore protéger nos données ?

    Derrière l’exploitation des données, il y a bien des #visions_du_monde. Il s’agit alors de penser l’#algorithme comme un objet politique et social, produit par des acteurs et issu de commandes privées et désormais aussi publiques. Ces lignes de codes et de calculs complexes ne peuvent être dissociées de leurs conditions de production : elles sont encastrées dans un ensemble organisationnel et professionnel spécifique et portées par des #intentions et volontés politiques.

    À travers une série d’études de cas et l’apport d’enquêtes empiriques poussées et inédites, ce volume permet de saisir en contexte comment sont utilisées nos données et quelles sont les influences possibles sur les modes de #gouvernance et les prises de décision. La force de cet ouvrage, à la croisée de la sociologie économique, du droit, des sciences politiques et de l’informatique, est de poser les bases d’une #sociologie_politique des données et du #numérique, visant à dépasser et déconstruire les mythes et les croyances véhiculées par le #big_data.

    http://catalogue-editions.ens-lyon.fr/fr/livre/?GCOI=29021100613110

    #livre #prise_de_décision

  • Ouvrir le code des #algorithmes ? — oui, mais… (2/2)
    https://framablog.org/2023/05/22/ouvrir-le-code-des-algorithmes-oui-mais-2-2

    Voici le deuxième volet (si vous avez raté le premier) de l’enquête approfondie d’Hubert Guillaud sur l’exploration des algorithmes, et de son analyse des enjeux qui en découlent. Dans le code source de l’amplification algorithmique : que voulons-nous vraiment savoir ? par … Lire la suite­­

    #Enjeux_du_numérique #amplificaton #engagement #Facebook #Instagram #Narayan #portée #recommandation #TikTok #Twitter #viralité

  • Ouvrir le code des #algorithmes ? — Oui, mais… (1/2)
    https://framablog.org/2023/05/15/ouvrir-le-code-des-algorithmes-oui-mais-1-2

    Voici le premier des deux articles qu’Hubert #Guillaud nous fait le plaisir de partager. Sans s’arrêter à la surface de l’actualité, il aborde la #transparence du code des algorithmes, qui entraîne un grand nombre de questions épineuses sur lesquelles il … Lire la suite­­

    #Enjeux_du_numérique #amplification #Documentation #données #interdiction #Kayser-Bril #minimisation #Narayan #Nicholas #recherche #Twitter

  • Intelligence artificielle et administration publique numérique
    Cour de cassation
    Cycle 2022 « L’intelligence artificielle : quelle intelligence juridique ? »

    #surveillance #contrôle_social #inégalités_sociales #précarité
    Un véritable florilège de la marche forcée de la société à l’ère de l’administration numérique.

    Toute la vidéo vaut la peine d’être écoutée, voici un extrait si vous voulez des preuves pour refuser les compteurs intelligents
    #linky #gazpar et autres saloperies de surveillance

    https://youtu.be/ppeDpCBYOkk?t=5673

    compter le nombre de douches des chômeurs #belgique

    #Algorithmes #IA

  • Comment mieux utiliser les algorithmes de recommandation : ils expliquent
    https://www.ladn.eu/tech-a-suivre/touche-pas-a-mon-spotify-ces-utilisateurs-qui-bichonnent-leurs-algorithmes-de-r

    Leurs algorithmes de recommandation sont devenus si affûtés, que certains les considèrent comme une partie de leur intimité. Ils et elles nous racontent leurs usages de ces programmes informatiques qui régissent Deezer, Spotify, TikTok et YouTube.

    Ils nous assaillent de publicités, nous enferment dans des petites cases, nous radicalisent, nous rendent accros, tristes et idiots. Voilà ce qu’on dit souvent des algorithmes de recommandation qui régissent une bonne partie de notre vie en ligne. Pourtant, nous avons appris à vivre avec. Certains ont même fait le pari de s’en servir intelligemment, de ne pas se laisser complètement happer par leur biais, mais d’essayer de les dompter, d’en faire des alliés de vie.

    #SNT #NSI #Algorithmes

  • TikTok’s Secret ‘Heating’ Button Can Make Anyone Go Viral
    https://www.forbes.com/sites/emilybaker-white/2023/01/20/tiktoks-secret-heating-button-can-make-anyone-go-viral

    Heating also reveals that, at least sometimes, videos on the For You page aren’t there because TikTok thinks you’ll like them; instead, they’re there because TikTok wants a particular brand or creator to get more views. And without labels, like those used for ads and sponsored content, it’s impossible to tell which is which.

    Employees have also abused heating privileges. Three sources told Forbes they were aware of instances where heating was used improperly by employees; one said that employees have been known to heat their own or their spouses’ accounts in violation of company policy. Documents reviewed by Forbes showed that employees have heated their own accounts, as well as accounts of people with whom they have personal relationships. According to one document, a heating incident of this type led to an account receiving more than three million views.

    (attention modérateurices de @seenthis, on vous a à l’oeil)

    #heating #promotion #algorithmes

  • « Déverbalisation et écrans » (lu dans le dernier Flotoir de Florence Trocmé https://poezibao.typepad.com/files/flotoir-du-15-d%C3%A9cembre-2022.pdf)

    Deux textes à rapprocher, un important passage du livre Les Irremplaçables de #Cynthia_Fleury et un édito du Figaro (samedi 3 décembre 2022) qui s’intitule « Les écrans et la caverne ». Dans cet édito Laurence de Charrette fait un rapprochement entre le sort des contemporains accrochés à leur téléphone et la caverne platonicienne : « la compulsion des #écrans est un virus contemporain » écrit-elle, ce qui en dit long sur « les transformations profondes du rapport au monde qu’engendre la #société_numérique ». Elle évoque alors la fameuses allégorie de Platon mettant en scène des hommes enchaînés dans une caverne : « tournant le dos à l’entrée, ils ne voient pas des objets, mais leurs ombres projetées sur le mur, qu’ils prennent pour la réalité, toute la réalité ». Résultat ? « Confondre ombre et vérité, voilà le syndrome que nourrit l’#addiction aux #réseaux. » Et l’on ne peut s’empêcher de s’inquiéter de ce que cette dérive va devenir avec le développement du fameux métavers. La journaliste a ces mots forts : « voir la vie au travers de sa projection narcissique dans le monde liquide, penser l’instant d’abord dans sa représentation, sa mise en scène dans l’agora du vide ; et se placer ainsi dans l’attente éperdue de l’écho de soi-même. ». Elle enfonce ensuite le clou rappelant que les plateformes ne sont pas des succédanés de la Poste ou le commencement « de l’espace démocratique rêvé par les Grecs anciens » parce que « leurs #algorithmes sont faits pour transformer nos données personnelles en bénéfices »
    Et c’est là que peut s’opérer le rapprochement avec Cynthia Fleury dans la deuxième partie de son livre Les irremplaçables, partie titrée « Le Dogme du pouvoir ». Le sous-chapitre s’intitule « #désubjectivation et déverbalisation » et va montrer comment tout est fait dans le système capitalistique pour vider le sujet humain de sa substance et principalement en lui ôtant les mots, pas tant de la bouche que de la conscience. « Toute tentative de désindividuation prend appui sur la déverbalisation » qui n’est pas seulement « l’impossibilité de traduire précisément ce que l’on pense » mais « porte atteinte à la faculté même de conception intellectuelle » (p. 113) Avec ce double constat, terrifiant : 1. on ne parvient plus à penser ce que d’autres sont capables d’énoncer ; 2. on perd conscience de ce qui devrait faire réalité pour soi.. Elle ponctue cela d’une très belle formule « le langage est une naissance du monde, comme une naissance au monde ». On retrouve là sans doute une des grandes raisons d’être de la poésie ! Mais « voler au sujet sa capacité d’énonciation n’est pas suffisant. Ce qu’il faut voler c’est la condition de possibilité de cette énonciation, sa dynamique de conscientisation. Premier grand processus de la domination : ‘priver de #langage les dominés’. »

    #capitalisme #crétinisation

    Un peu plus loin, elle aborde la question centrale de l’#attention, souvent évoquée dans ce Flotoir : « L’exploitation capitalistique (...) capte, plus encore que les richesses, l’attention des individus. Les individus sont divertis, distraits au sens pascalien, ils sont occupés, pleinement occupés à ne pas penser. » (pp. 104-105). Il s’agit bien de détourner l’attention, voire de rendre cette fonction malade, voire invalide par le jeu des sauts constants de toute focalisation un peu tenue, induits par tous les médias, au sens très large. Incluant bien sûr les écrans en tous genres. Or dit encore Cynthia Fleury « l’attention est par essence l’antichambre du souci de soi et des autres ». (p. 106)

    #distraction #diversion

  • On entend trop le mot « algorithme »
    https://framablog.org/2022/09/29/on-entend-trop-le-mot-algorithme

    Dans les débats politiques au sujet du Web et du numérique en général, on parle souvent d’« algorithmes ». Il n’est peut-être pas inutile de revenir sur ce qu’est un algorithme et sur ce qu’il n’est pas. Si vous êtes informaticien·ne, vous … Lire la suite­­

    #Claviers_invités #Internet_et_société #algorithmes #algorithmique #programmation #programmes

  • Une campagne d’ingérence étrangère proaméricaine démantelée sur Twitter et Facebook Jeff Yates - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1907927/ingerence-etrangere-americaine-moyen-orient-iran-asie-centale-faceb

    L’opération était gérée depuis les États-Unis, mais il n’est pas possible de savoir si le gouvernement se cache derrière.

    Des chercheurs ont détecté une campagne clandestine sur les réseaux sociaux visant à promouvoir les intérêts des États-Unis et à alimenter la méfiance envers leurs adversaires, selon un nouveau rapport publié mercredi https://fsi.stanford.edu/news/sio-aug-22-takedowns .

    Cette campagne clandestine, active depuis 2017, visait à influencer les utilisateurs de réseaux sociaux habitant en Asie centrale, en Iran, en Afghanistan et au Moyen-Orient. À l’aide de faux comptes se faisant passer pour des médias et des habitants locaux, la campagne cherchait à attiser le ressentiment envers la Russie, l’Iran et la Chine. Près de la moitié des comptes visaient la population iranienne.

    Les chercheurs, travaillant pour la firme d’analyse des réseaux sociaux Graphika, ainsi que pour l’Observatoire de l’Internet de l’Université Stanford, jugent qu’il s’agit de “la plus vaste opération d’influence pro-occidentale sur les réseaux sociaux jamais analysée par des chercheurs œuvrant dans le renseignement d’origine sources ouvertes (open source)”.

    En tout, l’équipe a analysé près de 300 000 tweets provenant de 146 faux comptes Twitter, ainsi que 39 faux comptes, 16 pages, 2 groupes sur Facebook et 26 comptes Instagram. Les chercheurs ont aussi trouvé des faux comptes associés sur d’autres réseaux sociaux de langue russe. Selon leur analyse, tous ces faux comptes agissaient de façon coordonnée.

    Meta, l’entreprise qui détient Facebook et Instagram, et Twitter ont supprimé l’entièreté du réseau et affirment que ces faux comptes auraient été gérés depuis les États-Unis. Ni ces entreprises ni les chercheurs ne peuvent dire avec certitude qui est derrière cette campagne.

    Les chercheurs notent toutefois qu’une version archivée d’un des faux comptes montre que celui-ci indiquait en 2021 appartenir à CENTCOM, le commandement central des États-Unis, responsable des opérations militaires au Moyen-Orient et en Asie centrale, entre autres.

    Le réseau a même utilisé des portraits générés par l’intelligence artificielle pour créer des faux profils plus réalistes. Ces comptes ont répandu des articles provenant de sites web de faux médias locaux, des caricatures, ainsi que des pétitions comportant un message pro-occidental.

    Quelques faux profils appartenant au réseau et visant le Moyen-Orient. Les photos de profil ont été créées à l’aide de l’intelligence artificielle. Photo : Graphika/Stanford University

    Peu après le début de l’invasion russe de l’Ukraine, plusieurs de ceux-ci ont cherché à dépeindre la Russie comme étant un agresseur et à mettre l’accent sur les atrocités alléguées commises par les soldats russes.

    “Jusqu’à maintenant, presque toute la recherche sur les opérations d’influence se penchait sur des activités liées à des régimes autoritaires. Notre rapport offre un des premiers regards sur une opération clandestine proaméricaine sur les réseaux sociaux”, juge Shelby Grossman, qui fait partie des auteurs du rapport et chercheuse à l’Observatoire de l’Internet de Stanford.

    Elle et ses collègues soulignent que la campagne était relativement de piètre qualité. Certains textes étaient par exemple traduits de l’anglais au russe de façon approximative. Les publications de ces faux comptes ont généré peu d’engouement chez les populations visées. Le tweet moyen associé à cette campagne a reçu 0,49 j’aime et 0,02 retweet, fait remarquer Mme Grossman. . . . . . . .

    #USA #CIA #twitter #facebook #méta #manipulation #algorithmes #réseaux_sociaux #ia #intelligence_artificielle #pétitions #influenceurs #influenceuses #centcom #médias #ukraine

  • À #Calais, une #surveillance du ciel au tunnel

    #Drones, #reconnaissance_faciale, #capteurs_de_CO2 et de battements cardiaques : face à l’afflux de réfugiés, la frontière franco-britannique est surveillée à grands coups d’#intelligence_artificielle. Premier volet de notre série sur la #cybersurveillance des frontières.

    Pablo lève les yeux au ciel et réfléchit. Brusquement, il fixe son ordinateur. Le chargé de communication et plaidoyer chez Human Rights Observers (HRO) fouille dans ses dossiers, ouvre un document d’une quinzaine de pages. « Tu vois, ce jour-là, ils ont utilisé un drone », indique-t-il en pointant l’écran du doigt. Le 9 juin, l’association pour laquelle il travaille assiste à une expulsion de réfugié·es à #Grande-Synthe. Dans son compte-rendu, elle mentionne la présence d’un drone. Des vols d’aéronefs, hélicoptères ou avions, devenus routiniers.

    En cette matinée de fin juin, Pablo a donné rendez-vous sur son lieu de travail, « l’entrepôt », comme il l’appelle. Ce vaste bâtiment désaffecté d’une zone industrielle à l’est de Calais héberge plusieurs associations locales. Les bureaux de HRO sont spartiates : un simple préfabriqué blanc planté dans la cour.

    C’est ici que ses membres se réunissent pour documenter les #violences d’État perpétrées contre les personnes en situation d’exil à la frontière franco-britannique, plus spécifiquement à Calais et à Grande-Synthe. Depuis plus de 20 ans, la ville est érigée en symbole de la crise migratoire. L’évacuation et la destruction de la jungle en octobre 2016 n’ont rien changé. Désormais réparties dans de multiples camps précaires, des centaines de migrants et migrantes tentent le passage vers l’Angleterre au péril de leur vie. Selon le ministère de l’intérieur, ils et elles étaient 52 000 en 2021, un record, contre « seulement » 10 000 en 2020.

    Sous l’impulsion des pouvoirs publics, Calais se barricade. Plus que les maisons de briques rouges, ce sont les #clôtures géantes, les rangées de #barbelés et les #marécages_artificiels qui attirent la vue. Tout semble construit pour décourager les exilé·es de rejoindre la Grande-Bretagne. « Avant, il n’y avait pas tout ça. C’est devenu assez oppressant », regrette Alexandra. Arrivée il y a sept ans dans le Pas-de-Calais, elle travaille pour l’Auberge des migrants, association qui coordonne le projet HRO.

    Quatre #caméras empilées sur un pylône à l’entrée du port rappellent que cette frontière n’est pas que physique. #Vidéosurveillance, #drones, #avions, #détecteurs_de_CO2… Le littoral nord incarne le parfait exemple de la « #smart_border ». Une frontière invisible, connectée. Un eldorado pour certaines entreprises du secteur de l’intelligence artificielle, mais un cauchemar pour les exilé·es désormais à la merci des #algorithmes.

    Si des dizaines de #caméras lorgnent déjà sur le port et le centre-ville, la tendance n’est pas près de s’inverser. La maire LR, #Natacha_Bouchart, qui n’a pas donné suite à notre demande d’interview, prévoit d’investir 558 000 euros supplémentaires en #vidéosurveillance en 2022.

    « C’est la nouvelle étape d’une politique en place depuis plusieurs décennies », analyse Pierre Bonnevalle, politologue, auteur d’un long rapport sur le sujet. À Calais, la #bunkérisation remonte, selon le chercheur, au milieu des années 1990. « À cette époque commencent les premières occupations des espaces portuaires par des personnes venues des pays de l’Est qui souhaitaient rejoindre la Grande-Bretagne. Cela entraîne les premières expulsions, puis un arrêté pris par la préfecture pour interdire l’accès au port. »

    Les années suivantes, c’est à #Sangatte que se dessinent les pratiques policières d’aujourd’hui. Dans cette commune limitrophe de Calais, un hangar préfigure ce que sera la « #jungle » et héberge jusqu’à 2 000 exilé·es. « La police cible alors tous ceux qui errent dans la ville, tentent d’ouvrir des squats, de dormir dans un espace boisé. » Une manière de « contenir le problème », de « gagner du temps ».

    En parallèle, la ville s’équipe en vidéosurveillance et en barbelés. En 2016, l’expulsion de la jungle fait émerger la politique gouvernementale actuelle : l’#expulsion par les forces de l’ordre, toutes les 24 ou 48 heures, des camps où vivent les personnes exilées.

    #Surveillance_aérienne

    Calme et grisâtre en ce jour de visite, le ciel calaisien n’est pas épargné. Depuis septembre 2020, l’armée britannique fait voler un drone #Watchkeeper, produit par l’industriel français #Thales, pour surveiller la mer. « Nous restons pleinement déterminés à soutenir le ministère de l’intérieur britannique alors qu’il s’attaque au nombre croissant de petits bateaux traversant la Manche », se félicite l’armée britannique dans un communiqué.

    Selon des données de vol consultées par Mediapart, un drone de l’#Agence_européenne_pour_la_sécurité_maritime (#AESM) survole également régulièrement les eaux, officiellement pour analyser les niveaux de pollution des navires qui transitent dans le détroit du Pas-de-Calais. Est-il parfois chargé de missions de surveillance ? L’AESM n’a pas répondu à nos questions.

    Au sein du milieu associatif calaisien, la présence de ces volatiles numériques n’étonne personne. « On en voit souvent, comme des hélicoptères équipés de caméras thermiques », confie Marguerite, salariée de l’Auberge des migrants. Chargée de mission au Secours catholique, Juliette Delaplace constate que cette présence complexifie leur travail. « On ne sait pas si ce sont des drones militaires, ou des forces de l’ordre, mais lorsque l’on intervient et que les exilés voient qu’un drone nous survole, c’est très compliqué de gagner leur confiance. »

    En décembre 2021, à la suite d’une demande expresse du ministre de l’intérieur, Gérald Darmanin, l’agence européenne #Frontex a dépêché un #avion pour surveiller la côte pendant plusieurs semaines. « Une mission toujours en cours pour patrouiller aux frontières française et belge », précise Frontex.

    « On sent une évolution des #contrôles depuis l’intervention de cet avion, qui a œuvré principalement la nuit, confie le maire d’une ville du Nord. Beaucoup de gens tentaient de monter dans des camions, mais cela a diminué depuis que les contrôles se sont durcis. »

    Il faut dire que la société #Eurotunnel, qui gère le tunnel sous la Manche, ne lésine pas sur les moyens. En 2019, elle a dépensé 15 millions d’euros pour installer des sas « #Parafe » utilisant la reconnaissance faciale du même nom, mise au point par Thales. Lors du passage de la frontière, certains camions sont examinés par des capteurs de CO2 ou de fréquence cardiaque, ainsi que par de l’#imagerie par #ondes_millimétriques, afin de détecter les personnes qui pourraient s’être cachées dans le chargement.

    « C’est un dispositif qui existe depuis 2004, lorsque Nicolas Sarkozy a fait évacuer le camp de Sangatte, informe un porte-parole d’Eurotunnel. Depuis 2015, il y a tellement de demandes de la part des routiers pour passer par ce terminal, car ils peuvent recevoir des amendes si un migrant est trouvé dans leur camion, que nous avons agrandi sa capacité d’accueil et qu’il fait partie intégrante du trajet. »

    Des outils de plus en plus perfectionnés qui coïncident avec l’évolution des modes de passage des personnes exilées, analyse le politologue Pierre Bonnevalle. « Pendant longtemps, il s’agissait de surveiller les poids lourds. Le #port et le #tunnel sont aujourd’hui tellement bunkérisés que les exilés traversent en bateau. »

    Les technologies employées suivent : en novembre 2021, le ministère de l’intérieur annonçait la mise à disposition de 4 x 4, de lunettes de vision nocturne ou de #caméras_thermiques pour équiper les gendarmes et policiers chargés de lutter contre l’immigration clandestine sur les côtes de la Manche.

    « Ces technologies ne servent à rien, à part militariser l’espace public. J’ai encore rencontré des associatifs la semaine dernière qui me disaient que cela n’a aucun impact sur le nombre de passages et les risques pris par ces gens », tempête l’eurodéputé et ancien maire de Grande-Synthe Damien Carême.

    Elles ont malgré tout un #coût : 1,28 milliard d’euros depuis 1998, selon Pierre Bonnevalle, dont 425 millions pour la seule période 2017-2021. « C’est une estimation a minima, pointe-t-il. Cela ne prend pas en compte, par exemple, le coût des forces de l’ordre. »

    Publié en novembre 2021, un rapport de la commission d’enquête parlementaire sur les migrations détaille les dépenses pour la seule année 2020 : l’État a investi 24,5 millions dans des dispositifs humanitaires d’hébergement, contre 86,4 pour la mobilisation des forces de l’ordre. Des sommes qui désespèrent Pablo, le militant de Human Rights Observers. « Cela aurait permit de bâtir de nombreux centres d’accueil pour que les exilés vivent dans des conditions dignes. » L’État semble avoir d’autres priorités.

    #technologie #frontières #contrôles_frontaliers #asile #migrations #réfugiés #surveillance_des_frontières #militarisation_des_frontières #IA #AI #complexe_militaro-industriel #Manche #La_Manche #France #UK #Angleterre
    –-

    via @olaf #merci :
    https://seenthis.net/messages/968794

  • Bulles de filtres et chambres d’écho - YouTube
    https://www.youtube.com/watch?v=i7d55LgDncM

    En plus de notre tendance à préférer les contenus qui confirment ce que l’on pense déjà - le « biais de confirmation » - les algorithmes contribuent à nous enfermer dans une bulle où rien ne pénètre, à part les informations auxquelles on adhère à priori. Faites-en l’expérience en cliquant seulement sur des vidéos de chats. Rapidement, votre fil de nouvelles sera envahi de chats !

    #Algorithmes #Information #Réseauxsociaux #SNT #GAFAM #Recherche #EMI

  • Management : « Les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles », Régis Martineau, Professeur à l’ICN Business School

    Le chercheur Régis Martineau explique, dans une tribune au « Monde », que nous sommes entrés dans une phase d’« oligarchie numérique », où les entreprises dominantes, comme les Gafam, dictent les règles dans presque tous les aspects de la vie et du travail.

    Les algorithmes s’appuient sur le big data et l’intelligence artificielle pour prédire et analyser les comportements des individus. Ils sont devenus essentiels, au cours de la dernière décennie, dans le fonctionnement des organisations : ils peuvent être utilisés pour mieux connaître les clients, faciliter une meilleure prise de décision, assurer une coordination plus fluide ou encore améliorer l’apprentissage organisationnel. Ils sont par ailleurs essentiels à l’économie de plate-forme et à l’industrie 4.0.

    Mais les algorithmes ne bouleversent pas seulement les modèles économiques ou la relation client, ils modifient aussi les modes de management. Ainsi, dans les organisations, est pratiqué de plus en plus le « management algorithmique », une nouvelle forme de management, qui s’appuie sur les algorithmes pour organiser les modes de production et de contrôle. Qu’y a-t-il de nouveau avec le management algorithmique ?

    Selon la synthèse réalisée récemment par des chercheurs de l’Institut de technologie du Massachusetts (MIT) et de l’université Stanford (Cafifornie), les algorithmes ont, comparés aux systèmes de contrôle traditionnels, trois caractéristiques qui les distinguent.
    Instantanés et interactifs
    Tout d’abord, ils permettent de capter davantage d’aspects du comportement humain : les dispositifs connectés peuvent désormais enregistrer avec plus d’acuité les mouvements corporels (jusqu’aux mouvements du visage et les données biométriques) et les pensées des salariés (à travers les vidéos et les enregistrements audio, mais aussi l’analyse des données textuelles).

    Cela permet de prescrire et d’encadrer le travail d’une manière nouvelle, souvent de manière beaucoup plus stricte et en temps réel. Par exemple, Uber analyse les données d’accélération et de freinage pour produire des « nudges » incitant les chauffeurs à prendre des pauses. Certaines entreprises analysent le vocabulaire utilisé et les sentiments exprimés sur les réseaux par les salariés ; quand d’autres localisent les employés qui interagissent fréquemment ensemble ou, au contraire, ceux qui s’isolent. D’autres utilisent même la reconnaissance faciale pour évaluer le moral de leurs employés.

    Ensuite, les algorithmes sont instantanés et interactifs : on peut maintenant davantage calculer, sauvegarder et communiquer des informations en temps réel. Cela a des conséquences importantes sur les modes d’évaluation des salariés, qui se fait de plus en plus instantanément à travers notamment les notes attribuées par les consommateurs.

    Amazon, Craigslist, Upwork, eBay, Uber, Lyft, Airbnb, TripAdvisor, pour ne citer que les plus connues, utilisent ces évaluations pour attribuer les commandes aux individus les mieux notés et rendre les « mal notés », ou ceux dont le comportement s’écarte de la prescription, moins visibles. Par ailleurs, les algorithmes utilisent cette instantanéité pour « gamifier » le travail, au travers d’applications qui utilisent les techniques de récompense ou d’incitation inventées dans le monde du jeu vidéo.

    Mêmes questions et mêmes réactions

    Enfin, les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles. La plupart des travailleurs ne saisissent pas complètement quels types de données sont collectés à leur sujet, comment elles sont utilisées ou comment les contester. De plus, avec le « machine learning », les algorithmes sont particulièrement difficiles à déchiffrer, y compris pour les spécialistes de l’intelligence artificielle eux-mêmes.
    Cette opacité rend le contrôle particulièrement strict et rend difficile le « gaming » (le jeu avec les règles), qui, traditionnellement, permet aux individus d’aménager des espaces de liberté dans l’entreprise.
    Lire aussi Article réservé à nos abonnés Entreprises : « Il faut avoir le courage de briser le silence à l’endroit où il doit l’être et oser nommer les abus managériaux qui ont pu en résulter »
    Voilà pour le « nouveau monde ». Cependant, l’« ancien monde » n’est jamais trop près de disparaître. En réalité, comparé aux formes traditionnelles du contrôle, le management algorithmique repose les mêmes questions et provoque les mêmes réactions, déjà bien connues.

    Rien de nouveau dans ces gestes répétitifs de travailleurs non qualifiés ; ce paiement à la (micro) tâche ; ces « journaliers » incertains d’être assignés à une tâche éphémère ; cette facilité de remplacement du facteur travail (par d’autres plus précaires ou par des machines) ; cette précarité qu’entraîne un contrat de travail non protecteur ; cette surveillance stricte… Autant d’éléments déjà bien décrits dans les romans de Steinbeck ou dans les films de Chaplin.

    Les joies du stakhanovisme

    De manière plus surprenante, on y renoue même avec les joies du stakhanovisme : les livreurs à vélo connaissent bien ce système qui indique le nombre de kilomètres parcourus, et qui les compare à ce livreur mythique, qui parcourt des distances chaque mois dignes d’un coureur du Tour de France… Au final, entre « gamification » et discours enthousiastes sur l’intelligence artificielle d’un côté ; et précarité et surveillance accrue de l’autre, les travailleurs transportent dans leurs poches un bien étrange Big Brother…
    Lire aussi : Article réservé à nos abonnés Mari-Noëlle Jégo-Laveissière : « Choisir l’“IA douce” contre l’“IA Big Brother” »
    L’histoire du management a montré que nous avons déjà connu des périodes où de nouvelles technologies venaient bouleverser les modes de management. A chaque fois, au début, ces nouvelles formes de management sont célébrées comme des innovations bénéfiques, tout en rendant le contrôle plus intrusif et plus strict ; et sont très peu débattues, malgré leurs implications humaine, éthique et juridique importantes. Ensuite, elles sont contrebalancées par des mouvements qui les font évoluer vers un management plus humain (par exemple, le mouvement des relations humaines avait répondu au taylorisme).

    Les sciences des organisations peuvent donc aider à prendre du recul sur les algorithmes et à penser des politiques adaptées. Selon des recherches historiques récentes, nous serions actuellement dans une phase d’« oligarchie numérique », c’est-à-dire un laisser-faire qui laisse le numérique – et les entreprises qui en sont les leaders, particulièrement les Gafam (Google, Apple, Facebook, Amazon et Microsoft) – se développer de manière incontrôlée, dans tous les aspects de la vie et du travail.

    Pour contrer ou mieux encadrer ce mouvement, les pouvoirs publics et les organisations collectives du travail doivent se saisir du sujet pour que les intérêts et les limites du numérique au travail soient collectivement et politiquement débattus, pour en venir à une « démocratie numérique ».

    https://www.lemonde.fr/idees/article/2022/04/26/management-les-algorithmes-sont-plus-opaques-que-les-methodes-de-controle-tr

    #travail #management #algorithmes

    • Dans les entreprises, l’essor du management par les algorithmes

      C’est le manageur dont le travail se voit aujourd’hui le plus transformé par l’intelligence artificielle (IA), affirme une étude de l’Organisation de coopération et de développement économiques (OCDE), publiée en décembre 2021. Juste derrière le professionnel de la finance. L’essor du big data dans les années 2000, couplée à l’utilisation de systèmes informatiques capables de traiter une quantité de données sans précédent, a permis le développement de logiciels ultra-perfectionnés, capables de participer aux décisions les plus stratégiques dans l’entreprise. Ainsi, 32 % environ des emplois risquent d’être modifié radicalement par le progrès technologique, estime une autre étude de l’OCDE parue en 2019. Selon l’organisme international, les fonctions supérieures d’encadrement et de décision sont les prochaines sur la liste.

      https://justpaste.it/4t53e

  • affordance.info : 4 questions aux algorithmes (et à ceux qui les font, et à ce que nous en faisons)
    https://www.affordance.info/mon_weblog/2022/04/4-questions-algorithmes.html
    https://www.affordance.info/.a/6a00d8341c622e53ef0282e14f7a64200b-600wi

    La problème de la transparence comme de la redevabilité, même en se limitant aux algorithmes publics, c’est qu’un « algorithme » est un fait calculatoire et décisionnel qui ne peut être isolé de faits sociaux qui en déterminent les causes et les effets. Un algorithme est développé par des gens, qui obéissent à d’autres gens, et qui sont tous pris dans des déterminismes et des contraintes économiques, professionnelles, politiques, sociales, etc. Penser que l’ouverture et et la redevabilité des algorithmes suffira à régler l’ensemble des problèmes qu’ils posent n’a pas davantage de sens que penser que l’étiquetage des denrées alimentaires résoudra les problèmes de malbouffe, d’obésité et de surproduction agricole.

    #SNT #NSI #EMI #algorithmes #Réseauxsociaux #Facebook #Moteurderecherche

  • Les États-Unis en quatre couleurs
    https://visionscarto.net/les-etats-unis-en-quatre-couleurs

    Titre : Les États-Unis en quatre couleurs Mots-clés : #Algorithmes #Coloriage #Contraintes Auteur : Philippe Rivière Date : Avril 2021 Un théorème de mathématiques démontre que quatre couleurs suffisent à colorier n’importe quelle carte (sans que deux régions contiguës ne partagent la même couleur, bien entendu). Dans la pratique, le coloriage peut se faire à la main en s’armant de patience, ou bien par des techniques algorithmiques dites de « programmation logique » ou de « programmation par (...) #Collection_cartographique

  • Usbek & Rica - Tech Paf - L’obscénité de la mécanique du scrolling
    https://usbeketrica.com/fr/article/tech-paf-l-obscenite-de-la-mecanique-du-scrolling
    https://usbeketrica.com/uploads/media/1200x628/02/92782-scrolling+shutterstock.jpg?v=1-0

    La guerre en Ukraine révèle à quel point les algorithmes d’Instagram et notre tendance à scroller compulsivement nous font passer à côté des vraies informations. L’édito d’Elena Scappaticci, rédactrice en chef web de la plateforme d’Usbek & Rica.

    #EMI #Réseauxsociaux #Images #Algorithmes #Instagram

  • Censure des œuvres d’art sur les réseaux sociaux | Academie Des Beaux Arts
    https://www.academiedesbeauxarts.fr/censure-des-oeuvres-dart-sur-les-reseaux-sociaux

    Censure des œuvres d’art sur les réseaux sociaux : l’Académie des beaux-arts appelle à la vigilance

    De L’Origine du monde de Gustave Courbet à La Liberté guidant le peuple d’Eugène Delacroix, ou encore de la Descente de Croix de Pierre-Paul Rubens, aux photographies de Lucien Clergue en passant, 4000 ans plus tôt, par la Vénus de Willendorf, les exemples de censure sur les réseaux sociaux sont innombrables et entravent considérablement, chaque jour un peu plus, la promotion de l’Art sur ces médias incontournables.

    Les plateformes principales des réseaux sociaux ont en effet introduit dans leurs conditions d’utilisation que « leur politique en matière de diffusion ne permettait pas la nudité ou la nudité suggérée », ne faisant ainsi, par le biais de leurs algorithmes, aucune différence entre des œuvres d’art et des selfies et autres clichés personnels de nus portés à la vue de tous.

    Les membres de l’Académie des beaux-arts, réunis en séance plénière hebdomadaire ce mercredi 16 février 2022, considèrent que les plateformes de diffusion ne sauraient s’arroger le droit de censurer la diffusion d’une œuvre d’art au seul motif que la représentation de celle-ci n’entre pas complètement dans les critères qu’elles ont établis.

    Cette situation ubuesque impose une réaction légitime de l’Académie des beaux-arts qui appelle à se poser la question de la liberté de la diffusion de l’information et des moyens à mettre en œuvre pour la protéger.

    #Censure #Médias_sociaux #Algorithmes

  • Crisis Text Line, from my perspective | danah boyd | apophenia
    http://www.zephoria.org/thoughts/archives/2022/01/31/crisis-text-line-from-my-perspective.html

    Passionnant. Les questions que se pose danah boyd sur les questions éthiques liée à l’activité d’aide et de conseil par texto avec des personnes en grande difficulté mentales (appels à l’aide en situations de crise, voire de suicide). Comment et faut-il utiliser les données que constituent ces échanges ? Que veut dire « consentement » quand on a affaire à des personnes en situation de crise psychologique ? Comment former les conseillers qui répondent aux personnes en difficulté ? Peut-on trouver des patterns dans les échanges qui permettent de prioritiser les réponses en fonction de l’urgence détectée par algorithme ? Enfin, comment financer l’activité des organisations bénévoles et hors marché quand les entreprises et l’Etat ne donnent pas les moyens réels de remplir des missions sociales pourtant nécessaires ?

    Un très long texte, honnête dans son positionnement, ouvert dans ses questionnement, et bien loin des réponses en noir & blanc.

    Like everyone who cares about Crisis Text Line and the people we serve, I have spent the last few days reflecting on recent critiques about the organization’s practices. Having spent my career thinking about and grappling with tech ethics and privacy issues, I knew that – had I not been privy to the details and context that I know – I would be outraged by what folks heard this weekend. I would be doing what many of my friends and colleagues are doing, voicing anger and disgust. But as a founding board member of Crisis Text Line, who served as board chair from June 2020 until the beginning of January 2021, I also have additional information that shaped how I thought about these matters and informed my actions and votes over the last eight years.

    As a director, I am currently working with others on the board and in the organization to chart a path forward. As was just announced, we have concluded that we were wrong to share texter data with Loris.ai and have ended our data-sharing agreement, effective immediately. We had not shared data since we changed leadership; the board had chosen to prioritize other organizational changes to support our staff, but this call-to-action was heard loud and clear and shifted our priorities. But that doesn’t mean that the broader questions being raised are resolved.

    Texters come to us in their darkest moments. What it means to govern the traces they leave behind looks different than what it means to govern other types of data. We are always asking ourselves when, how, and should we leverage individual conversations borne out of crisis to better help that individual, our counselors, and others who are suffering. These are challenging ethical questions with no easy answer.

    What follows is how I personally thought through, balanced, and made decisions related to the trade-offs around data that we face every day at Crisis Text Line. This has been a journey for me and everyone else involved in this organization, precisely because we care so deeply. I owe it to the people we serve, the workers of Crisis Text Line, and the broader community who are challenging me to come forward to own my decisions and role in this conversation. This is my attempt to share both the role that I played and the framework that shaped my thinking. Since my peers are asking for this to be a case study in tech ethics, I am going into significant detail. For those not seeking such detail, I apologize for the length of this.

    Most of the current conversation is focused on the ethics of private-sector access to messages from texters in crisis. These are important issues that I will address, but I want to walk through how earlier decisions influenced that decision. I also want to share how the ethical struggles we face are not as simple as a binary around private-sector access. There are ethical questions all the way down.

    #danah_boyd #Crisis_Text_Line #Santé_mentale #Algorithmes #Formation #Données_médicales

  • Le média en ligne « #QG » dénonce sa « #censure » par YouTube

    « Le reste de la presse devrait se réveiller. Sinon, qui empêchera Youtube, et les autres plateformes, de déterminer qui peut parler et qui doit être réduit au silence ? »
    https://reporterre.net/Le-media-en-ligne-QG-denonce-sa-censure-par-YouTube

    Dans un tweet posté le 31 janvier, le média en ligne QG dénonce son « shadow banning » (« bannissement fantôme ») par la plateforme de diffusion de vidéos YouTube. Ce bannissement est en fait une #invisibilisation : les #algorithmes de #YouTube rendent peu visibles aux internautes les sujets présentés par le média.

    Cette invisibilisation, explique à Reporterre Aude Lancelin, directrice de QG, a commencé en juillet 2021, à la suite de la participation du professeur Christian Perronne à un #débat [ démocratique équilibré ] avec le docteur Jean-Michel Constantin, du service de réanimation de l’hôpital Pitié-Salpêtrière. M. Perronne défend des positions mettant en doute l’utilité des vaccins Pfizer et Moderna contre le Covid. « Il était confronté à un médecin hospitalier qui l’a contredit pied à pied », précise Aude Lancelin. Le débat a été diffusé en mai 2021. Un best off a ensuite été diffusé en juillet 2021. La vidéo entière de l’émission a alors été supprimée par YouTube, qui a envoyé un « avertissement » à QG. Motif : « violation des droits de YouTube » et un contenu « pas en accord avec notre règlement à ce sujet ».


    « Il s’agit d’une censure qui ne dit pas son nom »

    Depuis, le nombre de vues des vidéos de QG vues sur YouTube, quel qu’en soit le sujet, sont à un niveau très bas, alors que sur Facebook, il reste à son niveau habituel. Dans un courriel à YouTube, le média en ligne écrit : « Nous observons une baisse significative du nombres de vues sur nos vidéos. De plus, après plusieurs essais, nous avons constaté que certains contenus exactement identiques aux nôtres mais postés sur des chaînes différentes réalisaient un nombre de vues bien supérieur, sur des chaînes dont le nombre d’abonnés est comparable à la nôtre. (…) La baisse de visibilité est réellement significative depuis que nous avons reçu cet avertissement. (…) YouTube a été un des leviers majeurs de notre essor et cette soudaine invisibilisation pourrait mener à des conséquences néfastes à terme. » QG n’a reçu aucune réponse de YouTube.

    « Il s’agit d’une censure qui ne dit pas son nom », dit Aude Lancelin à Reporterre. « On n’a pas fait énormément de contenus sur ce sujet, mais il faut donner la parole, non pas à des fous, mais à ceux qui discutent le passe vaccinal et qui discutent l’obligation vaccinale. » Elle précise que QG a suivi des manifs de Gilets jaunes contre le passe vaccinal, « mais jamais Philippot [leader d’extrême droite venant du Rassemblement national] et les gens de cette mouvance ».

    YouTube opère souvent des retraits de vidéos selon des critères opaques

    QG, qui compte une équipe d’une dizaine de personnes dont cinq journalistes, est un média reconnu par la CPPAP (Commission paritaire des publications et agences de presse), et membre du syndicat de la presse indépendante d’information en ligne (le Spiil), dont font partie de nombreux #médias-indépendants, tels Reporterre ou Mediapart.

    YouTube opère souvent des retraits de vidéos selon des critères opaques. En janvier 2022, la plateforme a retiré un discours à… l’Assemblée nationale du député La France insoumise Bastien Lachaud.

    Reporterre a cherché à joindre YouTube France pour connaître son point de vue. Mais il n’a pas été possible de parler à une personne humaine, le standard téléphonique n’ouvrant pas la possibilité d’un tel échange.

    • Pour chaque Post d’articles de Reporterre le fan-club des « anticomplotistes » :p se déchaîne désormais contre lui. Bientôt plus personne Ici va oser le référencer sans être taxer de complotiste ou de confusionniste ou même de (beurk) covidonégationniste !

      Je m’attend au pire avec celui là !

    • Remettre en question la politique autoritaire (censure de Médias indépendants comme Nantes Révoltée et QG par la plateforme Youtube ) ni surtout la #politique-non-sanitaire en Macronie mais pas que, est désormais suspect !

      Pourtant au Sénat, Véran ...

      « Le ministre des Solidarités et de la Santé, Olivier Véran, a été auditionné ce 2 février 2022 par la commission d’enquête du Sénat sur l’influence des cabinets conseil. La rapporteure lui a demandé des explications, en lui soumettant plusieurs documents auxquels a participé le cabinet McKinsey. »
      https://www.youtube.com/watch?v=hnQvDere0Zg

      Véran avoue carrément que #McKinsey n’est mentionné sur aucun des documents qu’ils ont rédigés puisque c’est toujours le logo du ministère de la santé qui apparaît dessus.

      Tout est toujours flou en #macronie parce que tout n’est qu’arnaque…

      Cette scène surréaliste où Véran bafouille, tempête et nie l’évidence quand on lui explique qu’on a payé 700 000€ 2 personnes de #McKinsey pour des missions floues, c’est l’illustration parfaite du vol en bande organisé auquel se livrent #Macron-et-sa-bande.

      La première action de n’importe quel nouveau président devait être de lever le #secret-défense sur cet iceberg de magouilles, dont on devine que la partie immergée est immense, qu’est la politique non-sanitaire de cette fine équipe de truands…

      Ils en pensent quoi les candidats ?

      Véran explique au Sénat qu’il a dépensé 26,8 millions en cabinets de conseil depuis 2020 pour des plans moisis qui ne l’ont soit-disant pas aidé à prendre ses décisions, sans qu’on sache ce qui vient de #McKinsey ou de l’administration.

      L’arnaque du siècle !

      #VeranDemission

      https://www.publicsenat.fr/article/parlementaire/a-aucun-moment-mckinsey-ne-m-a-fait-prendre-une-decision-en-lien-avec-la

      Il n’y a pas une once d’humanité dans la politique de Macron.

      Ce n’est pas un rempart, c’est déjà le fascisme !