• Les serfs du numérique

    À propos de : Cédric Durand, Techno-féodalisme. Critique de l’économie #numérique. Zones. Cédric Durand analyse les conséquences de l’essor de l’économie numérique sur les structures économiques en matière de dynamisme concurrentiel et de rapports sociaux, dont les caractéristiques s’apparenteraient à une nouvelle forme de féodalisme.

    #Économie #exploitation

    • EU: Frontex splashes out: millions of euros for new technology and equipment (19.06.2020)

      The approval of the new #Frontex_Regulation in November 2019 implied an increase of competences, budget and capabilities for the EU’s border agency, which is now equipping itself with increased means to monitor events and developments at the borders and beyond, as well as renewing its IT systems to improve the management of the reams of data to which it will have access.

      In 2020 Frontex’s #budget grew to €420.6 million, an increase of over 34% compared to 2019. The European Commission has proposed that in the next EU budget (formally known as the Multiannual Financial Framework or MFF, covering 2021-27) €11 billion will be made available to the agency, although legal negotiations are ongoing and have hit significant stumbling blocks due to Brexit, the COVID-19 pandemic and political disagreements.

      Nevertheless, the increase for this year has clearly provided a number of opportunities for Frontex. For instance, it has already agreed contracts worth €28 million for the acquisition of dozens of vehicles equipped with thermal and day cameras, surveillance radar and sensors.

      According to the contract for the provision of Mobile Surveillance Systems, these new tools will be used “for detection, identification and recognising of objects of interest e.g. human beings and/or groups of people, vehicles moving across the border (land and sea), as well as vessels sailing within the coastal areas, and other objects identified as objects of interest”. [1]

      Frontex has also published a call for tenders for Maritime Analysis Tools, worth a total of up to €2.6 million. With this, Frontex seeks to improve access to “big data” for maritime analysis. [2] The objective of deploying these tools is to enhance Frontex’s operational support to EU border, coast guard and law enforcement authorities in “suppressing and preventing, among others, illegal migration and cross-border crime in the maritime domain”.

      Moreover, the system should be capable of delivering analysis and identification of high-risk threats following the collection and storage of “big data”. It is not clear how much human input and monitoring there will be of the identification of risks. The call for tenders says the winning bidder should have been announced in May, but there is no public information on the chosen company so far.

      As part of a 12-month pilot project to examine how maritime analysis tools could “support multipurpose operational response,” Frontex previously engaged the services of the Tel Aviv-based company Windward Ltd, which claims to fuse “maritime data and artificial intelligence… to provide the right insights, with the right context, at the right time.” [3] Windward, whose current chairman is John Browne, the former CEO of the multinational oil company BP, received €783,000 for its work. [4]

      As the agency’s gathering and processing of data increases, it also aims to improve and develop its own internal IT systems, through a two-year project worth €34 million. This will establish a set of “framework contracts”. Through these, each time the agency seeks a new IT service or system, companies selected to participate in the framework contracts will submit bids for the work. [5]

      The agency is also seeking a ’Software Solution for EBCG [European Border and Coast Guard] Team Members to Access to Schengen Information System’, through a contract worth up to €5 million. [6] The Schengen Information System (SIS) is the EU’s largest database, enabling cooperation between authorities working in the fields of police, border control and customs of all the Schengen states (26 EU member states plus Iceland, Norway, Liechtenstein and Switzerland) and its legal bases were recently reformed to include new types of alert and categories of data. [7]

      This software will give Frontex officials direct access to certain data within the SIS. Currently, they have to request access via national border guards in the country in which they are operating. This would give complete autonomy to Frontex officials to consult the SIS whilst undertaking operations, shortening the length of the procedure. [8]

      With the legal basis for increasing Frontex’s powers in place, the process to build up its personnel, material and surveillance capacities continues, with significant financial implications.


      #technologie #équipement #Multiannual_Financial_Framework #MFF #surveillance #Mobile_Surveillance_Systems #Maritime_Analysis_Tools #données #big_data #mer #Windward_Ltd #Israël #John_Browne #BP #complexe_militaro-industriel #Software_Solution_for_EBCG_Team_Members_to_Access_to_Schengen_Information_System #SIS #Schengen_Information_System

    • EU : Guns, guards and guidelines : reinforcement of Frontex runs into problems (26.05.2020)

      An internal report circulated by Frontex to EU government delegations highlights a series of issues in implementing the agency’s new legislation. Despite the Covid-19 pandemic, the agency is urging swift action to implement the mandate and is pressing ahead with the recruitment of its new ‘standing corps’. However, there are legal problems with the acquisition, registration, storage and transport of weapons. The agency is also calling for derogations from EU rules on staff disciplinary measures in relation to the use of force; and wants an extended set of privileges and immunities. Furthermore, it is assisting with “voluntary return” despite this activity appearing to fall outside of its legal mandate.

      State-of-play report

      At the end of April 2020, Frontex circulated a report to EU government delegations in the Council outlining the state of play of the implementation of its new Regulation (“EBCG 2.0 Regulation”, in the agency and Commission’s words), especially relating to “current challenges”.[1] Presumably, this refers to the outbreak of a pandemic, though the report also acknowledges challenges created by the legal ambiguities contained in the Regulation itself, in particular with regard to the acquisition of weapons, supervisory and disciplinary mechanisms, legal privileges and immunities and involvement in “voluntary return” operations.

      The path set out in the report is that the “operational autonomy of the agency will gradually increase towards 2027” until it is a “fully-fledged and reliable partner” to EU and Schengen states. It acknowledges the impacts of unforeseen world events on the EU’s forthcoming budget (Multi-annual Financial Framework, MFF) for 2021-27, and hints at the impact this will have on Frontex’s own budget and objectives. Nevertheless, the agency is still determined to “continue increasing the capabilities” of the agency, including its acquisition of new equipment and employment of new staff for its standing corps.

      The main issues covered by the report are: Frontex’s new standing corps of staff, executive powers and the use of force, fundamental rights and data protection, and the integration into Frontex of EUROSUR, the European Border Surveillance System.

      The new standing corps


      A new standing corps of 10,000 Frontex staff by 2024 is to be, in the words of the agency, its “biggest game changer”.[2] The report notes that the establishment of the standing corps has been heavily affected by the outbreak of Covid-19. According to the report, 7,238 individuals had applied to join the standing corps before the outbreak of the pandemic. 5,482 of these – over 75% – were assessed by the agency as eligible, with a final 304 passing the entire selection process to be on the “reserve lists”.[3]

      Despite interruptions to the recruitment procedure following worldwide lockdown measures, interviews for Category 1 staff – permanent Frontex staff members to be deployed on operations – were resumed via video by the end of April. 80 candidates were shortlisted for the first week, and Frontex aims to interview 1,000 people in total. Despite this adaptation, successful candidates will have to wait for Frontex’s contractor to re-open in order to carry out medical tests, an obligatory requirement for the standing corps.[4]

      In 2020, Frontex joined the European Defence Agency’s Satellite Communications (SatCom) and Communications and Information System (CIS) services in order to ensure ICT support for the standing corps in operation as of 2021.[5] The EDA describes SatCom and CIS as “fundamental for Communication, Command and Control in military operations… [enabling] EU Commanders to connect forces in remote areas with HQs and capitals and to manage the forces missions and tasks”.[6]


      The basic training programme, endorsed by the management board in October 2019, is designed for Category 1 staff. It includes specific training in interoperability and “harmonisation with member states”. The actual syllabus, content and materials for this basic training were developed by March 2020; Statewatch has made a request for access to these documents, which is currently pending with the Frontex Transparency Office. This process has also been affected by the novel coronavirus, though the report insists that “no delay is foreseen in the availability of the specialised profile related training of the standing corps”.

      Use of force

      The state-of-play-report acknowledges a number of legal ambiguities surrounding some of the more controversial powers outlined in Frontex’s 2019 Regulation, highlighting perhaps that political ambition, rather than serious consideration and assessment, propelled the legislation, overtaking adequate procedure and oversight. The incentive to enact the legislation within a short timeframe is cited as a reason that no impact assessment was carried out on the proposed recast to the agency’s mandate. This draft was rushed through negotiations and approved in an unprecedented six-month period, and the details lost in its wake are now coming to light.

      Article 82 of the 2019 Regulation refers to the use of force and carriage of weapons by Frontex staff, while a supervisory mechanism for the use of force by statutory staff is established by Article 55. This says:

      “On the basis of a proposal from the executive director, the management board shall: (a) establish an appropriate supervisory mechanism to monitor the application of the provisions on use of force by statutory staff, including rules on reporting and specific measures, such as those of a disciplinary nature, with regard to the use of force during deployments”[7]

      The agency’s management board is expected to make a decision about this supervisory mechanism, including specific measures and reporting, by the end of June 2020.

      The state-of-play report posits that the legal terms of Article 55 are inconsistent with the standard rules on administrative enquiries and disciplinary measures concerning EU staff.[8] These outline, inter alia, that a dedicated disciplinary board will be established in each institution including at least one member from outside the institution, that this board must be independent and its proceedings secret. Frontex insists that its staff will be a special case as the “first uniformed service of the EU”, and will therefore require “special arrangements or derogations to the Staff Regulations” to comply with the “totally different nature of tasks and risks associated with their deployments”.[9]

      What is particularly astounding about Frontex demanding special treatment for oversight, particularly on use of force and weapons is that, as the report acknowledges, the agency cannot yet legally store or transport any weapons it acquires.

      Regarding service weapons and “non-lethal equipment”,[10] legal analysis by “external experts and a regulatory law firm” concluded that the 2019 Regulation does not provide a legal basis for acquiring, registering, storing or transporting weapons in Poland, where the agency’s headquarters is located. Frontex has applied to the Commission for clarity on how to proceed, says the report. Frontex declined to comment on the status of this consultation and any indications of the next steps the agency will take. A Commission spokesperson stated only that it had recently received the agency’s enquiry and “is analysing the request and the applicable legal framework in the view of replying to the EBCGA”, without expanding further.

      Until Frontex has the legal basis to do so, it cannot launch a tender for firearms and “non-lethal equipment” (which includes batons, pepper spray and handcuffs). However, the report implies the agency is ready to do so as soon as it receives the green light. Technical specifications are currently being finalised for “non-lethal equipment” and Frontex still plans to complete acquisition by the end of the year.

      Privileges and immunities

      The agency is also seeking special treatment with regard to the legal privileges and immunities it and its officials enjoy. Article 96 of the 2019 Regulation outlines the privileges and immunities of Frontex officers, stating:

      “Protocol No 7 on the Privileges and Immunities of the European Union annexed to the Treaty on European Union (TEU) and to the TFEU shall apply to the Agency and its statutory staff.” [11]

      However, Frontex notes that the Protocol does not apply to non-EU states, nor does it “offer a full protection, or take into account a need for the inviolability of assets owned by Frontex (service vehicles, vessels, aircraft)”.[12] Frontex is increasingly involved in operations taking place on non-EU territory. For instance, the Council of the EU has signed or initialled a number of Status Agreements with non-EU states, primarily in the Western Balkans, concerning Frontex activities in those countries. To launch operations under these agreements, Frontex will (or, in the case of Albania, already has) agree on operational plans with each state, under which Frontex staff can use executive powers.[13] The agency therefore seeks an “EU-level status of forces agreement… to account for the partial absence of rules”.

      Law enforcement

      To implement its enhanced functions regarding cross-border crime, Frontex will continue to participate in Europol’s four-year policy cycle addressing “serious international and organised crime”.[14] The agency is also developing a pilot project, “Investigation Support Activities- Cross Border Crime” (ISA-CBC), addressing drug trafficking and terrorism.

      Fundamental rights and data protection

      The ‘EBCG 2.0 Regulation’ requires several changes to fundamental rights measures by the agency, which, aside from some vague “legal analyses” seem to be undergoing development with only internal oversight.

      Firstly, to facilitate adequate independence of the Fundamental Rights Officer (FRO), special rules have to be established. The FRO was introduced under Frontex’s 2016 Regulation, but has since then been understaffed and underfunded by the agency.[15] The 2019 Regulation obliges the agency to ensure “sufficient and adequate human and financial resources” for the office, as well as 40 fundamental rights monitors.[16] These standing corps staff members will be responsible for monitoring compliance with fundamental rights standards, providing advice and assistance on the agency’s plans and activities, and will visit and evaluate operations, including acting as forced return monitors.[17]

      During negotiations over the proposed Regulation 2.0, MEPs introduced extended powers for the Fundamental Rights Officer themselves. The FRO was previously responsible for contributing to Frontex’s fundamental rights strategy and monitoring its compliance with and promotion of fundamental rights. Now, they will be able to monitor compliance by conducting investigations; offering advice where deemed necessary or upon request of the agency; providing opinions on operational plans, pilot projects and technical assistance; and carrying out on-the-spot visits. The executive director is now obliged to respond “as to how concerns regarding possible violations of fundamental rights… have been addressed,” and the management board “shall ensure that action is taken with regard to recommendations of the fundamental rights officer.” [18] The investigatory powers of the FRO are not, however, set out in the Regulation.

      The state-of-play report says that “legal analyses and exchanges” are ongoing, and will inform an eventual management board decision, but no timeline for this is offered. [19] The agency will also need to adapt its much criticised individual complaints mechanism to fit the requirements of the 2019 Regulation; executive director Fabrice Leggeri’s first-draft decision on this process is currently undergoing internal consultations. Even the explicit requirement set out in the 2019 Regulation for an “independent and effective” complaints mechanism,[20] does not meet minimum standards to qualify as an effective remedy, which include institutional independence, accessibility in practice, and capacity to carry out thorough and prompt investigations.[21]

      Frontex has entered into a service level agreement (SLA) with the EU’s Fundamental Rights Agency (FRA) for support in establishing and training the team of fundamental rights monitors introduced by the 2019 Regulation. These monitors are to be statutory staff of the agency and will assess fundamental rights compliance of operational activities, advising, assisting and contributing to “the promotion of fundamental rights”.[22] The scope and objectives for this team were finalised at the end of March this year, and the agency will establish the team by the end of the year. Statewatch has requested clarification as to what is to be included in the team’s scope and objectives, pending with the Frontex Transparency Office.

      Regarding data protection, the agency plans a package of implementing rules (covering issues ranging from the position of data protection officer to the restriction of rights for returnees and restrictions under administrative data processing) to be implemented throughout 2020.[23] The management board will review a first draft of the implementing rules on the data protection officer in the second quarter of 2020.


      The European Return and Reintegration Network (ERRIN) – a network of 15 European states and the Commission facilitating cooperation over return operations “as part of the EU efforts to manage migration” – is to be handed over to Frontex. [24] A handover plan is currently under the final stage of review; it reportedly outlines the scoping of activities and details of “which groups of returnees will be eligible for Frontex assistance in the future”.[25] A request from Statewatch to Frontex for comment on what assistance will be provided by the agency to such returnees was unanswered at the time of publication.

      Since the entry into force of its new mandate, Frontex has also been providing technical assistance for so-called voluntary returns, with the first two such operations carried out on scheduled flights (as opposed to charter flights) in February 2020. A total of 28 people were returned by mid-April, despite the fact that there is no legal clarity over what the definition “voluntary return” actually refers to, as the state-of-play report also explains:

      “The terminology of voluntary return was introduced in the Regulation without providing any definition thereof. This terminology (voluntary departure vs voluntary return) is moreover not in line with the terminology used in the Return Directive (EBCG 2.0 refers to the definition of returns provided for in the Return Directive. The Return Directive, however, does not cover voluntary returns; a voluntary return is not a return within the meaning of the Return Directive). Further elaboration is needed.”[26]

      On top of requiring “further clarification”, if Frontex is assisting with “voluntary returns” that are not governed by the Returns Directive, it is acting outside of its legal mandate. Statewatch has launched an investigation into the agency’s activities relating to voluntary returns, to outline the number of such operations to date, their country of return and country of destination.

      Frontex is currently developing a module dedicated to voluntary returns by charter flight for its FAR (Frontex Application for Returns) platform (part of its return case management system). On top of the technical support delivered by the agency, Frontex also foresees the provision of on-the-ground support from Frontex representatives or a “return counsellor”, who will form part of the dedicated return teams planned for the standing corps from 2021.[27]

      Frontex has updated its return case management system (RECAMAS), an online platform for member state authorities and Frontex to communicate and plan return operations, to manage an increased scope. The state-of-play report implies that this includes detail on post-return activities in a new “post-return module”, indicating that Frontex is acting on commitments to expand its activity in this area. According to the agency’s roadmap on implementing the 2019 Regulation, an action plan on how the agency will provide post-return support to people (Article 48(1), 2019 Regulation) will be written by the third quarter of 2020.[28]

      In its closing paragraph, related to the budgetary impact of COVID-19 regarding return operations, the agency notes that although activities will resume once aerial transportation restrictions are eased, “the agency will not be able to provide what has been initially intended, undermining the concept of the EBCG as a whole”.[29]


      The Commission is leading progress on adopting the implementing act for the integration of EUROSUR into Frontex, which will define the implementation of new aerial surveillance,[30] expected by the end of the year.[31] Frontex is discussing new working arrangements with the European Aviation Safety Agency (EASA) and the European Organisation for the Safety of Air Navigation (EUROCONTROL). The development by Frontex of the surveillance project’s communications network will require significant budgetary investment, as the agency plans to maintain the current system ahead of its planned replacement in 2025.[32] This investment is projected despite the agency’s recognition of the economic impact of Covid-19 on member states, and the consequent adjustments to the MFF 2021-27.


      Drafted and published as the world responds to an unprecedented pandemic, the “current challenges” referred to in the report appear, on first read, to refer to the budgetary and staffing implications of global shut down. However, the report maintains throughout that the agency’s determination to expand, in terms of powers as well as staffing, will not be stalled despite delays and budgeting adjustments. Indeed, it is implied more than once that the “current challenges” necessitate more than ever that these powers be assumed. The true challenges, from the agency’s point of view, stem from the fact that its current mandate was rushed through negotiations in six months, leading to legal ambiguities that leave it unable to acquire or transport weapons and in a tricky relationship with the EU protocol on privileges and immunities when operating in third countries. Given the violence that so frequently accompanies border control operations in the EU, it will come as a relief to many that Frontex is having difficulties acquiring its own weaponry. However, it is far from reassuring that the introduction of new measures on fundamental rights and accountability are being carried out internally and remain unavailable for public scrutiny.

      Jane Kilpatrick

      Note: this article was updated on 26 May 2020 to include the European Commission’s response to Statewatch’s enquiries.

      It was updated on 1 July with some minor corrections:

      “the Council of the EU has signed or initialled a number of Status Agreements with non-EU states... under which” replaces “the agency has entered into working agreements with Balkan states, under which”
      “The investigatory powers of the FRO are not, however, set out in any detail in the Regulation beyond monitoring the agency’s ’compliance with fundamental rights, including by conducting investigations’” replaces “The investigatory powers of the FRO are not, however, set out in the Regulation”
      “if Frontex is assisting with “voluntary returns” that are not governed by the Returns Directive, it further exposes the haste with which legislation written to deny entry into the EU and facilitate expulsions was drafted” replaces “if Frontex is assisting with “voluntary returns” that are not governed by the Returns Directive, it is acting outside of its legal mandate”


      [1] Frontex, ‘State of play of the implementation of the EBCG 2.0 Regulation in view of current challenges’, 27 April 2020, contained in Council document 7607/20, LIMITE, 20 April 2020, http://statewatch.org/news/2020/may/eu-council-frontex-ECBG-state-of-play-7607-20.pdf

      [2] Frontex, ‘Programming Document 2018-20’, 10 December 2017, http://www.statewatch.org/news/2019/feb/frontex-programming-document-2018-20.pdf

      [3] Section 1.1, state of play report

      [4] Jane Kilpatrick, ‘Frontex launches “game-changing” recruitment drive for standing corps of border guards’, Statewatch Analysis, March 2020, http://www.statewatch.org/analyses/no-355-frontex-recruitment-standing-corps.pdf

      [5] Section 7.1, state of play report

      [6] EDA, ‘EU SatCom Market’, https://www.eda.europa.eu/what-we-do/activities/activities-search/eu-satcom-market

      [7] Article 55(5)(a), Regulation (EU) 2019/1896 of the European Parliament and of the Council on the European Border and Coast Guard (Frontex 2019 Regulation), https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:32019R1896

      [8] Pursuant to Annex IX of the EU Staff Regulations, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:01962R0031-20140501

      [9] Chapter III, state of play report

      [10] Section 2.5, state of play report

      [11] Protocol (No 7), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=uriserv:OJ.C_.2016.202.01.0001.01.ENG#d1e3363-201-1

      [12] Chapter III, state of play report

      [13] ‘Border externalisation: Agreements on Frontex operations in Serbia and Montenegro heading for parliamentary approval’, Statewatch News, 11 March 2020, http://statewatch.org/news/2020/mar/frontex-status-agreements.htm

      [14] Europol, ‘EU policy cycle – EMPACT’, https://www.europol.europa.eu/empact

      [15] ‘NGOs, EU and international agencies sound the alarm over Frontex’s respect for fundamental rights’, Statewatch News, 5 March 2019, http://www.statewatch.org/news/2019/mar/fx-consultative-forum-rep.htm; ‘Frontex condemned by its own fundamental rights body for failing to live up to obligations’, Statewatch News, 21 May 2018, http://www.statewatch.org/news/2018/may/eu-frontex-fr-rep.htm

      [16] Article 110(6), Article 109, 2019 Regulation

      [17] Article 110, 2019 Regulation

      [18] Article 109, 2019 Regulation

      [19] Section 8, state of play report

      [20] Article 111(1), 2019 Regulation

      [21] Sergio Carrera and Marco Stefan, ‘Complaint Mechanisms in Border Management and Expulsion Operations in Europe: Effective Remedies for Victims of Human Rights Violations?’, CEPS, 2018, https://www.ceps.eu/system/files/Complaint%20Mechanisms_A4.pdf

      [22] Article 110(1), 2019 Regulation

      [23] Section 9, state of play report

      [24] ERRIN, https://returnnetwork.eu

      [25] Section 3.2, state of play report

      [26] Chapter III, state of play report

      [27] Section 3.2, state of play report

      [28] ‘’Roadmap’ for implementing new Frontex Regulation: full steam ahead’, Statewatch News, 25 November 2019, http://www.statewatch.org/news/2019/nov/eu-frontex-roadmap.htm

      [29] State of play report, p. 19

      [30] Matthias Monroy, ‘Drones for Frontex: unmanned migration control at Europe’s borders’, Statewatch Analysis, February 2020, http://www.statewatch.org/analyses/no-354-frontex-drones.pdf

      [31] Section 4, state of play report

      [32] Section 7.2, state of play report
      Next article >

      Mediterranean: As the fiction of a Libyan search and rescue zone begins to crumble, EU states use the coronavirus pandemic to declare themselves unsafe


      #EBCG_2.0_Regulation #European_Defence_Agency’s_Satellite_Communications (#SatCom) #Communications_and_Information_System (#CIS) #immunité #droits_fondamentaux #droits_humains #Fundamental_Rights_Officer (#FRO) #European_Return_and_Reintegration_Network (#ERRIN) #renvois #expulsions #réintégration #Directive_Retour #FAR (#Frontex_Application_for_Returns) #RECAMAS #EUROSUR #European_Aviation_Safety_Agency (#EASA) #European_Organisation_for_the_Safety_of_Air_Navigation (#EUROCONTROL)

    • Frontex launches “game-changing” recruitment drive for standing corps of border guards

      On 4 January 2020 the Management Board of the European Border and Coast Guard Agency (Frontex) adopted a decision on the profiles of the staff required for the new “standing corps”, which is ultimately supposed to be staffed by 10,000 officials. [1] The decision ushers in a new wave of recruitment for the agency. Applicants will be put through six months of training before deployment, after rigorous medical testing.

      What is the standing corps?

      The European Border and Coast Guard standing corps is the new, and according to Frontex, first ever, EU uniformed service, available “at any time…to support Member States facing challenges at their external borders”.[2] Frontex’s Programming Document for the 2018-2020 period describes the standing corps as the agency’s “biggest game changer”, requiring “an unprecedented scale of staff recruitment”.[3]

      The standing corps will be made up of four categories of Frontex operational staff:

      Frontex statutory staff deployed in operational areas and staff responsible for the functioning of the European Travel Information and Authorisation System (ETIAS) Central Unit[4];
      Long-term staff seconded from member states;
      Staff from member states who can be immediately deployed on short-term secondment to Frontex; and

      A reserve of staff from member states for rapid border interventions.

      These border guards will be “trained by the best and equipped with the latest technology has to offer”.[5] As well as wearing EU uniforms, they will be authorised to carry weapons and will have executive powers: they will be able to verify individuals’ identity and nationality and permit or refuse entry into the EU.

      The decision made this January is limited to the definition of profiles and requirements for the operational staff that are to be recruited. The Management Board (MB) will have to adopt a new decision by March this year to set out the numbers of staff needed per profile, the requirements for individuals holding those positions, and the number of staff needed for the following year based on expected operational needs. This process will be repeated annually.[6] The MB can then further specify how many staff each member state should contribute to these profiles, and establish multi-annual plans for member state contributions and recruitment for Frontex statutory staff. Projections for these contributions are made in Annexes II – IV of the 2019 Regulation, though a September Mission Statement by new European Commission President Ursula von der Leyen urges the recruitment of 10,000 border guards by 2024, indicating that member states might be meeting their contribution commitments much sooner than 2027.[7]

      The standing corps of Frontex staff will have an array of executive powers and responsibilities. As well as being able to verify identity and nationality and refuse or permit entry into the EU, they will be able to consult various EU databases to fulfil operational aims, and may also be authorised by host states to consult national databases. According to the MB Decision, “all members of the Standing Corps are to be able to identify persons in need of international protection and persons in a vulnerable situation, including unaccompanied minors, and refer them to the competent authorities”. Training on international and EU law on fundamental rights and international protection, as well as guidelines on the identification and referral of persons in need of international protection, will be mandatory for all standing corps staff members.

      The size of the standing corps

      The following table, taken from the 2019 Regulation, outlines the ambitions for growth of Frontex’s standing corps. However, as noted, the political ambition is to reach the 10,000 total by 2024.

      –-> voir le tableau sur le site de statewatch!

      Category 2 staff – those on long term secondment from member states – will join Frontex from 2021, according to the 2019 Regulation.[8] It is foreseen that Germany will contribute the most staff, with 61 expected in 2021, increasing year-by-year to 225 by 2027. Other high contributors are France and Italy (170 and 125 by 2027, respectively).

      The lowest contributors will be Iceland (expected to contribute between one and two people a year from 2021 to 2027), Malta, Cyprus and Luxembourg. Liechtenstein is not contributing personnel but will contribute “through proportional financial support”.

      For short-term secondments from member states, projections follow a very similar pattern. Germany will contribute 540 staff in 2021, increasing to 827 in 2027; Italy’s contribution will increase from 300 in 2021 to 458 in 2027; and France’s from 408 in 2021 to 624 in 2027. Most states will be making less than 100 staff available for short-term secondment in 2021.

      What are the profiles?

      The MB Decision outlines 12 profiles to be made available to Frontex, ranging from Border Guard Officer and Crew Member, to Cross Border Crime Detection Officer and Return Specialist. A full list is contained in the Decision.[9] All profiles will be fulfilled by an official of the competent authority of a member state (MS) or Schengen Associated Country (SAC), or by a member of Frontex’s own statutory staff.

      Tasks to be carried out by these officials include:

      border checks and surveillance;
      interviewing, debriefing* and screening arrivals and registering fingerprints;
      supporting the collection, assessment, analysis and distribution of information with EU member and non-member states;
      verifying travel documents;
      escorting individuals being deported on Frontex return operations;
      operating data systems and platforms; and
      offering cultural mediation

      *Debriefing consists of informal interviews with migrants to collect information for risk analyses on irregular migration and other cross-border crime and the profiling of irregular migrants to identify “modus operandi and migration trends used by irregular migrants and facilitators/criminal networks”. Guidelines written by Frontex in 2012 instructed border guards to target vulnerable individuals for “debriefing”, not in order to streamline safeguarding or protection measures, but for intelligence-gathering - “such people are often more willing to talk about their experiences,” said an internal document.[10] It is unknown whether those instructions are still in place.

      Recruitment for the profiles

      Certain profiles are expected to “apply self-safety and security practice”, and to have “the capacity to work under pressure and face emotional events with composure”. Relevant profiles (e.g. crew member) are required to be able to perform search and rescue activities in distress situations at sea borders.

      Frontex published a call for tender on 27 December for the provision of medical services for pre-recruitment examinations, in line with the plan to start recruiting operational staff in early 2020. The documents accompanying the tender reveal additional criteria for officials that will be granted executive powers (Frontex category “A2”) compared to those staff stationed primarily at the agency’s Warsaw headquarters (“A1”). Those criteria come in the form of more stringent medical testing.

      The differences in medical screening for category A1 and A2 staff lie primarily in additional toxicology screening and psychiatric and psychological consultations. [11] The additional psychiatric attention allotted for operational staff “is performed to check the predisposition for people to work in arduous, hazardous conditions, exposed to stress, conflict situations, changing rapidly environment, coping with people being in dramatic, injure or death exposed situations”.[12]

      Both A1 and A2 category provisional recruits will be asked to disclose if they have ever suffered from a sexually transmitted disease or “genital organ disease”, as well as depression, nervous or mental disorders, among a long list of other ailments. As well as disclosing any medication they take, recruits must also state if they are taking oral contraceptives (though there is no question about hormonal contraceptives that are not taken orally). Women are also asked to give the date of their last period on the pre-appointment questionnaire.

      “Never touch yourself with gloves”

      Frontex training materials on forced return operations obtained by Statewatch in 2019 acknowledge the likelihood of psychological stress among staff, among other health risks. (One recommendation contained in the documents is to “never touch yourself with gloves”). Citing “dissonance within the team, long hours with no rest, group dynamic, improvisation and different languages” among factors behind psychological stress, the training materials on medical precautionary measures for deportation escort officers also refer to post-traumatic stress disorder, the lack of an area to retreat to and body clock disruption as exacerbating risks. The document suggests a high likelihood that Frontex return escorts will witness poverty, “agony”, “chaos”, violence, boredom, and will have to deal with vulnerable persons.[13]

      For fundamental rights monitors (officials deployed to monitor fundamental rights compliance during deportations, who can be either Frontex staff or national officials), the training materials obtained by Statewatch focus on the self-control of emotions, rather than emotional care. Strategies recommended include talking to somebody, seeking professional help, and “informing yourself of any other option offered”. The documents suggest that it is an individual’s responsibility to prevent emotional responses to stressful situations having an impact on operations, and to organise their own supervision and professional help. There is no obvious focus on how traumatic responses of Frontex staff could affect those coming into contact with them at an external border or during a deportation. [14]

      The materials obtained by Statewatch also give some indication of the fundamental rights training imparted to those acting as deportation ‘escorts’ and fundamental rights monitors. The intended outcomes for a training session in Athens that took place in March 2019 included “adapt FR [fundamental rights] in a readmission operation (explain it with examples)” and “should be able to describe Non Refoulement principle” (in the document, ‘Session Fundamental rights’ is followed by ‘Session Velcro handcuffs’).[15] The content of the fundamental rights training that will be offered to Frontex’s new recruits is currently unknown.

      Fit for service?

      The agency anticipates that most staff will be recruited from March to June 2020, involving the medical examination of up to 700 applicants in this period. According to Frontex’s website, the agency has already received over 7,000 applications for the 700 new European Border Guard Officer positions.[16] Successful candidates will undergo six months of training before deployment in 2021. Apparently then, the posts are a popular career option, despite the seemingly invasive medical tests (especially for sexually active women). Why, for instance, is it important to Frontex to know about oral hormonal contraception, or about sexually transmitted infections?

      When asked by Statewatch if Frontex provides in-house psychological and emotional support, an agency press officer stated: “When it comes to psychological and emotional support, Frontex is increasing awareness and personal resilience of the officers taking part in our operations through education and training activities.” A ‘Frontex Mental Health Strategy’ from 2018 proposed the establishment of “a network of experts-psychologists” to act as an advisory body, as well as creating “online self-care tools”, a “psychological hot-line”, and a space for peer support with participation of psychologists (according to risk assessment) during operations.[17]

      One year later, Frontex, EASO and Europol jointly produced a brochure for staff deployed on operations, entitled ‘Occupational Health and Safety – Deployment Information’, which offers a series of recommendations to staff, placing the responsibility to “come to the deployment in good mental shape” and “learn how to manage stress and how to deal with anger” more firmly on the individual than the agency.[18] According to this document, officers who need additional support must disclose this by requesting it from their supervisor, while “a helpline or psychologist on-site may be available, depending on location”.

      Frontex anticipates this recruitment drive to be “game changing”. Indeed, the Commission is relying upon it to reach its ambitions for the agency’s independence and efficiency. The inclusion of mandatory training in fundamental rights in the six-month introductory education is obviously a welcome step. Whether lessons learned in a classroom will be the first thing that comes to the minds of officials deployed on border control or deportation operations remains to be seen.

      Unmanaged responses to emotional stress can include burnout, compassion-fatigue and indirect trauma, which can in turn decrease a person’s ability to cope with adverse circumstance, and increase the risk of violence.[19] Therefore, aside from the agency’s responsibility as an employer to safeguard the health of its staff, its approach to internal psychological care will affect not only the border guards themselves, but the people that they routinely come into contact with at borders and during return operations, many of whom themselves will have experienced trauma.

      Jane Kilpatrick


      [1] Management Board Decision 1/2020 of 4 January 2020 on adopting the profiles to be made available to the European Border and Coast Guard Standing Corps, https://frontex.europa.eu/assets/Key_Documents/MB_Decision/2020/MB_Decision_1_2020_adopting_the_profiles_to_be_made_available_to_the_

      [2] Frontex, ‘Careers’, https://frontex.europa.eu/about-frontex/careers/frontex-border-guard-recruitment

      [3] Frontex, ‘Programming Document 2018-20’, 10 December 2017, http://www.statewatch.org/news/2019/feb/frontex-programming-document-2018-20.pdf

      [4] The ETIAS Central Unit will be responsible for processing the majority of applications for ‘travel authorisations’ received when the European Travel Information and Authorisation System comes into use, in theory in late 2022. Citizens who do not require a visa to travel to the Schengen area will have to apply for authorisation to travel to the Schengen area.

      [5] Frontex, ‘Careers’, https://frontex.europa.eu/about-frontex/careers/frontex-border-guard-recruitment

      [6] Article 54(4), Regulation (EU) 2019/1896 of the European Parliament and of the Council of 13 November 2019 on the European Border and Coast Guard and repealing Regulations (EU) No 1052/2013 and (EU) 2016/1624, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:32019R1896

      [7] ‘European Commission 2020 Work Programme: An ambitious roadmap for a Union that strives for more’, 29 January 2020, https://ec.europa.eu/commission/presscorner/detail/en/IP_20_124; “Mission letter” from Ursula von der Leyen to Ylva Johnsson, 10 September 2019, https://ec.europa.eu/commission/sites/beta-political/files/mission-letter-ylva-johansson_en.pdf

      [8] Annex II, 2019 Regulation

      [9] Management Board Decision 1/2020 of 4 January 2020 on adopting the profiles to be made available to the European Border and Coast Guard Standing Corps, https://frontex.europa.eu/assets/Key_Documents/MB_Decision/2020/MB_Decision_1_2020_adopting_the_profiles_to_be_made_available_to_the_

      [10] ‘Press release: EU border agency targeted “isolated or mistreated” individuals for questioning’, Statewatch News, 16 February 2017, http://www.statewatch.org/news/2017/feb/eu-frontex-op-hera-debriefing-pr.htm

      [11] ‘Provision of Medical Services – Pre-Recruitment Examination’, https://etendering.ted.europa.eu/cft/cft-documents.html?cftId=5841

      [12] ‘Provision of medical services – pre-recruitment examination, Terms of Reference - Annex II to invitation to tender no Frontex/OP/1491/2019/KM’, https://etendering.ted.europa.eu/cft/cft-document.html?docId=65398

      [13] Frontex training presentation, ‘Medical precautionary measures for escort officers’, undated, http://statewatch.org/news/2020/mar/eu-frontex-presentation-medical-precautionary-measures-deportation-escor

      [14] Ibid.

      [15] Frontex, document listing course learning outcomes from deportation escorts’ training, http://statewatch.org/news/2020/mar/eu-frontex-deportation-escorts-training-course-learning-outcomes.pdf

      [16] Frontex, ‘Careers’, https://frontex.europa.eu/about-frontex/careers/frontex-border-guard-recruitment

      [17] Frontex, ‘Frontex mental health strategy’, 20 February 2018, https://op.europa.eu/en/publication-detail/-/publication/89c168fe-e14b-11e7-9749-01aa75ed71a1/language-en

      [18] EASO, Europol and Frontex, ‘Occupational health and safety’, 12 August 2019, https://op.europa.eu/en/publication-detail/-/publication/17cc07e0-bd88-11e9-9d01-01aa75ed71a1/language-en/format-PDF/source-103142015

      [19] Trauma Treatment International, ‘A different approach for victims of trauma’, https://www.tt-intl.org/#our-work-section

      #gardes_frontières #staff #corps_des_gardes-frontières

    • Drones for Frontex: unmanned migration control at Europe’s borders (27.02.2020)

      Instead of providing sea rescue capabilities in the Mediterranean, the EU is expanding air surveillance. Refugees are observed with drones developed for the military. In addition to numerous EU states, countries such as Libya could also use the information obtained.

      It is not easy to obtain majorities for legislation in the European Union in the area of migration - unless it is a matter of upgrading the EU’s external borders. While the reform of a common EU asylum system has been on hold for years, the European Commission, Parliament and Council agreed to reshape the border agency Frontex with unusual haste shortly before last year’s parliamentary elections. A new Regulation has been in force since December 2019,[1] under which Frontex intends to build up a “standing corps” of 10,000 uniformed officials by 2027. They can be deployed not just at the EU’s external borders, but in ‘third countries’ as well.

      In this way, Frontex will become a “European border police force” with powers that were previously reserved for the member states alone. The core of the new Regulation includes the procurement of the agency’s own equipment. The Multiannual Financial Framework, in which the EU determines the distribution of its financial resources from 2021 until 2027, has not yet been decided. According to current plans, however, at least €6 billion are reserved for Frontex in the seven-year budget. The intention is for Frontex to spend a large part of the money, over €2 billion, on aircraft, ships and vehicles.[2]

      Frontex seeks company for drone flights

      The upgrade plans include the stationing of large drones in the central and eastern Mediterranean. For this purpose, Frontex is looking for a private partner to operate flights off Malta, Italy or Greece. A corresponding tender ended in December[3] and the selection process is currently underway. The unmanned missions could then begin already in spring. Frontex estimates the total cost of these missions at €50 million. The contract has a term of two years and can be extended twice for one year at a time.

      Frontex wants drones of the so-called MALE (Medium Altitude Long Endurance) class. Their flight duration should be at least 20 hours. The requirements include the ability to fly in all weather conditions and at day and night. It is also planned to operate in airspace where civil aircraft are in service. For surveillance missions, the drones should carry electro-optical cameras, thermal imaging cameras and so-called “daylight spotter” systems that independently detect moving targets and keep them in focus. Other equipment includes systems for locating mobile and satellite telephones. The drones will also be able to receive signals from emergency call transmitters sewn into modern life jackets.

      However, the Frontex drones will not be used primarily for sea rescue operations, but to improve capacities against unwanted migration. This assumption is also confirmed by the German non-governmental organisation Sea-Watch, which has been providing assistance in the central Mediterranean with various ships since 2015. “Frontex is not concerned with saving lives,” says Ruben Neugebauer of Sea-Watch. “While air surveillance is being expanded with aircraft and drones, ships urgently needed for rescue operations have been withdrawn”. Sea-Watch demands that situation pictures of EU drones are also made available to private organisations for sea rescue.

      Aircraft from arms companies

      Frontex has very specific ideas for its own drones, which is why there are only a few suppliers worldwide that can be called into question. The Israel Aerospace Industries Heron 1, which Frontex tested for several months on the Greek island of Crete[4] and which is also flown by the German Bundeswehr, is one of them. As set out by Frontex in its invitation to tender, the Heron 1, with a payload of around 250 kilograms, can carry all the surveillance equipment that the agency intends to deploy over the Mediterranean. Also amongst those likely to be interested in the Frontex contract is the US company General Atomics, which has been building drones of the Predator series for 20 years. Recently, it presented a new Predator model in Greece under the name SeaGuardian, for maritime observation.[5] It is equipped with a maritime surveillance radar and a system for receiving position data from larger ships, thus fulfilling one of Frontex’s essential requirements.

      General Atomics may have a competitive advantage, as its Predator drones have several years’ operational experience in the Mediterranean. In addition to Frontex, the European Union has been active in the central Mediterranean with EUNAVFOR MED Operation Sophia. In March 2019, Italy’s then-interior minister Matteo Salvini pushed through the decision to operate the EU mission from the air alone. Since then, two unarmed Predator drones operated by the Italian military have been flying for EUNAVFOR MED for 60 hours per month. Officially, the drones are to observe from the air whether the training of the Libyan coast guard has been successful and whether these navy personnel use their knowledge accordingly. Presumably, however, the Predators are primarily pursuing the mission’s goal to “combat human smuggling” by spying on the Libyan coast. It is likely that the new Operation EU Active Surveillance, which will use military assets from EU member states to try to enforce the UN arms embargo placed on Libya,[6] will continue to patrol with Italian drones off the coast in North Africa.

      Three EU maritime surveillance agencies

      In addition to Frontex, the European Maritime Safety Agency (EMSA) and the European Fisheries Control Agency (EFCA) are also investing in maritime surveillance using drones. Together, the three agencies coordinate some 300 civil and military authorities in EU member states.[7] Their tasks include border, fisheries and customs control, law enforcement and environmental protection.

      In 2017, Frontex and EMSA signed an agreement to benefit from joint reconnaissance capabilities, with EFCA also involved.[8] At the time, EMSA conducted tests with drones of various sizes, but now the drones’ flights are part of its regular services. The offer is not only open to EU Member States, as Iceland was the first to take advantage of it. Since summer 2019, a long-range Hermes 900 drone built by the Israeli company Elbit Systems has been flying from Iceland’s Egilsstaðir airport. The flights are intended to cover more than half of the island state’s exclusive economic zone and to detect “suspicious activities and potential hazards”.[9]

      The Hermes 900 was also developed for the military; the Israeli army first deployed it in the Gaza Strip in 2014. The Times of Israel puts the cost of the operating contract with EMSA at €59 million,[10] with a term of two years, which can be extended for another two years. The agency did not conclude the contract directly with the Israeli arms company, but through the Portuguese firm CeiiA. The contract covers the stationing, control and mission control of the drones.

      New interested parties for drone flights

      At the request of the German MEP Özlem Demirel (from the party Die Linke), the European Commission has published a list of countries that also want to use EMSA drones.[11] According to this list, Lithuania, the Netherlands, Portugal and also Greece have requested unmanned flights for pollution monitoring this year, while Bulgaria and Spain want to use them for general maritime surveillance. Until Frontex has its own drones, EMSA is flying its drones for the border agency on Crete. As in Iceland, this is the long-range drone Hermes 900, but according to Greek media reports it crashed on 8 January during take-off.[12] Possible causes are a malfunction of the propulsion system or human error. The aircraft is said to have been considerably damaged.

      Authorities from France and Great Britain have also ordered unmanned maritime surveillance from EMSA. Nothing is yet known about the exact intended location, but it is presumably the English Channel. There, the British coast guard is already observing border traffic with larger drones built by the Tekever arms company from Portugal.[13] The government in London wants to prevent migrants from crossing the Channel. The drones take off from the airport in the small town of Lydd and monitor the approximately 50-kilometre-long and 30-kilometre-wide Strait of Dover. Great Britain has also delivered several quadcopters to France to try to detect potential migrants in French territorial waters. According to the prefecture of Pas-de-Calais, eight gendarmes have been trained to control the small drones[14].

      Information to non-EU countries

      The images taken by EMSA drones are evaluated by the competent national coastguards. A livestream also sends them to Frontex headquarters in Warsaw.[15] There they are fed into the EUROSUR border surveillance system. This is operated by Frontex and networks the surveillance installations of all EU member states that have an external border. The data from EUROSUR and the national border control centres form the ‘Common Pre-frontier Intelligence Picture’,[16] referring to the area of interest of Frontex, which extends far into the African continent. Surveillance data is used to detect and prevent migration movements at an early stage.

      Once the providing company has been selected, the new Frontex drones are also to fly for EUROSUR. According to the invitation to tender, they are to operate in the eastern and central Mediterranean within a radius of up to 250 nautical miles (463 kilometres). This would enable them to carry out reconnaissance in the “pre-frontier” area off Tunisia, Libya and Egypt. Within the framework of EUROSUR, Frontex shares the recorded data with other European users via a ‘Remote Information Portal’, as the call for tender explains. The border agency has long been able to cooperate with third countries and the information collected can therefore also be made available to authorities in North Africa. However, in order to share general information on surveillance of the Mediterranean Sea with a non-EU state, Frontex must first conclude a working agreement with the corresponding government.[17]

      It is already possible, however, to provide countries such as Libya with the coordinates of refugee boats. For example, the United Nations Convention on the Law of the Sea stipulates that the nearest Maritime Rescue Coordination Centre (MRCC) must be informed of actual or suspected emergencies. With EU funding, Italy has been building such a centre in Tripoli for the last two years.[18] It is operated by the military coast guard, but so far has no significant equipment of its own.

      The EU military mission “EUNAVFOR MED” was cooperating more extensively with the Libyan coast guard. For communication with European naval authorities, Libya is the first third country to be connected to European surveillance systems via the “Seahorse Mediterranean” network[19]. Information handed over to the Libyan authorities might also include information that was collected with the Italian military ‘Predator’ drones.

      Reconnaissance generated with unmanned aerial surveillance is also given to the MRCC in Turkey. This was seen in a pilot project last summer, when the border agency tested an unmanned aerostat with the Greek coast guard off the island of Samos.[20] Attached to a 1,000 metre-long cable, the airship was used in the Frontex operation ‘Poseidon’ in the eastern Mediterranean. The 35-meter-long zeppelin comes from the French manufacturer A-NSE.[21] The company specializes in civil and military aerial observation. According to the Greek Marine Ministry, the equipment included a radar, a thermal imaging camera and an Automatic Identification System (AIS) for the tracking of larger ships. The recorded videos were received and evaluated by a situation centre supplied by the Portuguese National Guard. If a detected refugee boat was still in Turkish territorial waters, the Greek coast guard informed the Turkish authorities. This pilot project in the Aegean Sea was the first use of an airship by Frontex. The participants deployed comparatively large numbers of personnel for the short mission. Pictures taken by the Greek coastguard show more than 40 people.

      Drones enable ‘pull-backs’

      Human rights organisations accuse EUNAVFOR MED and Frontex of passing on information to neighbouring countries leading to rejections (so-called ‘push-backs’) in violation of international law. People must not be returned to states where they are at risk of torture or other serious human rights violations. Frontex does not itself return refugees in distress who were discovered at sea via aerial surveillance, but leaves the task to the Libyan or Turkish authorities. Regarding Libya, the Agency since 2017 provided notice of at least 42 vessels in distress to Libyan authorities.[22]

      Private rescue organisations therefore speak of so-called ‘pull-backs’, but these are also prohibited, as the Israeli human rights lawyer Omer Shatz argues: “Communicating the location of civilians fleeing war to a consortium of militias and instructing them to intercept and forcibly transfer them back to the place they fled from, trigger both state responsibility of all EU members and individual criminal liability of hundreds involved.” Together with his colleague Juan Branco, Shatz is suing those responsible for the European Union and its agencies before the International Criminal Court in The Hague. Soon they intend to publish individual cases and the names of the people accused.

      Matthias Monroy

      An earlier version of this article first appeared in the German edition of Le Monde Diplomatique: ‘Drohnen für Frontex Statt sich auf die Rettung von Bootsflüchtlingen im Mittelmeer zu konzentrieren, baut die EU die Luftüberwachung’.

      Note: this article was corrected on 6 March to clarify a point regarding cooperation between Frontex and non-EU states.


      [1] Regulation of the European Parliament and of the Council on the European Border and Coast Guard, https://data.consilium.europa.eu/doc/document/PE-33-2019-INIT/en/pdf

      [2] European Commission, ‘A strengthened and fully equipped European Border and Coast Guard’, 12 September 2018, https://ec.europa.eu/commission/sites/beta-political/files/soteu2018-factsheet-coast-guard_en.pdf

      [3] ‘Poland-Warsaw: Remotely Piloted Aircraft Systems (RPAS) for Medium Altitude Long Endurance Maritime Aerial Surveillance’, https://ted.europa.eu/udl?uri=TED:NOTICE:490010-2019:TEXT:EN:HTML&tabId=1

      [4] IAI, ‘IAI AND AIRBUS MARITIME HERON UNMANNED AERIAL SYSTEM (UAS) SUCCESSFULLY COMPLETED 200 FLIGHT HOURS IN CIVILIAN EUROPEAN AIRSPACE FOR FRONTEX’, 24 October 2018, https://www.iai.co.il/iai-and-airbus-maritime-heron-unmanned-aerial-system-uas-successfully-complet

      [5] ‘ European Maritime Flight Demonstrations’, General Atomics, http://www.ga-asi.com/european-maritime-demo

      [6] ‘EU agrees to deploy warships to enforce Libya arms embargo’, The Guardian, 17 February 2020, https://www.theguardian.com/world/2020/feb/17/eu-agrees-deploy-warships-enforce-libya-arms-embargo

      [7] EMSA, ‘Heads of EMSA and Frontex meet to discuss cooperation on European coast guard functions’, 3 April 2019, http://www.emsa.europa.eu/news-a-press-centre/external-news/item/3499-heads-of-emsa-and-frontex-meet-to-discuss-cooperation-on-european-c

      [8] Frontex, ‘Frontex, EMSA and EFCA strengthen cooperation on coast guard functions’, 23 March 2017, https://frontex.europa.eu/media-centre/news-release/frontex-emsa-and-efca-strengthen-cooperation-on-coast-guard-functions

      [9] Elbit Systems, ‘Elbit Systems Commenced the Operation of the Maritime UAS Patrol Service to European Union Countries’, 18 June 2019, https://elbitsystems.com/pr-new/elbit-systems-commenced-the-operation-of-the-maritime-uas-patrol-servi

      [10] ‘Elbit wins drone contract for up to $68m to help monitor Europe coast’, The Times of Israel, 1 November 2018, https://www.timesofisrael.com/elbit-wins-drone-contract-for-up-to-68m-to-help-monitor-europe-coast

      [11] ‘Answer given by Ms Bulc on behalf of the European Commission’, https://netzpolitik.org/wp-upload/2019/12/E-2946_191_Finalised_reply_Annex1_EN_V1.pdf

      [12] ‘Το drone της FRONTEX έπεσε, οι μετανάστες έρχονται’, Proto Thema, 27 January 2020, https://www.protothema.gr/greece/article/968869/to-drone-tis-frontex-epese-oi-metanastes-erhodai

      [13] Morgan Meaker, ‘Here’s proof the UK is using drones to patrol the English Channel’, Wired, 10 January 2020, https://www.wired.co.uk/article/uk-drones-migrants-english-channel

      [14] ‘Littoral: Les drones pour lutter contre les traversées de migrants sont opérationnels’, La Voix du Nord, 26 March 2019, https://www.lavoixdunord.fr/557951/article/2019-03-26/les-drones-pour-lutter-contre-les-traversees-de-migrants-sont-operation

      [15] ‘Frontex report on the functioning of Eurosur – Part I’, Council document 6215/18, 15 February 2018, http://data.consilium.europa.eu/doc/document/ST-6215-2018-INIT/en/pdf

      [16] European Commission, ‘Eurosur’, https://ec.europa.eu/home-affairs/what-we-do/policies/borders-and-visas/border-crossing/eurosur_en

      [17] Legal reforms have also given Frontex the power to operate on the territory of non-EU states, subject to the conclusion of a status agreement between the EU and the country in question. The 2016 Frontex Regulation allowed such cooperation with states that share a border with the EU; the 2019 Frontex Regulation extends this to any non-EU state.

      [18] ‘Helping the Libyan Coast Guard to establish a Maritime Rescue Coordination Centre’, https://www.europarl.europa.eu/doceo/document/E-8-2018-000547_EN.html

      [19] Matthias Monroy, ‘EU funds the sacking of rescue ships in the Mediterranean’, 7 July 2018, https://digit.site36.net/2018/07/03/eu-funds-the-sacking-of-rescue-ships-in-the-mediterranean

      [20] Frontex, ‘Frontex begins testing use of aerostat for border surveillance’, 31 July 2019, https://frontex.europa.eu/media-centre/news-release/frontex-begins-testing-use-of-aerostat-for-border-surveillance-ur33N8

      [21] ‘Answer given by Ms Johansson on behalf of the European Commission’, 7 January 2020, https://www.europarl.europa.eu/doceo/document/E-9-2019-002529-ASW_EN.html

      [22] ‘Answer given by Vice-President Borrell on behalf of the European Commission’, 8 January 2020, https://www.europarl.europa.eu/doceo/document/E-9-2019-002654-ASW_EN.html



    • Monitoring “secondary movements” and “hotspots”: Frontex is now an internal surveillance agency (16.12.2019)

      The EU’s border agency, Frontex, now has powers to gather data on “secondary movements” and the “hotspots” within the EU. The intention is to ensure “situational awareness” and produce risk analyses on the migratory situation within the EU, in order to inform possible operational action by national authorities. This brings with it increased risks for the fundamental rights of both non-EU nationals and ethnic minority EU citizens.

      The establishment of a new ’standing corps’ of 10,000 border guards to be commanded by EU border agency Frontex has generated significant public and press attention in recent months. However, the new rules governing Frontex[1] include a number of other significant developments - including a mandate for the surveillance of migratory movements and migration “hotspots” within the EU.

      Previously, the agency’s surveillance role has been restricted to the external borders and the “pre-frontier area” – for example, the high seas or “selected third-country ports.”[2] New legal provisions mean it will now be able to gather data on the movement of people within the EU. While this is only supposed to deal with “trends, volumes and routes,” rather than personal data, it is intended to inform operational activity within the EU.

      This may mean an increase in operations against ‘unauthorised’ migrants, bringing with it risks for fundamental rights such as the possibility of racial profiling, detention, violence and the denial of access to asylum procedures. At the same time, in a context where internal borders have been reintroduced by numerous Schengen states over the last five years due to increased migration, it may be that he agency’s new role contributes to a further prolongation of internal border controls.

      From external to internal surveillance

      Frontex was initially established with the primary goals of assisting in the surveillance and control of the external borders of the EU. Over the years it has obtained increasing powers to conduct surveillance of those borders in order to identify potential ’threats’.

      The European Border Surveillance System (EUROSUR) has a key role in this task, taking data from a variety of sources, including satellites, sensors, drones, ships, vehicles and other means operated both by national authorities and the agency itself. EUROSUR was formally established by legislation approved in 2013, although the system was developed and in use long before it was subject to a legal framework.[3]

      The new Frontex Regulation incorporates and updates the provisions of the 2013 EUROSUR Regulation. It maintains existing requirements for the agency to establish a “situational picture” of the EU’s external borders and the “pre-frontier area” – for example, the high seas or the ports of non-EU states – which is then distributed to the EU’s member states in order to inform operational activities.[4]

      The new rules also provide a mandate for reporting on “unauthorised secondary movements” and goings-on in the “hotspots”. The Commission’s proposal for the new Frontex Regulation was not accompanied by an impact assessment, which would have set out the reasoning and justifications for these new powers. The proposal merely pointed out that the new rules would “evolve” the scope of EUROSUR, to make it possible to “prevent secondary movements”.[5] As the European Data Protection Supervisor remarked, the lack of an impact assessment made it impossible: “to fully assess and verify its attended benefits and impact, notably on fundamental rights and freedoms, including the right to privacy and to the protection of personal data.”[6]

      The term “secondary movements” is not defined in the Regulation, but is generally used to refer to journeys between EU member states undertaken without permission, in particular by undocumented migrants and applicants for internal protection. Regarding the “hotspots” – established and operated by EU and national authorities in Italy and Greece – the Regulation provides a definition,[7] but little clarity on precisely what information will be gathered.

      Legal provisions

      A quick glance at Section 3 of the new Regulation, dealing with EUROSUR, gives little indication that the system will now be used for internal surveillance. The formal scope of EUROSUR is concerned with the external borders and border crossing points:

      “EUROSUR shall be used for border checks at authorised border crossing points and for external land, sea and air border surveillance, including the monitoring, detection, identification, tracking, prevention and interception of unauthorised border crossings for the purpose of detecting, preventing and combating illegal immigration and cross-border crime and contributing to ensuring the protection and saving the lives of migrants.”

      However, the subsequent section of the Regulation (on ‘situational awareness’) makes clear the agency’s new internal role. Article 24 sets out the components of the “situational pictures” that will be visible in EUROSUR. There are three types – national situational pictures, the European situational picture and specific situational pictures. All of these should consist of an events layer, an operational layer and an analysis layer. The first of these layers should contain (emphasis added in all quotes):

      “…events and incidents related to unauthorised border crossings and cross-border crime and, where available, information on unauthorised secondary movements, for the purpose of understanding migratory trends, volume and routes.”

      Article 26, dealing with the European situational picture, states:

      “The Agency shall establish and maintain a European situational picture in order to provide the national coordination centres and the Commission with effective, accurate and timely information and analysis, covering the external borders, the pre-frontier area and unauthorised secondary movements.”

      The events layer of that picture should include “information relating to… incidents in the operational area of a joint operation or rapid intervention coordinated by the Agency, or in a hotspot.”[8] In a similar vein:

      “The operational layer of the European situational picture shall contain information on the joint operations and rapid interventions coordinated by the Agency and on hotspots, and shall include the mission statements, locations, status, duration, information on the Member States and other actors involved, daily and weekly situational reports, statistical data and information packages for the media.”[9]

      Article 28, dealing with ‘EUROSUR Fusion Services’, says that Frontex will provide national authorities with information on the external borders and pre-frontier area that may be derived from, amongst other things, the monitoring of “migratory flows towards and within the Union in terms of trends, volume and routes.”

      Sources of data

      The “situational pictures” compiled by Frontex and distributed via EUROSUR are made up of data gathered from a host of different sources. For the national situational picture, these are:

      national border surveillance systems;
      stationary and mobile sensors operated by national border agencies;
      border surveillance patrols and “other monitoring missions”;
      local, regional and other coordination centres;
      other national authorities and systems, such as immigration liaison officers, operational centres and contact points;
      border checks;
      other member states’ national coordination centres;
      third countries’ authorities;
      ship reporting systems;
      other relevant European and international organisations; and
      other sources.[10]

      For the European situational picture, the sources of data are:

      national coordination centres;
      national situational pictures;
      immigration liaison officers;
      Frontex, including reports form its liaison officers;
      Union delegations and EU Common Security and Defence Policy (CSDP) missions;
      other relevant Union bodies, offices and agencies and international organisations; and
      third countries’ authorities.[11]

      The EUROSUR handbook – which will presumably be redrafted to take into account the new legislation – provides more detail about what each of these categories may include.[12]

      Exactly how this melange of different data will be used to report on secondary movements is currently unknown. However, in accordance with Article 24 of the new Regulation:

      “The Commission shall adopt an implementing act laying down the details of the information layers of the situational pictures and the rules for the establishment of specific situational pictures. The implementing act shall specify the type of information to be provided, the entities responsible for collecting, processing, archiving and transmitting specific information, the maximum time limits for reporting, the data security and data protection rules and related quality control mechanisms.” [13]

      This implementing act will specify precisely how EUROSUR will report on “secondary movements”.[14] According to a ‘roadmap’ setting out plans for the implementation of the new Regulation, this implementing act should have been drawn up in the last quarter of 2020 by a newly-established European Border and Coast Guard Committee sitting within the Commission. However, that Committee does not yet appear to have held any meetings.[15]

      Operational activities at the internal borders

      Boosting Frontex’s operational role is one of the major purposes of the new Regulation, although it makes clear that the internal surveillance role “should not lead to operational activities of the Agency at the internal borders of the Member States.” Rather, internal surveillance should “contribute to the monitoring by the Agency of migratory flows towards and within the Union for the purpose of risk analysis and situational awareness.” The purpose is to inform operational activity by national authorities.

      In recent years Schengen member states have reintroduced border controls for significant periods in the name of ensuring internal security and combating irregular migration. An article in Deutsche Welle recently highlighted:

      “When increasing numbers of refugees started arriving in the European Union in 2015, Austria, Germany, Slovenia and Hungary quickly reintroduced controls, citing a “continuous big influx of persons seeking international protection.” This was the first time that migration had been mentioned as a reason for reintroducing border controls.

      Soon after, six Schengen members reintroduced controls for extended periods. Austria, Germany, Denmark, Sweden and Norway cited migration as a reason. France, as the sixth country, first introduced border checks after the November 2015 attacks in Paris, citing terrorist threats. Now, four years later, all six countries still have controls in place. On November 12, they are scheduled to extend them for another six months.”[16]

      These long-term extensions of internal border controls are illegal (the upper limit is supposed to be two years; discussions on changes to the rules governing the reintroduction of internal border controls in the Schengen area are ongoing).[17] A European Parliament resolution from May 2018 stated that “many of the prolongations are not in line with the existing rules as to their extensions, necessity or proportionality and are therefore unlawful.”[18] Yves Pascou, a researcher for the European Policy Centre, told Deutsche Welle that: “"We are in an entirely political situation now, not a legal one, and not one grounded in facts.”

      A European Parliament study published in 2016 highlighted that:

      “there has been a noticeable lack of detail and evidence given by the concerned EU Member States [those which reintroduced internal border controls]. For example, there have been no statistics on the numbers of people crossing borders and seeking asylum, or assessment of the extent to which reintroducing border checks complies with the principles of proportionality and necessity.”[19]

      One purpose of Frontex’s new internal surveillance powers is to provide such evidence (albeit in the ideologically-skewed form of ‘risk analysis’) on the situation within the EU. Whether the information provided will be of interest to national authorities is another question. Nevertheless, it would be a significant irony if the provision of that information were to contribute to the further maintenance of internal borders in the Schengen area.

      At the same time, there is a more pressing concern related to these new powers. Many discussions on the reintroduction of internal borders revolve around the fact that it is contrary to the idea, spirit (and in these cases, the law) of the Schengen area. What appears to have been totally overlooked is the effect the reintroduction of internal borders may have on non-EU nationals or ethnic minority citizens of the EU. One does not have to cross an internal Schengen frontier too many times to notice patterns in the appearance of the people who are hauled off trains and buses by border guards, but personal anecdotes are not the same thing as empirical investigation. If Frontex’s new powers are intended to inform operational activity by the member states at the internal borders of the EU, then the potential effects on fundamental rights must be taken into consideration and should be the subject of investigation by journalists, officials, politicians and researchers.

      Chris Jones


      [1] The new Regulation was published in the Official Journal of the EU in mid-November: Regulation (EU) 2019/1896 of the European Parliament and of the Council of 13 November 2019 on the European Border and Coast Guard and repealing Regulations (EU) No 1052/2013 and (EU) 2016/1624, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:32019R1896

      [2] Article 12, ‘Common application of surveillance tools’, Regulation (EU) No 1052/2013 of the European Parliament and of the Council of 22 October 2013 establishing the European Border Surveillance System (Eurosur), https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32013R1052

      [3] According to Frontex, the Eurosur Network first came into use in December 2011 and in March 2012 was first used to “exchange operational information”. The Regulation governing the system came into force in October 2013 (see footnote 2). See: Charles Heller and Chris Jones, ‘Eurosur: saving lives or reinforcing deadly borders?’, Statewatch Journal, vol. 23 no. 3/4, February 2014, http://database.statewatch.org/article.asp?aid=33156

      [4] Recital 34, 2019 Regulation: “EUROSUR should provide an exhaustive situational picture not only at the external borders but also within the Schengen area and in the pre-frontier area. It should cover land, sea and air border surveillance and border checks.”

      [5] European Commission, ‘Proposal for a Regulation on the European Border and Coast Guard and repealing Council Joint Action no 98/700/JHA, Regulation (EU) no 1052/2013 and Regulation (EU) no 2016/1624’, COM(2018) 631 final, 12 September 2018, http://www.statewatch.org/news/2018/sep/eu-com-frontex-proposal-regulation-com-18-631.pdf

      [6] EDPS, ‘Formal comments on the Proposal for a Regulation on the European Border and Coast Guard’, 30 November 2018, p. p.2, https://edps.europa.eu/sites/edp/files/publication/18-11-30_comments_proposal_regulation_european_border_coast_guard_en.pdf

      [7] Article 2(23): “‘hotspot area’ means an area created at the request of the host Member State in which the host Member State, the Commission, relevant Union agencies and participating Member States cooperate, with the aim of managing an existing or potential disproportionate migratory challenge characterised by a significant increase in the number of migrants arriving at the external borders”

      [8] Article 26(3)(c), 2019 Regulation

      [9] Article 26(4), 2019 Regulation

      [10] Article 25, 2019 Regulation

      [11] Article 26, 2019 Regulation

      [12] European Commission, ‘Commission Recommendation adopting the Practical Handbook for implementing and managing the European Border Surveillance System (EUROSUR)’, C(2015) 9206 final, 15 December 2015, https://ec.europa.eu/home-affairs/sites/homeaffairs/files/what-we-do/policies/securing-eu-borders/legal-documents/docs/eurosur_handbook_annex_en.pdf

      [13] Article 24(3), 2019 Regulation

      [14] ‘’Roadmap’ for implementing new Frontex Regulation: full steam ahead’, Statewatch News, 25 November 2019, http://www.statewatch.org/news/2019/nov/eu-frontex-roadmap.htm

      [15] Documents related to meetings of committees operating under the auspices of the European Commission can be found in the Comitology Register: https://ec.europa.eu/transparency/regcomitology/index.cfm?do=Search.Search&NewSearch=1

      [16] Kira Schacht, ‘Border checks in EU countries challenge Schengen Agreement’, DW, 12 November 2019, https://www.dw.com/en/border-checks-in-eu-countries-challenge-schengen-agreement/a-51033603

      [17] European Parliament, ‘Temporary reintroduction of border control at internal borders’, https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?reference=2017/0245(COD)&l=en

      [18] ‘Report on the annual report on the functioning of the Schengen area’, 3 May 2018, para.9, https://www.europarl.europa.eu/doceo/document/A-8-2018-0160_EN.html

      [19] Elpseth Guild et al, ‘Internal border controls in the Schengen area: is Schengen crisis-proof?’, European Parliament, June 2016, p.9, https://www.europarl.europa.eu/RegData/etudes/STUD/2016/571356/IPOL_STU(2016)571356_EN.pdf


      #mouvements_secondaires #hotspot #hotspots

  • EU pays for surveillance in Gulf of Tunis

    A new monitoring system for Tunisian coasts should counter irregular migration across the Mediterranean. The German Ministry of the Interior is also active in the country. A similar project in Libya has now been completed. Human rights organisations see it as an aid to „#pull_backs“ contrary to international law.

    In order to control and prevent migration, the European Union is supporting North African states in border surveillance. The central Mediterranean Sea off Malta and Italy, through which asylum seekers from Libya and Tunisia want to reach Europe, plays a special role. The EU conducts various operations in and off these countries, including the military mission „#Irini“ and the #Frontex mission „#Themis“. It is becoming increasingly rare for shipwrecked refugees to be rescued by EU Member States. Instead, they assist the coast guards in Libya and Tunisia to bring the people back. Human rights groups, rescue organisations and lawyers consider this assistance for „pull backs“ to be in violation of international law.

    With several measures, the EU and its member states want to improve the surveillance off North Africa. Together with Switzerland, the EU Commission has financed a two-part „#Integrated_Border_Management Project“ in Tunisia. It is part of the reform of the security sector which was begun a few years after the fall of former head of state Ben Ali in 2011. With one pillar of this this programme, the EU wants to „prevent criminal networks from operating“ and enable the authorities in the Gulf of Tunis to „save lives at sea“.

    System for military and border police

    The new installation is entitled „#Integrated_System_for_Maritime_Surveillance“ (#ISMariS) and, according to the Commission (https://www.europarl.europa.eu/doceo/document/E-9-2020-000891-ASW_EN.html), is intended to bring together as much information as possible from all authorities involved in maritime and coastal security tasks. These include the Ministry of Defence with the Navy, the Coast Guard under the Ministry of the Interior, the National Guard, and IT management and telecommunications authorities. The money comes from the #EU_Emergency_Trust_Fund_for_Africa, which was established at the Valletta Migration Summit in 2015. „ISMariS“ is implemented by the Italian Ministry of the Interior and follows on from an earlier Italian initiative. The EU is financing similar projects with „#EU4BorderSecurity“ not only in Tunisia but also for other Mediterranean countries.

    An institute based in Vienna is responsible for border control projects in Tunisia. Although this #International_Centre_for_Migration_Policy_Development (ICMPD) was founded in 1993 by Austria and Switzerland, it is not a governmental organisation. The German Foreign Office has also supported projects in Tunisia within the framework of the #ICMPD, including the establishment of border stations and the training of border guards. Last month German finally joined the Institute itself (https://www.andrej-hunko.de/start/download/dokumente/1493-deutscher-beitritt-zum-international-centre-for-migration-policy-development/file). For an annual contribution of 210,000 euro, the Ministry of the Interior not only obtains decision-making privileges for organizing ICMPD projects, but also gives German police authorities the right to evaluate any of the Institute’s analyses for their own purposes.

    It is possible that in the future bilateral German projects for monitoring Tunisian maritime borders will also be carried out via the ICMPD. Last year, the German government supplied the local coast guard with equipment for a boat workshop. In the fourth quarter of 2019 alone (http://dipbt.bundestag.de/doc/btd/19/194/1919467.pdf), the Federal Police carried out 14 trainings for the national guard, border police and coast guard, including instruction in operating „control boats“. Tunisia previously received patrol boats from Italy and the USA (https://migration-control.info/en/wiki/tunisia).

    Vessel tracking and coastal surveillance

    It is unclear which company produced and installed the „ISMariS“ surveillance system for Tunisia on behalf of the ICPMD. Similar facilities for tracking and displaying ship movements (#Vessel_Tracking_System) are marketed by all major European defence companies, including #Airbus, #Leonardo in Italy, #Thales in France and #Indra in Spain. However, Italian project management will probably prefer local companies such as Leonardo. The company and its spin-off #e-GEOS have a broad portfolio of maritime surveillance systems (https://www.leonardocompany.com/en/sea/maritime-domain-awareness/coastal-surveillance-systems).

    It is also possible to integrate satellite reconnaissance, but for this the governments must conclude further contracts with the companies. However, „ISMariS“ will not only be installed as a Vessel Tracking System, it should also enable monitoring of the entire coast. Manufacturers promote such #Coastal_Surveillance_Systems as a technology against irregular migration, piracy, terrorism and smuggling. The government in Tunisia has defined „priority coastal areas“ for this purpose, which will be integrated into the maritime surveillance framework.

    Maritime „#Big_Data

    „ISMariS“ is intended to be compatible with the components already in place at the Tunisian authorities, including coastguard command and control systems, #radar, position transponders and receivers, night vision equipment and thermal and optical sensors. Part of the project is a three-year maintenance contract with the company installing the „ISMariS“.

    Perhaps the most important component of „ISMariS“ for the EU is a communication system, which is also included. It is designed to improve „operational cooperation“ between the Tunisian Coast Guard and Navy with Italy and other EU Member States. The project description mentions Frontex and EUROSUR, the pan-European surveillance system of the EU Border Agency, as possible participants. Frontex already monitors the coastal regions off Libya and Tunisia (https://insitu.copernicus.eu/FactSheets/CSS_Border_Surveillance) using #satellites (https://www.europarl.europa.eu/doceo/document/E-8-2018-003212-ASW_EN.html) and an aerial service (https://digit.site36.net/2020/06/26/frontex-air-service-reconnaissance-for-the-so-called-libyan-coast-guar).

    #EUROSUR is now also being upgraded, Frontex is spending 2.6 million Euro (https://ted.europa.eu/udl?uri=TED:NOTICE:109760-2020:TEXT:EN:HTML) on a new application based on artificial intelligence. It is to process so-called „Big Data“, including not only ship movements but also data from ship and port registers, information on ship owners and shipping companies, a multi-year record of previous routes of large ships and other maritime information from public sources on the Internet. The contract is initially concluded for one year and can be extended up to three times.

    Cooperation with Libya

    To connect North African coastguards to EU systems, the EU Commission had started the „#Seahorse_Mediterranean“ project two years after the fall of North African despots. To combat irregular migration, from 2013 onwards Spain, Italy and Malta have trained a total of 141 members of the Libyan coast guard for sea rescue. In this way, „Seahorse Mediterranean“ has complemented similar training measures that Frontex is conducting for the Coastal Police within the framework of the EU mission #EUBAM_Libya and the military mission #EUNAVFOR_MED for the Coast Guard of the Tripolis government.

    The budget for „#Seahorse_Mediterranean“ is indicated by the Commission as 5.5 million Euro (https://www.europarl.europa.eu/doceo/document/E-9-2020-000892-ASW_EN.html), the project was completed in January 2019. According to the German Foreign Office (http://dipbt.bundestag.de/doc/btd/19/196/1919625.pdf), Libya has signed a partnership declaration for participation in a future common communication platform for surveillance of the Mediterranean. Tunisia, Algeria and Egypt are also to be persuaded to participate. So far, however, the governments have preferred unilateral EU support for equipping and training their coastguards and navies, without having to make commitments in projects like „Seahorse“, such as stopping migration and smuggling on the high seas.


    #Golfe_de_Tunis #surveillance #Méditerranée #asile #migrations #réfugiés #militarisation_des_frontières #surveillance_des_frontières #Tunisie #externalisation #complexe_militaro-industriel #Algérie #Egypte #Suisse #EU #UE #Union_européenne #Trust_Fund #Emergency_Trust_Fund_for_Africa #Allemagne #Italie #gardes-côtes #gardes-côtes_tunisiens #intelligence_artificielle #IA #données #Espagne #Malte #business

    ping @reka @isskein @_kg_ @rhoumour @karine4


    Ajouté à cette métaliste sur l’externalisation des frontières :

    Et celle-ci sur le lien entre développement et contrôles frontaliers :

  • (3) Dr. Ay. Poulain Maubant sur Twitter : "Sur les biais racistes des IA mal entraînées / Twitter

    Depuis que quelqu’un a remarqué qu’un récent réseau de neurones capable de transformer un visage très pixellisé en un visage réaliste créait systématiquement des visages caucasiens, les expériences se multiplient pour démontrer le biais de cette #IA.

    Il faut lire tout le thread avec plein d’exemples concrets.

    #Intelligence_artificielle #Big_data #Deep_learning #Biais_raciste

  • Données de santé : l’arbre StopCovid qui cache la forêt Health Data Hub

    Health Data Hub, la forêt qui se cache derrière l’arbre

    Dès la remise du rapport Villani sur l’intelligence artificielle (IA) en mars 2018, le président de la République annonce le projet HDHub. En octobre de cette même année, une mission de préfiguration définit les traits d’un système national centralisé regroupant l’ensemble des données de santé publique, un guichet unique à partir duquel l’IA pourrait optimiser des services de reconnaissance artificielle et de prédiction personnalisée.

    Mais l’écosystème de l’IA s’apprête aussi à franchir une nouvelle marche en obtenant l’accès à des données massives provenant des hôpitaux, de la recherche, de la médecine de ville, des objets connectés, etc., et à un marché massif de la santé (prestigieux et à valeur potentielle énorme dans la mesure où il pèse plus de 12 % du PIB). La France, avec son assurance maladie, et le Royaume-Uni, avec son National Health Service (NHS), font ici figure de test, puisque des données cohérentes et fiables y sont maintenues depuis des décennies : Amazon a déjà accès à l’API du NHS pour alimenter son assistant vocal, et Microsoft a déjà signé l’hébergement de toutes les données de santé françaises (stockage, gestion des logs et des annuaires, puissance de calcul et conservation des clés de chiffrement).

    #microsoft #big_data #IA #surveillance #contrôle social #HDHub

  • Traçages et fusions

    Dans le cadre de la lutte contre la contamination, tout pousse au renforcement du traçage par fusion de bases de données. Or cette fusion est le nouveau modèle d’affaires des plateformes de #réseaux_sociaux en ligne, propulsées par l’intelligence artificielle et la conception de nouvelles institutions.

    #Société #police #big_data #intelligence_artificielle #surveillance

  • La Cnil s’inquiète d’un possible transfert de nos données de santé aux Etats-Unis

    Au nom de l’état d’urgence, le gouvernement a accéléré la mise en place du Health Data Hub, une plateforme devant centraliser la quasi-totalité de nos données de santé. Dans un avis, la Cnil relève, notamment, que le contrat « mentionne l’existence de transferts de données en dehors de l’Union européenne ». La directrice du projet, Stéphanie Combes, dément.

    Tandis que tous les yeux sont rivés sur les débats autour de l’application #StopCovid et du dispositif de fichage envisagé dans le cadre des enquêtes épidémiologiques de suivi des personnes infectées, le gouvernement a autorisé, au nom de l’état d’urgence sanitaire, le déploiement anticipé du Health Data Hub, la plateforme devant centraliser l’ensemble de nos données de santé, hébergées par #Microsoft et, s’inquiète la Commission nationale de l’informatique et des libertés (#Cnil), potentiellement transférables aux États-Unis.

    Alors que le projet était encore en cours de déploiement, et que tous les textes d’applications ne sont pas encore prêts, le gouvernement a pris le 21 avril dernier, au nom de l’état d’urgence sanitaire, un arrêté modifiant celui du 23 mars sur l’organisation du système de santé durant l’épidémie. Il autorise le Health Data Hub, ainsi que la Caisse nationale de l’assurance-maladie (Cnam), à collecter, « aux seules fins de faciliter l’utilisation des données de santé pour les besoins de la gestion de l’urgence sanitaire et de l’amélioration des connaissances sur le virus Covid-19 », un nombre considérable de données.

    Seront ainsi intégrées à la plateforme les données du Système national des données de santé (SNDS) qui regroupe lui-même les principales bases de données de santé publique, les « données de pharmacie », les « données de prise en charge en ville telles que des diagnostics ou des données déclaratives de symptômes issues d’applications mobiles de santé et d’outils de télésuivi, télésurveillance ou télémédecine », les données des laboratoires, celles des services d’urgence, « des enquêtes réalisées auprès des personnes pour évaluer leur vécu » ou encore celles issues du pourtant contesté SI-VIC, le système de suivi des victimes lors de catastrophes sanitaires qui, au mois d’avril dernier, avait été utilisé pour ficher des gilets jaunes.

    Le Health Data Hub récupérera aussi des données issues des enquêtes épidémiologiques instaurées par la loi de prolongation de l’état d’urgence sanitaire, dont celles du Système d’information national de dépistage populationnel (SIDEP), un fichier spécialement créé pour centraliser les résultats d’analyses des laboratoires. Comme l’explique un document du ministère de la santé que Mediapart a pu consulter, l’un des buts du SIDEP sera en effet de « permettre un réutilisation des données homogènes et de qualité pour la recherche ». « Dans le cadre du Health Data Hub », cette réutilisation se fera « avec un chaînage avec les autres données du SNDS ».

    Ce fichier « va aider à l’identification des cas car il permet d’avoir une visibilité sur les nombreux cas de contamination testés en dehors de l’hôpital », explique à Mediapart la directrice du Health Data Hub Stéphanie Combes. « Les données seront pseudonymisées », assure-t-elle.

    Autre ajout au Health Data Hub, l’arrêté prévoit une « remontée hebdomadaire » des données du programme de médicalisation des systèmes d’information (PMSI), qui comptabilise les actes médicaux facturés par les hôpitaux dans un but de gestion économique et administrative des établissements. « C’est essentiellement un fichier économique et qui peut avoir ses limites en fonction des usages, détaille Stéphanie Combes. Mais il comporte beaucoup d’informations intéressantes. Il comprend des codes qui permettent de déterminer chaque acte médical, et donc par exemple de savoir si le patient a été en réanimation. Croisées aux données de l’Assurance-maladie, elles permettront par exemple d’évaluer la comorbidité ou les facteurs de risque. »

    À quoi servira une telle concentration de données ? « Les outils numériques peuvent être une aide à la gestion de cette crise sanitaire », assure Stéphanie Combes, qui donne quelques exemples. « Il y a tout d’abord des outils d’aide à la modélisation de l’évolution de l’épidémie, en analysant notamment les passages aux urgences. On pourra également plus facilement évaluer l’efficacité des traitements grâce à ce qu’on appelle des “essais virtuels”, les “données de vie réelle” qui, croisées avec les données pathologiques, permettront de comprendre dans quels cas le virus se développe et donc de mieux suivre les patients à risque. Même si pour l’instant il est un peu trop tôt, on pourra analyser les parcours de soin des personnes ayant été contaminées. Enfin, à plus long terme, ces données permettront d’étudier les conséquences plus générales de cette crise, au-delà du virus lui-même. Je pense par exemple aux conséquences du confinement sur notre système de santé qui a entraîné le report de nombreux actes médicaux. On pourra mieux prévoir et organiser la reprogrammation de ces actes. »

    Pourtant, la publication de cet arrêté accélérant la mise en place du Health Data Hub n’est pas du goût de tout le monde. Lancé au printemps 2018 par Emmanuel Macron dans la foulée du rapport Villani sur l’intelligence artificielle, ce projet est en effet vivement contesté en raison des craintes relatives à la protection de la vie privée des usagers et faisait actuellement l’objet de discussions visant à apaiser les tensions.

    Le Health Data Hub avait été acté par la loi santé du 24 juillet 2019. Son but est de remplacer l’actuel SNDS qui centralise déjà les principaux fichiers de santé, dont celui de l’Assurance-maladie, tout en élargissant considérablement sa portée. À terme, toute donnée collectée dans le cadre d’un acte remboursé par l’Assurance-maladie sera centralisée dans le Health Data Hub, des données des hôpitaux à celles du dossier médical partagé ou celles des logiciels professionnels utilisés par les médecins et les pharmaciens.

    Cette concentration sans précédent de données de santé avait suscité immédiatement de vives inquiétudes, notamment de la Commission nationale de l’informatique et des libertés (Cnil). Dans un avis rendu sur la loi santé, elle soulignait qu’« au-delà d’un simple élargissement, cette évolution change la dimension même du SNDS, qui viserait à contenir ainsi l’ensemble des données médicales donnant lieu à remboursement ». La commission appelait « dès maintenant l’attention sur la problématique majeure du respect, en pratique, des principes de limitation des finalités et de minimisation des données par ces nouveaux traitements, évoluant dans un contexte d’accumulation de données pour alimenter les algorithmes d’intelligence artificielle ».

    De plus, le Health Data Hub est géré par un groupement d’intérêt public (GIP) chargé d’administrer l’ouverture des données à des acteurs extérieurs. Or, comme le soulignait la Cnil, la loi santé a également modifié les textes régissant ces accès afin de permettre leur utilisation par des acteurs privés. Jusqu’alors, les données personnelles de santé ne pouvaient être soumises à un traitement informatique que dans le cadre de « l’accomplissement des missions des services de l’État » ou « à des fins de recherche, d’étude ou d’évaluation » et « répondant à un motif d’intérêt public ». La loi santé a fait disparaître toute référence à une finalité scientifique pour ne conserver que le « motif d’intérêt public ».

    Enfin, et sans doute s’agit-il du point le plus bloquant, l’ensemble de ces données sera hébergé par le géant américain Microsoft.

    Comme le racontait Mediapart, ce projet était confronté à une fronde de plusieurs acteurs du monde médical. Les hôpitaux, notamment, possèdent déjà leurs propres bases de données, stockées dans des « entrepôts », qu’ils exploitent déjà par eux-mêmes. Beaucoup acceptent mal cette obligation de transférer, sans contrepartie, ce véritable patrimoine numérique, qui plus est pour que celui-ci soit centralisé à l’extrême et confié à un acteur soumis à la loi américaine qui peut, en théorie, le contraindre à offrir un accès à ces données aux autorités. Ces craintes avaient été notamment exprimées dans un courrier envoyé par le directeur de l’AP-HP Martin Hirsch au ministère de la santé et que Mediapart avait pu consulter.

    De plus, l’attribution de l’hébergement à Microsoft s’était faite sans appel d’offres, provoquant ainsi la colère d’autres acteurs du numérique français. Au mois de mars dernier, plusieurs d’entre eux avaient écrit au ministère de la santé pour dénoncer un délit de « favoritisme » et demander l’ouverture d’une enquête.

    Dans ce contexte particulièrement tendu, le déploiement du Health Data Hub devait se faire de manière progressive. La loi santé ne faisait que fixer les grands principes de la plateforme. De nombreux points, notamment son architecture, devaient être tranchés en collaboration avec la Cnil et l’Agence nationale de sécurité des systèmes d’informations (Anssi) avant de faire l’objet d’un décret qui n’a toujours pas été pris. Interrogé par Mediapart au mois de novembre, Thomas Dautieu, directeur de la conformité à la Cnil, se voulait pourtant rassurant. « La sécurité informatique est un sujet dont l’importance est bien prise en compte, nous expliquait-il. Nous avons des échanges réguliers et nous travaillons avec le ministère et avec l’Anssi sur ces questions. Il y a également la question des droits des personnes. C’est un aspect important. Nous avions demandé que les missions de la future plateforme incluent la protection des droits des patients, ce qui a été accepté. »

    Stéphanie Combes renvoie à « la page 11 du contrat »

    La mise en place accélérée du Health Data Hub est donc vue par beaucoup comme un passage en force. Et du côté de la Cnil, le ton s’est visiblement durci. Jeudi 23 avril, la commission a rendu un avis pointant de nombreuses inquiétudes, et dévoilant au passage quelques nouvelles informations sur le projet.

    La plus importante est sans doute que, contrairement à ce qui était jusqu’alors affirmé, des données confiées à Microsoft pourront bien être transférées aux États-Unis dans certains cas. Jusqu’à présent, les données devaient être stockées dans des serveurs gérés par le géant américain, mais localisés dans l’Union européenne. Selon la Cnil, qui a pu consulter le contrat liant le Health Data Hub à Microsoft, celui-ci prévoit bien une localisation par défaut des données au sein de l’UE. En revanche, « cette localisation ne s’applique qu’aux données “au repos”, alors même que le contrat mentionne l’existence de transferts de données en dehors de l’Union européenne dans le cadre du fonctionnement courant de la plateforme, notamment pour les opérations de maintenance ou de résolution d’incident ».

    La Cnil poursuit en soulignant que la législation américaine permet aux autorités de contraindre les entreprises à leur fournir leurs données. Elle rappelle « les inquiétudes […] concernant l’accès par les autorités des États-Unis aux données transférées aux États-Unis, plus particulièrement la collecte et l’accès aux données personnelles à des fins de sécurité nationale », notamment dans le cadre de la loi FISA. Elle rappelle que cette question fait d’ailleurs l’objet actuellement d’une procédure « soumises à la Cour de justice de l’Union européenne » et qu’« un arrêt de la Cour dans cette affaire est attendu dans les mois qui viennent ».

    Interrogée sur ce point, Stéphanie Combes dément pourtant les affirmations de la Cnil. « Nous ne sommes pas alignés sur cette phrase de l’avis. Le contrat prévoit en effet que des données peuvent être transférées par l’hébergeur dans certains cas, sauf indication contraire. Or, nous avons bien spécifié que les données ne devaient pas sortir du territoire français », explique-t-elle. La Cnil aurait-elle alors mal lu le contrat ? « Je ne dis pas ça. Mais je trouve que les faits sont un peu détournés. En tout cas, nous avons bien indiqué que les données ne pourront pas être transférées. Je peux même vous dire que c’est à la page 11 du contrat. »

    Peut-être encore plus inquiétant, la Cnil affirme que, même si les données stockées seront bien chiffrées « avec des algorithmes à l’état de l’art à partir de clés générées par les responsables de la plateforme sur un boîtier chiffrant maîtrisé par la plateforme des données de santé », les clefs de déchiffrement seront envoyées à Microsoft. « Elles seront conservées par l’hébergeur au sein d’un boîtier chiffrant, ce qui a pour conséquence de permettre techniquement à ce dernier d’accéder aux données », pointe l’avis de la commission.

    Elle s’inquiète également d’un manque d’encadrement des procédures d’accès des administrateurs de la plateforme. Dans l’étude d’impact du projet, « une fonctionnalité d’autorisation préalable des accès administrateurs » était bien prévue. Mais « la Commission relève que cette fonctionnalité ne semble pas mentionnée dans les contrats fournis. En outre, la Commission s’interroge sur l’effectivité de cette mesure qui ne semble pas couvrir la totalité des accès possibles ».

    Sur ce point, Stéphanie Combes explique qu’en effet les clefs de chiffrements des données seront générées par un « HSM » (Hardware Security Module), un « coffre-fort numérique » et envoyées à la plateforme ainsi qu’à Microsoft. Mais ces clefs « sont utilisées de manière automatique sans intervention humaine ».

    Concernant les accès des administrateurs, la directrice du Health Data Hub explique « qu’il peut y avoir un accès des administrateurs à certaines conditions. Mais pas n’importe lesquelles. Nous contrôlons ces accès et nous nous sommes engagés à refuser toute demande qui ne serait pas légitime. Nous avons totalement sécurisé cet aspect-là », assure-t-elle.

    La Commission remet en cause un autre engagement du Health Data Hub : les données mises à la disposition des porteurs de projets ne devaient pouvoir être utilisées qu’au sein de la plateforme, sans pouvoir les exporter. Si ce principe est maintenu, la Cnil s’interroge désormais dans son avis « sur l’effectivité du blocage de toute possibilité d’exportation » et semble indiquer que celle-ci sera en réalité possible dans certains cas. « En conséquence la Commission appelle le ministère à indiquer explicitement que toutes les fonctionnalités d’exportation des données seront totalement désactivées et inaccessibles aux utilisateurs », recommande l’avis.

    Sur ce point également, Stéphanie Combes dément. « Dans la plateforme, des contrôles tant techniques qu’organisationnels ont été mis en place pour garantir l’impossibilité d’exporter des données brutes. Seuls les résultats des recherches peuvent être exportés après contrôles. Je n’explique pas pourquoi la Cnil exprime des doutes à ce sujet car ce fonctionnement a été présenté dans nos séances de travaux communs et semblait leur convenir », explique-t-elle.

    La directrice du Health Data Hub et la commission sont en revanche d’accord sur un point : la durée de conservation des données. Dans son avis, la Cnil pointe en effet que « le projet ne mentionne pas de durée de conservation précise, s’agissant des données contenues dans l’entrepôt ». Elle « en déduit que les données ne devront être conservées dans celui-ci que pour la durée de l’état d’urgence sanitaire ». Elle précise cependant que celles-ci pourraient être conservées si le décret d’application de la loi santé à venir le prévoit. À condition que celui-ci soit pris avant la fin de l’état d’urgence. La Cnil « considère […] que dans l’hypothèse où l’adoption du cadre juridique de droit commun applicable à la plateforme des données n’aurait pu être finalisé à l’issue de l’état d’urgence sanitaire, l’ensemble des données collectées pendant cette période devra être détruit », indique l’avis.

    « En effet, les données ne sont censées être stockées que durant la période de l’état d’urgence sanitaire, acquiesce Stéphanie Combes. À sa fin, elles devront être détruites, sauf si un autre texte prévoit cette conservation lors de la mise en place finale du Health Data Hub. »

    « On a l’impression que le big data est une réponse magique »

    Sur la forme, la Cnil ne cache pas son étonnement de voir le gouvernement accélérer à ce point la mise en place du Health Data Hub, quitte à donner l’impression d’un passage en force. En effet, non seulement le projet ne dispose pas encore de cadre juridique et technique, mais il faisait en outre actuellement l’objet d’« un plan d’action conséquent de mise en œuvre de mesures de sécurité s’étalant sur une période de plusieurs mois ». « La Commission s’interroge donc sur les conditions de démarrage anticipé de la solution technique dans un contexte où la plateforme de données de santé a dû accomplir en quelques semaines des opérations, dont certaines structurantes, pour garantir la sécurité des données traitées, étaient prévues pour s’étaler sur plusieurs mois », souligne l’avis.

    « Nous avions prévu de mettre en production au début du mois de juin. L’arrêté a été pris fin avril. Cela ne fait que quelques semaines d’avance, plaide Stéphanie Combes. De plus, nous continuons à travailler avec la Commission. Ils étaient d’ailleurs présents à notre dernière réunion d’homologation. Les échanges ne sont pas du tout rompus. Nous allons leur montrer ce que nous avons mis en place. »

    Mais était-il vraiment nécessaire d’utiliser l’état d’urgence pour faire avancer le projet ? « Nous attendons toujours le décret qui va inscrire le Health Data Hub dans notre système santé, répond Stéphanie Combes. Il doit fixer notamment son catalogue, la liste des bases de données qui seront partageables. Pour être totalement transparente, je peux vous dire qu’actuellement, le Health Data Hub ne contient que les données de la base OSCOUR de Santé publique France qui enregistre les passages aux urgences. De plus, les projets qui nous sont présentés doivent respecter toutes les procédures. Il ne peut y avoir d’accès sans cadre clair. C’est pour cela que nous avions besoin d’un texte en attendant que ce décret soit pris. »

    Il n’en reste pas moins que le gouvernement va devoir composer avec les vives résistances que suscite ce projet et que cet arrêté et l’avis de la Cnil ont ravivées. Dès le 10 décembre, une tribune publiée dans Le Monde et signée par plus d’une centaine de personnes, dont de nombreux professionnels de la santé, appelait à « garder la main sur les technologies employées » et à « empêcher la privatisation de la santé » en favorisant des solutions alternatives comme le « partage d’algorithmes et de logiciels transparents et utiles aux patients ».

    Depuis la publication de l’arrêté, le collectif Interhop, composé de professionnels du secteur de la santé et de l’informatique médicale, a publié un nouvel appel. « Contrairement à l’avis de nombreux acteurs – Commission national informatique et des libertés, Ordre national des médecins, Conseil national des barreaux, hôpitaux –, le gouvernement français s’appuie sur le géant américain Microsoft pour stocker l’ensemble des données de santé, affirme-t-il. Nous appelons à la constitution d’un écosystème universitaire, médiatique, juridique, associatif et politique pour réaffirmer les valeurs d’autonomie et des “communs” et, pour faire naître un large débat de société. »

    Les informations de la Cnil selon lesquelles les données pourraient être transférées aux États-Unis par Microsoft, qui, de plus, disposerait des clefs permettant de déchiffrer les données, peuvent, si elles sont avérées, avoir un effet dévastateur sur le projet comme en témoigne cet appel, lancé par un médecin marseillais.


    « Je me souviens que, très tôt, des responsables du Health Data Hub étaient venus nous présenter le projet au CNRS et la question de Microsoft avait été l’une des premières posées », se rappelle Catherine Bourgain, chercheuse en génétique humaine et sociologie des sciences à l’Institut national de la santé et de la recherche médicale (Inserm).

    « Ce projet suscite beaucoup d’oppositions et de freins, poursuit la chercheuse. Les hôpitaux et les chercheurs trouvent exorbitant qu’on leur demande de transférer des données qu’ils ont collectées. J’ai par exemple un collègue de l’Inserm qui est responsable d’une grosse cohorte avec qui je discutais de ce sujet et qui me disait qu’il ne transférerait pas ses données en m’expliquant : “Si nous transférons nos données, c’est également la responsabilité liée à ces données que nous transférons.” Quand un chercheur récolte des données, il y a un contrat moral, et parfois même un contrat tout court, entre lui et la personne qu’il interroge. S’il perd la main sur ses données, comment pourrait-il savoir l’usage qui en sera fait ? »

    Et les autorités auraient tort de sous-estimer le poids de ces résistances, estime Catherine Bourgain : « Il y a le texte et il y a ce qu’en font les acteurs. Penser qu’un arrêté peut changer les pratiques du monde médical, c’est ignorer à quel point celui-ci est structuré par des élites, voire des baronnies, locales ou thématiques, avec une culture très forte de l’opposition. C’est un corps qui ne se laisse pas facilement dicter ce qu’il doit faire. »

    La chercheuse, elle-même, est sceptique sur l’utilité réelle du Health Data Hub. « Il y a une sorte de croyance dans les capacités des traitements algorithmiques, estime-t-elle. Le pari, c’est qu’on va pouvoir croiser des données avec un niveau de quantité très important, même si elles ne sont pas de bonne qualité, pour obtenir quelque chose. Mais beaucoup de spécialistes sont très sceptiques sur cette approche. On a l’impression que le big data est une réponse magique à tous les problèmes, permettant de compenser la qualité par la quantité. Mais cela relève surtout d’un rapport à la construction du savoir très déplacé car ne prenant pas en compte la valeur individuelle des données. »

    Stéphanie Combes, de son côté, reste optimiste. « Les gens du collectif Interhop ne représentent pas tout le monde hospitalier, attaque-t-elle. J’ai encore eu aujourd’hui des réunions avec les initiateurs de trois projets portés par des établissements hospitaliers de l’Est et du Grand-Ouest. Le Health Data Hub ne va pas remplacer les initiatives locales. Nous sommes là pour les favoriser, les aider notamment financièrement en leur proposant des partenariats, car nous avons des financements prévus pour cela. Je suis certaine que les premiers projets vont servir d’exemple et vont réussir à convaincre les autres de suivre. »

    Contactée par Mediapart, la Cnil n’a pas souhaité répondre à nos questions. Mais elle précise qu’elle reviendra « très prochainement » sur le sujet. Selon nos informations, un avis non sollicité par le gouvernement et ne concernant pas le décret doit être adopté jeudi prochain. Parallèlement, Stéphanie Combes sera auditionnée le même jour par la Commission. L’occasion de dissiper les malentendus ou de mettre les points sur les « i ».

    #santé #données_personnelles #big_data #big_pognon #épidémie #traçage

  • La #Suisse sous couverture - Agents infiltrés (1/5)

    En 1955, les #services_de_renseignement américains et l’entreprise suisse #Crypto_AG concluent un accord confidentiel qui permettra l’#espionnage des communications de 130 pays. Durant des décennies, un pan de l’industrie helvétique sera impliqué dans ces activités, malgré la « #neutralité » du pays et avec la bénédiction du Conseil fédéral.


    #histoire #USA #guerre_froide #Crypto #William_Friedman #cryptographie #technologie #espions #renseignements #Boris_Hagelin #neutralité #espionnage #affaire_Buehler #Hans_Buehler #Nora_Makabee #BND #Siemens #Loèches #Valais

    ping @simplicissimus @etraces

    • La Suisse sous couverture - Les grandes oreilles de la Confédération (2/5)

      A #Loèche, #Swisscom, le Département fédéral de la défense et des entreprises privées proches de la #National_Security_Agency (#NSA) gèrent un parc d’antennes pour les communications satellitaires entre la Suisse et l’étranger. En l’an 2000, ce site stratégique devient la porte d’entrée privilégiée de Washington pour espionner les communications dans le monde entier.

      #neutralité #télécommunication #satellites #ONYX #services_de_renseignement #USA #Etats-Unis #Jean-Paul_Rouiller #signalhorn #Treasure_Map serveurs_clandestins #déni

    • La Suisse sous couverture - #Genève, nid d’espions (3/5)

      Des salons de l’#ONU truffés de micros, des antennes camouflées dans les missions diplomatiques et des agents russes ou américains infiltrés partout... A Genève, où Edward Snowden travaillait pour la #CIA, le petit monde du renseignement grenouille discrètement et les espions chassent en meute.

      #Snowden #Nations_Unies #Special_collection_service (#SCS) #organisations_internationales #système_d'écoute #site_C #Wiesbaden #Fort_Meade #NSA #Russie

    • La Suisse sous couverture - Le secret bunker suisse (4/5)

      Nos données numériques personnelles sont une mine d’or d’informations qu’il faut protéger des regards indiscrets. En Suisse, une législation déficiente – elle date de 1992 – permet à des puissances étrangères d’accéder à ces données. Dans le dossier du « big data », c’est la souveraineté de la Confédération qui est en jeu.


      #big_data #données_numériques #coffre-fort_numérique #réduit_national_4.0 #stockage #RGPD #protection_des_données #cloud_act

    • La Suisse sous couverture - Crypto révolution (5/5)

      D’un côté, Google et consorts contrôlent les canaux et le stockage de l’information. De l’autre, une puissante mouvance de hackers tente de rendre cette information publique, en piratant des systèmes informatiques. L’enjeu de cette guerre ? La défense de libertés fondamentales, aussi bien sur internet que dans la société.


      #activisme #résistance #hackers #Digital_Gesellschaft #droits_humains #chaos_computer #club #surveillance #économie_de_la_surveillance

    • La CIA s’est servie d’une entreprise suisse pour espionner plus de 100 pays

      Une affaire d’espionnage secoue la Suisse : pendant des décennies, les services de renseignement américains et allemands ont secrètement utilisé une entreprise suisse et sa technologie pour espionner de nombreux États. Que savaient les autorités suisses à ce sujet ?

      Vue de l’extérieur, la firme zougoise Crypto AG était une entreprise suisse sérieuse, spécialisée dans la technologie de pointe. Elle fabriquait un produit peu utilisé par la plupart des gens : des appareils de chiffrement. Ses clients étaient des États ainsi que leurs armées et services secrets voulant rendre leurs communications secrètes illisibles, c’est-à-dire les crypter ou les chiffrer.

      Cependant, Crypto AG n’était une entreprise normale et respectant les valeurs ayant cours en Suisse que côté pile. Côté face, elle possédait une structure cryptique – au sens propre – car ses propriétaires agissant dans l’ombre étaient, à partir de 1970, l’agence centrale de renseignement américaine (CIA) et le service de renseignement allemand (BND). Les deux services secrets firent en sorte que la technologie de cryptage « swiss made », réputée infaillible, soit munie d’une porte dérobée.

      Grâce à ces manipulations ciblées, la CIA et le BND ont pu espionner 148 États – ennemis ou alliés – pendant des dizaines d’années. Tous ces pays avait investi des millions pour obtenir la technologie de ce pays neutre et digne de confiance qu’était la Suisse. Autrement dit, ils ont payé eux-mêmes les appareils qui les ont trahis.

      Les faits ont été dévoilés à la mi-février par la télévision suisse alémanique SRF, la chaîne allemande ZDF et le « Washington Post » à l’issue d’une enquête commune. L’équipe de recherche s’est appuyée sur des dossiers de la CIA qu’on lui a fait passer en douce, et sur des entretiens avec d’anciens employés de Crypto AG et leurs proches.

      L’ampleur du « coup du siècle des services secrets » – ce sont les termes de la CIA – paraît énorme. L’affaire met en lumière les tensions de l’époque de la guerre froide. La complicité de la CIA et du BND éclaire d’un nouveau jour bon nombre d’événements historiques de ces 50 dernières années. Jusqu’où faut-il réécrire l’histoire mondiale récente ? Seule une étude approfondie des CryptoLeaks le déterminera. L’histoire suisse doit-elle, elle aussi, être révisée ? C’est la question qui fait tant de vagues aussi en Suisse. On se demande ce que les autorités suisses savaient, et si l’État suisse était au courant des agissements des services de renseignement étrangers sur son sol et les a couverts.
      « Le programme a dépassé les espérances les plus folles »

      Dans quelle mesure les activités d’espionnage de la CIA et du BND, s’appuyant sur la technologie truquée de l’entreprise Crypto AG, ont-elles abouti ? Le succès des espions est toujours un échec pour ceux qui en sont victimes : la réponse dépend donc du point de vue adopté. Celui de la CIA, d’après les sources publiées, est le suivant : « Cela a été le projet d’espionnage à la fois le plus productif et le plus long depuis la Seconde Guerre mondiale. » Ainsi, entre 80 et 90 % des communications secrètes de l’Iran ont pu être déchiffrées. D’après la source de la CIA, « le programme a dépassé les espérances les plus folles de ses inventeurs. »

      Ces écoutes ont permis aux États-Unis d’influencer l’issue de tous les grands conflits ou presque à leur profit. Un exemple : selon l’état actuel des sources, le coup d’État militaire au Chili (1973) a été soutenu par les États-Unis sur la base des écoutes. En même temps, la CIA et le BND ont épié les conversations du régime militaire alors parvenu au pouvoir et n’ont donc jamais rien ignoré des méthodes de persécution et de torture qui coûtèrent la vie à 30 000 opposants au régime.
      Beaucoup de questions, premières réponses

      Les révélations sur Crypto AG font beaucoup de vagues, mais il n’est pas encore possible d’en tirer des conclusions définitives. Les grandes questions qu’elles posent esquissent cependant la portée de l’affaire pour la Suisse.

      Pourquoi la CIA et le BND ont-ils utilisé la couverture discrète d’une entreprise suisse ?

      Crypto AG a été fondée en 1952 par le cryptologue suédois Boris Hagelin. Il n’a pas implanté son entreprise en Suisse par hasard : « Lorsqu’on travaillait dans un domaine aussi sensible que la cryptographie, il valait mieux rechercher la protection d’un pays neutre mais faisant preuve de peu de scrupules moraux », indique la source de la CIA. Boris Hagelin a vendu son entreprise en 1970 à une société-écran de la CIA et du BND.

      Ce sont la CIA et le BND qui se sont livrés à ces activités d’espionnage. Pourquoi l’affaire est-elle perçue en Suisse comme un scandale « suisse » ?

      Du point de vue suisse, il est déterminant de savoir si les autorités du pays connaissaient les intentions, le modus operandi et la portée des activités d’espionnage, et si elles les ont tolérées, voire même favorisées.

      Des employés de Crypto AG soupçonnèrent que des puissances étrangères s’étaient immiscées dans les rouages de leur parfaite technique. Ils en ont informé la justice suisse. Que s’est-il passé ensuite ?

      Il est prouvé qu’au milieu des années 1970, un employé a informé des instances officielles que les appareils vendus étaient « dotés de générateurs de clés manipulés permettant aux services d’espionnage allemands et américains de déchiffrer les messages » : c’est ce que dit une fiche des Archives fédérales du 24 juillet 1977. Le problème est que les dossiers relatifs à cette fiche ont en partie disparu…

      La police fédérale suisse a enquêté sur la base de ces accusations, mais sans résultat. Des témoins de l’époque affirment aujourd’hui que les interrogatoires menés par la police ne l’ont été que « pour la forme »...

      Toute l’affaire ne sent-elle pas un peu le réchauffé de l’époque de la guerre froide ?

      Il est vrai que les premières accusations ont été lancées au milieu des années 1970. Et que Hans Bühler, ancien employé de Crypto, a accusé ouvertement son entreprise de collaborer avec des services secrets étrangers (Hans Bühler, soupçonné d’espionnage, a passé neuf mois dans une geôle iranienne, et a publié ses accusations dans un livre paru en 1994). Mais toute la portée de l’affaire n’éclate au grand jour que maintenant, car des preuves ont été fournies par des sources de la CIA. De plus, les activités d’espionnage ont perduré jusqu’en 2018, soit bien après la fin de la guerre froide. Le BND s’en est toutefois retiré en 1993 déjà, à la suite de la réunification de l’Allemagne.

      Dans l’état actuel des connaissances, que savait le Conseil fédéral de ces activités d’espionnage ?

      C’est une question clé. On ne sait pas encore dans quelle mesure des conseillers fédéraux étaient au courant de ces activités. Les documents de la CIA impliquent l’ancien conseiller fédéral Kaspar Villiger (PLR). Aujourd’hui âgé de 79 ans, ce dernier nie vigoureusement avoir été informé des détails.

      Pourquoi est-ce si important de savoir si le Conseil fédéral était au courant des activités d’espionnage ?

      S’il devait s’avérer que le Conseil fédéral, ou certains conseillers fédéraux, connaissaient ces activités d’espionnage, des questions sérieuses se posent : le gouvernement les a-t-il tolérées ? Ou les a-t-il couvertes ? A-t-il accepté que la neutralité suisse serve de leurre ? Et si la Suisse a été complice, a fermé les yeux ou couvert les faits : comment justifier l’espionnage contre des pays belligérants lorsqu’on affiche une politique de neutralité ?

      Comment le Conseil fédéral et le Parlement réagissent-ils à l’affaire ?

      La présidente de la Confédération, Simonetta Sommaruga, a dit très tôt que le gouvernement allait réunir tous les faits et était favorable à une enquête. La ministre de la Défense Viola Amherd a confirmé que son département abrite des documents laissant penser que son prédécesseur Kaspar Villiger était au courant. Désormais, l’affaire fait l’objet d’une enquête de la Délégation des Commissions de gestion des chambres fédérales. Cet organe de contrôle entend déterminer ce que la Suisse savait de ces activités d’espionnage, et si les renseignements suisses en ont même éventuellement même.

      L’affaire des CryptoLeaks met-elle en péril le rôle actuel de la Suisse ?

      La Suisse joue un rôle d’intermédiaire dans de nombreux conflits. Elle propose même ses « bons offices » dans les régions du monde sous tension. Ainsi, elle joue actuellement le « rôle du facteur » entre les États-Unis et l’Iran. La Suisse ne peut endosser ce rôle diplomatique que si sa crédibilité d’État neutre est intacte. C’est précisément cette crédibilité qui est en jeu maintenant. Ajoutons que l’Iran a été particulièrement touché par l’espionnage permis par la technologie « swiss made » truquée et vendue par le représentant de Crypto, Hans Bühler.

      Ce sont les États-Unis et l’Allemagne qui ont espionné d’autres pays. Pourquoi la réputation de la Suisse en souffrirait-elle ?

      L’avenir dira si la perception extérieure de la Suisse a subi des dommages. Mais la perception intérieure de la Suisse est de toute façon affectée : l’image de pays neutre à laquelle tiennent tant de Suisses est endommagée. L’affaire des CryptoLeaks pourrait jeter un discrédit total sur la neutralité suisse (voir aussi le commentaire de notre invité, p. 15).

      Crédibilité, confiance, image de soi : ce sont des facteurs subjectifs. L’affaire menace-t-elle aussi des intérêts économiques tangibles ?

      La Suisse possède une branche technologique en plein essor, qui dépend aussi de l’image de marque du pays. De plus, la Suisse souhaite se vendre comme une « place numérique propre », et promeut une initiative internationale dans le domaine de l’éthique. L’affaire des #CryptoLeaks tombe très mal.


  • Monitoring being pitched to fight Covid-19 was tested on refugees

    The pandemic has given a boost to controversial data-driven initiatives to track population movements

    In Italy, social media monitoring companies have been scouring Instagram to see who’s breaking the nationwide lockdown. In Israel, the government has made plans to “sift through geolocation data” collected by the Shin Bet intelligence agency and text people who have been in contact with an infected person. And in the UK, the government has asked mobile operators to share phone users’ aggregate location data to “help to predict broadly how the virus might move”.

    These efforts are just the most visible tip of a rapidly evolving industry combining the exploitation of data from the internet and mobile phones and the increasing number of sensors embedded on Earth and in space. Data scientists are intrigued by the new possibilities for behavioural prediction that such data offers. But they are also coming to terms with the complexity of actually using these data sets, and the ethical and practical problems that lurk within them.

    In the wake of the refugee crisis of 2015, tech companies and research consortiums pushed to develop projects using new data sources to predict movements of migrants into Europe. These ranged from broad efforts to extract intelligence from public social media profiles by hand, to more complex automated manipulation of big data sets through image recognition and machine learning. Two recent efforts have just been shut down, however, and others are yet to produce operational results.

    While IT companies and some areas of the humanitarian sector have applauded new possibilities, critics cite human rights concerns, or point to limitations in what such technological solutions can actually achieve.

    In September last year Frontex, the European border security agency, published a tender for “social media analysis services concerning irregular migration trends and forecasts”. The agency was offering the winning bidder up to €400,000 for “improved risk analysis regarding future irregular migratory movements” and support of Frontex’s anti-immigration operations.

    Frontex “wants to embrace” opportunities arising from the rapid growth of social media platforms, a contracting document outlined. The border agency believes that social media interactions drastically change the way people plan their routes, and thus examining would-be migrants’ online behaviour could help it get ahead of the curve, since these interactions typically occur “well before persons reach the external borders of the EU”.

    Frontex asked bidders to develop lists of key words that could be mined from platforms like Twitter, Facebook, Instagram and YouTube. The winning company would produce a monthly report containing “predictive intelligence ... of irregular flows”.

    Early this year, however, Frontex cancelled the opportunity. It followed swiftly on from another shutdown; Frontex’s sister agency, the European Asylum Support Office (EASO), had fallen foul of the European data protection watchdog, the EDPS, for searching social media content from would-be migrants.

    The EASO had been using the data to flag “shifts in asylum and migration routes, smuggling offers and the discourse among social media community users on key issues – flights, human trafficking and asylum systems/processes”. The search covered a broad range of languages, including Arabic, Pashto, Dari, Urdu, Tigrinya, Amharic, Edo, Pidgin English, Russian, Kurmanji Kurdish, Hausa and French.

    Although the EASO’s mission, as its name suggests, is centred around support for the asylum system, its reports were widely circulated, including to organisations that attempt to limit illegal immigration – Europol, Interpol, member states and Frontex itself.

    In shutting down the EASO’s social media monitoring project, the watchdog cited numerous concerns about process, the impact on fundamental rights and the lack of a legal basis for the work.

    “This processing operation concerns a vast number of social media users,” the EDPS pointed out. Because EASO’s reports are read by border security forces, there was a significant risk that data shared by asylum seekers to help others travel safely to Europe could instead be unfairly used against them without their knowledge.

    Social media monitoring “poses high risks to individuals’ rights and freedoms,” the regulator concluded in an assessment it delivered last November. “It involves the use of personal data in a way that goes beyond their initial purpose, their initial context of publication and in ways that individuals could not reasonably anticipate. This may have a chilling effect on people’s ability and willingness to express themselves and form relationships freely.”

    EASO told the Bureau that the ban had “negative consequences” on “the ability of EU member states to adapt the preparedness, and increase the effectiveness, of their asylum systems” and also noted a “potential harmful impact on the safety of migrants and asylum seekers”.

    Frontex said that its social media analysis tender was cancelled after new European border regulations came into force, but added that it was considering modifying the tender in response to these rules.

    Drug shortages put worst-hit Covid-19 patients at risk
    European doctors running low on drugs needed to treat Covid-19 patients
    Big Tobacco criticised for ’coronavirus publicity stunt’ after donating ventilators

    The two shutdowns represented a stumbling block for efforts to track population movements via new technologies and sources of data. But the public health crisis precipitated by the Covid-19 virus has brought such efforts abruptly to wider attention. In doing so it has cast a spotlight on a complex knot of issues. What information is personal, and legally protected? How does that protection work? What do concepts like anonymisation, privacy and consent mean in an age of big data?
    The shape of things to come

    International humanitarian organisations have long been interested in whether they can use nontraditional data sources to help plan disaster responses. As they often operate in inaccessible regions with little available or accurate official data about population sizes and movements, they can benefit from using new big data sources to estimate how many people are moving where. In particular, as well as using social media, recent efforts have sought to combine insights from mobile phones – a vital possession for a refugee or disaster survivor – with images generated by “Earth observation” satellites.

    “Mobiles, satellites and social media are the holy trinity of movement prediction,” said Linnet Taylor, professor at the Tilburg Institute for Law, Technology and Society in the Netherlands, who has been studying the privacy implications of such new data sources. “It’s the shape of things to come.”

    As the devastating impact of the Syrian civil war worsened in 2015, Europe saw itself in crisis. Refugee movements dominated the headlines and while some countries, notably Germany, opened up to more arrivals than usual, others shut down. European agencies and tech companies started to team up with a new offering: a migration hotspot predictor.

    Controversially, they were importing a concept drawn from distant catastrophe zones into decision-making on what should happen within the borders of the EU.

    “Here’s the heart of the matter,” said Nathaniel Raymond, a lecturer at the Yale Jackson Institute for Global Affairs who focuses on the security implications of information communication technologies for vulnerable populations. “In ungoverned frontier cases [European data protection law] doesn’t apply. Use of these technologies might be ethically safer there, and in any case it’s the only thing that is available. When you enter governed space, data volume and ease of manipulation go up. Putting this technology to work in the EU is a total inversion.”
    “Mobiles, satellites and social media are the holy trinity of movement prediction”

    Justin Ginnetti, head of data and analysis at the Internal Displacement Monitoring Centre in Switzerland, made a similar point. His organisation monitors movements to help humanitarian groups provide food, shelter and aid to those forced from their homes, but he casts a skeptical eye on governments using the same technology in the context of migration.

    “Many governments – within the EU and elsewhere – are very interested in these technologies, for reasons that are not the same as ours,” he told the Bureau. He called such technologies “a nuclear fly swatter,” adding: “The key question is: What problem are you really trying to solve with it? For many governments, it’s not preparing to ‘better respond to inflow of people’ – it’s raising red flags, to identify those en route and prevent them from arriving.”
    Eye in the sky

    A key player in marketing this concept was the European Space Agency (ESA) – an organisation based in Paris, with a major spaceport in French Guiana. The ESA’s pitch was to combine its space assets with other people’s data. “Could you be leveraging space technology and data for the benefit of life on Earth?” a recent presentation from the organisation on “disruptive smart technologies” asked. “We’ll work together to make your idea commercially viable.”

    By 2016, technologists at the ESA had spotted an opportunity. “Europe is being confronted with the most significant influxes of migrants and refugees in its history,” a presentation for their Advanced Research in Telecommunications Systems Programme stated. “One burning issue is the lack of timely information on migration trends, flows and rates. Big data applications have been recognised as a potentially powerful tool.” It decided to assess how it could harness such data.

    The ESA reached out to various European agencies, including EASO and Frontex, to offer a stake in what it called “big data applications to boost preparedness and response to migration”. The space agency would fund initial feasibility stages, but wanted any operational work to be jointly funded.

    One such feasibility study was carried out by GMV, a privately owned tech group covering banking, defence, health, telecommunications and satellites. GMV announced in a press release in August 2017 that the study would “assess the added value of big data solutions in the migration sector, namely the reduction of safety risks for migrants, the enhancement of border controls, as well as prevention and response to security issues related with unexpected migration movements”. It would do this by integrating “multiple space assets” with other sources including mobile phones and social media.

    When contacted by the Bureau, a spokeswoman from GMV said that, contrary to the press release, “nothing in the feasibility study related to the enhancement of border controls”.

    In the same year, the technology multinational CGI teamed up with the Dutch Statistics Office to explore similar questions. They started by looking at data around asylum flows from Syria and at how satellite images and social media could indicate changes in migration patterns in Niger, a key route into Europe. Following this experiment, they approached EASO in October 2017. CGI’s presentation of the work noted that at the time EASO was looking for a social media analysis tool that could monitor Facebook groups, predict arrivals of migrants at EU borders, and determine the number of “hotspots” and migrant shelters. CGI pitched a combined project, co-funded by the ESA, to start in 2019 and expand to serve more organisations in 2020.
    The proposal was to identify “hotspot activities”, using phone data to group individuals “according to where they spend the night”

    The idea was called Migration Radar 2.0. The ESA wrote that “analysing social media data allows for better understanding of the behaviour and sentiments of crowds at a particular geographic location and a specific moment in time, which can be indicators of possible migration movements in the immediate future”. Combined with continuous monitoring from space, the result would be an “early warning system” that offered potential future movements and routes, “as well as information about the composition of people in terms of origin, age, gender”.

    Internal notes released by EASO to the Bureau show the sheer range of companies trying to get a slice of the action. The agency had considered offers of services not only from the ESA, GMV, the Dutch Statistics Office and CGI, but also from BIP, a consulting firm, the aerospace group Thales Alenia, the geoinformation specialist EGEOS and Vodafone.

    Some of the pitches were better received than others. An EASO analyst who took notes on the various proposals remarked that “most oversell a bit”. They went on: “Some claimed they could trace GSM [ie mobile networks] but then clarified they could do it for Venezuelans only, and maybe one or two countries in Africa.” Financial implications were not always clearly provided. On the other hand, the official noted, the ESA and its consortium would pay 80% of costs and “we can get collaboration on something we plan to do anyway”.

    The features on offer included automatic alerts, a social media timeline, sentiment analysis, “animated bubbles with asylum applications from countries of origin over time”, the detection and monitoring of smuggling sites, hotspot maps, change detection and border monitoring.

    The document notes a group of services available from Vodafone, for example, in the context of a proposed project to monitor asylum centres in Italy. The proposal was to identify “hotspot activities”, using phone data to group individuals either by nationality or “according to where they spend the night”, and also to test if their movements into the country from abroad could be back-tracked. A tentative estimate for the cost of a pilot project, spread over four municipalities, came to €250,000 – of which an unspecified amount was for “regulatory (privacy) issues”.

    Stumbling blocks

    Elsewhere, efforts to harness social media data for similar purposes were proving problematic. A September 2017 UN study tried to establish whether analysing social media posts, specifically on Twitter, “could provide insights into ... altered routes, or the conversations PoC [“persons of concern”] are having with service providers, including smugglers”. The hypothesis was that this could “better inform the orientation of resource allocations, and advocacy efforts” - but the study was unable to conclude either way, after failing to identify enough relevant data on Twitter.

    The ESA pressed ahead, with four feasibility studies concluding in 2018 and 2019. The Migration Radar project produced a dashboard that showcased the use of satellite imagery for automatically detecting changes in temporary settlement, as well as tools to analyse sentiment on social media. The prototype received positive reviews, its backers wrote, encouraging them to keep developing the product.

    CGI was effusive about the predictive power of its technology, which could automatically detect “groups of people, traces of trucks at unexpected places, tent camps, waste heaps and boats” while offering insight into “the sentiments of migrants at certain moments” and “information that is shared about routes and motives for taking certain routes”. Armed with this data, the company argued that it could create a service which could predict the possible outcomes of migration movements before they happened.

    The ESA’s other “big data applications” study had identified a demand among EU agencies and other potential customers for predictive analyses to ensure “preparedness” and alert systems for migration events. A package of services was proposed, using data drawn from social media and satellites.

    Both projects were slated to evolve into a second, operational phase. But this seems to have never become reality. CGI told the Bureau that “since the completion of the [Migration Radar] project, we have not carried out any extra activities in this domain”.

    The ESA told the Bureau that its studies had “confirmed the usefulness” of combining space technology and big data for monitoring migration movements. The agency added that its corporate partners were working on follow-on projects despite “internal delays”.

    EASO itself told the Bureau that it “took a decision not to get involved” in the various proposals it had received.

    Specialists found a “striking absence” of agreed upon core principles when using the new technologies

    But even as these efforts slowed, others have been pursuing similar goals. The European Commission’s Knowledge Centre on Migration and Demography has proposed a “Big Data for Migration Alliance” to address data access, security and ethics concerns. A new partnership between the ESA and GMV – “Bigmig" – aims to support “migration management and prevention” through a combination of satellite observation and machine-learning techniques (the company emphasised to the Bureau that its focus was humanitarian). And a consortium of universities and private sector partners – GMV among them – has just launched a €3 million EU-funded project, named Hummingbird, to improve predictions of migration patterns, including through analysing phone call records, satellite imagery and social media.

    At a conference in Berlin in October 2019, dozens of specialists from academia, government and the humanitarian sector debated the use of these new technologies for “forecasting human mobility in contexts of crises”. Their conclusions raised numerous red flags. They found a “striking absence” of agreed upon core principles. It was hard to balance the potential good with ethical concerns, because the most useful data tended to be more specific, leading to greater risks of misuse and even, in the worst case scenario, weaponisation of the data. Partnerships with corporations introduced transparency complications. Communication of predictive findings to decision makers, and particularly the “miscommunication of the scope and limitations associated with such findings”, was identified as a particular problem.

    The full consequences of relying on artificial intelligence and “employing large scale, automated, and combined analysis of datasets of different sources” to predict movements in a crisis could not be foreseen, the workshop report concluded. “Humanitarian and political actors who base their decisions on such analytics must therefore carefully reflect on the potential risks.”

    A fresh crisis

    Until recently, discussion of such risks remained mostly confined to scientific papers and NGO workshops. The Covid-19 pandemic has brought it crashing into the mainstream.

    Some see critical advantages to using call data records to trace movements and map the spread of the virus. “Using our mobile technology, we have the potential to build models that help to predict broadly how the virus might move,” an O2 spokesperson said in March. But others believe that it is too late for this to be useful. The UK’s chief scientific officer, Patrick Vallance, told a press conference in March that using this type of data “would have been a good idea in January”.

    Like the 2015 refugee crisis, the global emergency offers an opportunity for industry to get ahead of the curve with innovative uses of big data. At a summit in Downing Street on 11 March, Dominic Cummings asked tech firms “what [they] could bring to the table” to help the fight against Covid-19.

    Human rights advocates worry about the longer term effects of such efforts, however. “Right now, we’re seeing states around the world roll out powerful new surveillance measures and strike up hasty partnerships with tech companies,” Anna Bacciarelli, a technology researcher at Amnesty International, told the Bureau. “While states must act to protect people in this pandemic, it is vital that we ensure that invasive surveillance measures do not become normalised and permanent, beyond their emergency status.”

    More creative methods of surveillance and prediction are not necessarily answering the right question, others warn.

    “The single largest determinant of Covid-19 mortality is healthcare system capacity,” said Sean McDonald, a senior fellow at the Centre for International Governance Innovation, who studied the use of phone data in the west African Ebola outbreak of 2014-5. “But governments are focusing on the pandemic as a problem of people management rather than a problem of building response capacity. More broadly, there is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Legally, this type of data processing raises complicated questions. While European data protection law - the GDPR - generally prohibits processing of “special categories of personal data”, including ethnicity, beliefs, sexual orientation, biometrics and health, it allows such processing in a number of instances (among them public health emergencies). In the case of refugee movement prediction, there are signs that the law is cracking at the seams.
    “There is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Under GDPR, researchers are supposed to make “impact assessments” of how their data processing can affect fundamental rights. If they find potential for concern they should consult their national information commissioner. There is no simple way to know whether such assessments have been produced, however, or whether they were thoroughly carried out.

    Researchers engaged with crunching mobile phone data point to anonymisation and aggregation as effective tools for ensuring privacy is maintained. But the solution is not straightforward, either technically or legally.

    “If telcos are using individual call records or location data to provide intel on the whereabouts, movements or activities of migrants and refugees, they still need a legal basis to use that data for that purpose in the first place – even if the final intelligence report itself does not contain any personal data,” said Ben Hayes, director of AWO, a data rights law firm and consultancy. “The more likely it is that the people concerned may be identified or affected, the more serious this matter becomes.”

    More broadly, experts worry that, faced with the potential of big data technology to illuminate movements of groups of people, the law’s provisions on privacy begin to seem outdated.

    “We’re paying more attention now to privacy under its traditional definition,” Nathaniel Raymond said. “But privacy is not the same as group legibility.” Simply put, while issues around the sensitivity of personal data can be obvious, the combinations of seemingly unrelated data that offer insights about what small groups of people are doing can be hard to foresee, and hard to mitigate. Raymond argues that the concept of privacy as enshrined in the newly minted data protection law is anachronistic. As he puts it, “GDPR is already dead, stuffed and mounted. We’re increasing vulnerability under the colour of law.”

    #cobaye #surveillance #réfugiés #covid-19 #coronavirus #test #smartphone #téléphones_portables #Frontex #frontières #contrôles_frontaliers #Shin_Bet #internet #big_data #droits_humains #réseaux_sociaux #intelligence_prédictive #European_Asylum_Support_Office (#EASO) #EDPS #protection_des_données #humanitaire #images_satellites #technologie #European_Space_Agency (#ESA) #GMV #CGI #Niger #Facebook #Migration_Radar_2.0 #early_warning_system #BIP #Thales_Alenia #EGEOS #complexe_militaro-industriel #Vodafone #GSM #Italie #twitter #détection #routes_migratoires #systèmes_d'alerte #satellites #Knowledge_Centre_on_Migration_and_Demography #Big_Data for_Migration_Alliance #Bigmig #machine-learning #Hummingbird #weaponisation_of_the_data #IA #intelligence_artificielle #données_personnelles

    ping @etraces @isskein @karine4 @reka

    signalé ici par @sinehebdo :

  • « StopCovid est un projet désastreux piloté par des apprentis sorciers »

    Antonio Casilli, Sociologue
    Paul-Olivier Dehaye, Mathématicien
    Jean-Baptiste Soufron, Avocat

    Il faut renoncer à la mise en place d’un outil de surveillance enregistrant toutes nos interactions humaines et sur lequel pèse l’ombre d’intérêts privés et politiques, à l’instar du scandale Cambridge Analytica, plaide un collectif de trois spécialistes du numérique dans une tribune au « Monde ».


    • L’affaire Cambridge Analytica, révélée au grand jour en 2018, avait comme point de départ les travaux de chercheurs de l’université anglaise. Une application appelée « Thisisyourdigitallife », présentée comme un simple quiz psychologique, avait d’abord été proposée à des utilisateurs de la plate-forme de microtravail Amazon Mechanical Turk. Ensuite, ces derniers avaient été amenés à donner accès au profil Facebook de tous leurs contacts. C’était, en quelque sorte, du traçage numérique des contacts avant la lettre.

      A aucun moment ces sujets n’avaient consenti à la réutilisation de leurs informations dans la campagne du Brexit, dans celle de Donald Trump, ou dans des élections en Inde et en Argentine. Cela est arrivé ensuite, lorsque les chercheurs ont voulu monétiser les données, initialement collectées dans un but théoriquement désintéressé, par le biais de l’entreprise Cambridge Analytica. En principe, cette démarche respectait les lois des différents pays et les règles de ces grandes plates-formes. Néanmoins, de puissants algorithmes ont été mis au service des intérêts personnels et de la soif de pouvoir d’hommes politiques sans scrupule.

    • Tribune. Le mardi 28 avril, les parlementaires français seront amenés à voter sur StopCovid, l’application mobile de traçage des individus imposée par l’exécutif. Nous souhaitons que, par leur vote, ils convainquent ce dernier de renoncer à cette idée tant qu’il est encore temps. Non pas de l’améliorer, mais d’y renoncer tout court. En fait, même si toutes les garanties légales et techniques étaient mises en place (anonymisation des données, open source, technologies Bluetooth, consentement des utilisateurs, protocole décentralisé, etc.), StopCovid serait exposée au plus grand des dangers : celui de se transformer sous peu en « StopCovid Analytica », une nouvelle version du scandale Cambridge Analytica [siphonnage des données privées de dizaines de millions de comptes Facebook].

      L’application StopCovid a été imaginée comme un outil pour permettre de sortir la population française de la situation de restriction des libertés publiques provoquée par le Covid-19. En réalité, cette « solution » technologique ne serait qu’une continuation du confinement par d’autres moyens. Si, avec ce dernier, nous avons fait l’expérience d’une assignation à résidence collective, les applications mobiles de surveillance risquent de banaliser le port du bracelet électronique.

      Tous les citoyens, malades ou non

      Le terme n’est pas exagéré : c’est déjà le cas à Hong-Kong, qui impose un capteur au poignet des personnes en quarantaine, et c’est l’objet de tests en Corée du Sud et au Liechtenstein pour certaines catégories de citoyens à risque. StopCovid, elle, a vocation à être installée dans les smartphones, mais elle concerne tous les citoyens, malades ou non. Malgré le fait que son installation soit présentée comme facultative dans d’autres pays, tels l’Italie, on assiste à la transformation de cette démarche volontaire en obligation.

      L’affaire Cambridge Analytica, révélée au grand jour en 2018, avait comme point de départ les travaux de chercheurs de l’université anglaise. Une application appelée « Thisisyourdigitallife », présentée comme un simple quiz psychologique, avait d’abord été proposée à des utilisateurs de la plate-forme de microtravail Amazon Mechanical Turk. Ensuite, ces derniers avaient été amenés à donner accès au profil Facebook de tous leurs contacts. C’était, en quelque sorte, du traçage numérique des contacts avant la lettre.

      A aucun moment ces sujets n’avaient consenti à la réutilisation de leurs informations dans le cadre de la campagne du Brexit ou dans l’élection présidentielle de Donald Trump. Cela est arrivé ensuite, lorsque les chercheurs ont voulu monétiser les données, initialement collectées dans un but théoriquement désintéressé, par le biais de l’entreprise Cambridge Analytica. En principe, cette démarche respectait les lois des différents pays et les règles de ces grandes plates-formes. Néanmoins, de puissants algorithmes ont été mis au service des intérêts personnels et de la soif de pouvoir d’hommes politiques sans scrupule.

      Les mêmes ingrédients sont réunis ici : des scientifiques « de bonne volonté », des géants de la « tech », des intérêts politiques. Dans le cas de StopCovid, c’est le consortium universitaire européen Pan-European Privacy Preserving Proximity Tracing (PEPP-PT), qui a vu le jour à la suite de la pandémie. Ces scientifiques se sont attelés à la tâche de concevoir dans l’urgence le capteur de contacts le plus puissant, dans le respect des lois. Cela s’articule avec les intérêts économiques d’acteurs privés, tels les grands groupes industriels nationaux, le secteur automobile et les banques en Italie, les télécoms et les professionnels de l’hébergement informatique en France. Mais surtout les GAFA, les géants américains du numérique, se sont emparés du sujet.

      Cette fois, ce ne sont pas Facebook et Amazon, mais Google et Apple, qui ont tout de suite proposé de fournir une nouvelle structure pour diffuser les applications de suivi de contacts sur leurs plates-formes. La menace qui plane au-delà de tous ces acteurs vient des ambitions de certains milieux politiques européens d’afficher leur détermination dans la lutte contre le Covid19, en se targuant d’une solution technique à grande échelle, utilisant les données personnelles pour la « campagne du déconfinement ».

      Une myopie sur les dimensions sociales des données

      Le projet StopCovid n’offre aucune garantie sur les finalités exactes de la collecte de ces données. L’exécutif français ne s’autorise pas à réfléchir à la phase qui suit la collecte, c’est-à-dire au traitement qui sera fait de ces informations sensibles. Quels algorithmes les analyseront ? Avec quelles autres données seront-elles croisées sur le moyen et le court terme ? Son court-termisme s’accompagne d’une myopie sur les dimensions sociales des données.

      Que se passerait-il si, comme plusieurs scientifiques de l’Inria, du CNRS et d’Informatics Europe s’époumonent à nous le dire, malgré une collecte initiale de données réduite au minimum, des entreprises ou des puissances étrangères décidaient de créer des « applications parasites » qui, comme Cambridge Analytica, croiseraient les données anonymisées de StopCovid avec d’autres bases de données nominatives ? Que se passerait-il, par exemple, si une plate-forme de livraison à domicile décidait (cela s’est passé récemment en Chine) de donner des informations en temps réel sur la santé de ses coursiers ? Comment pourrait-on empêcher un employeur ou un donneur d’ordres de profiter dans le futur des données sur l’état de santé et les habitudes sociales des travailleurs ?

      L’affaire Cambridge Analytica nous a permis de comprendre que les jeux de pouvoir violents et partisans autour de la maîtrise de nos données personnelles ont des conséquences directes sur l’ensemble de la vie réelle. Il ne s’agit pas d’une lubie abstraite. Le cas de StopCovid est tout aussi marquant. En focalisant des ressources, l’attention du public et celle des parlementaires sur une solution technique probablement inefficace, le gouvernement nous détourne des urgences les plus criantes : la pénurie de masques, de tests et de médicaments, ou les inégalités d’exposition au risque d’infection.

      Une malheureuse diversion

      Cette malheureuse diversion n’aurait pas lieu si le gouvernement n’imposait pas ses stratégies numériques, verticalement, n’étant plus guidé que par l’urgence de faire semblant d’agir. Face à ces enjeux, il faudrait au contraire impliquer activement et à parts égales les citoyens, les institutions, les organisations et les territoires pour repenser notre rapport à la technologie. Le modèle de gouvernance qui accompagnera StopCovid sera manifestement centré dans les mains d’une poignée d’acteurs étatiques et marchands. Une telle verticalité n’offre aucune garantie contre l’évolution rapide de l’application en un outil coercitif, imposé à tout le monde.

      Ce dispositif entraînerait un recul fondamental en matière de libertés, à la fois symbolique et concret : tant sur la liberté de déplacement, notamment entre les pays qui refuseraient d’avoir des systèmes de traçage ou qui prendront ce prétexte pour renforcer leur forteresse, que sur la liberté de travailler, de se réunir ou sur la vie privée. Les pouvoirs publics, les entreprises et les chercheurs qui dans le courant des dernières semaines sont allés de l’avant avec cette proposition désastreuse, ressemblent à des apprentis sorciers qui manient des outils dont la puissance destructrice leur échappe. Et, comme dans le poème de Goethe, quand l’apprenti sorcier n’arrive plus à retenir les forces qu’il a invoquées, il finit par implorer une figure d’autorité, une puissance supérieure qui remette de l’ordre. Sauf que, comme le poète nous l’apprend, ce « maître habile » ne reprend ces outils « que pour les faire servir à ses desseins ».

      Antonio Casilli, sociologue.
      Paul-Olivier Dehaye, mathématicien.
      Jean-Baptiste Soufron, avocat.
      Cosignataires : Sophie Binet et Marie-José Kotlicki cosecrétaires généraux de l’UGICT-CGT ; Raquel Radaut, membre de La Quadrature du Net.

      #StopCovid #tracing #solutionnisme_technologique #Big_data #surveillance

  • Tracking #coronavirus: #big_data and the challenge to privacy | Free to read | Financial Times

    Thierry Breton, the former chief executive of France Telecom who is now the European commissioner for the internal market, has called on operators to hand over aggregated location data to track how the virus is spreading and to identify spots where help is most needed.

    Both politicians and the industry insist that the data sets will be “anonymised”, meaning that customers’ individual identities will be scrubbed out. Mr Breton told the Financial Times: “In no way are we going to track individuals. That’s absolutely not the case. We are talking about fully anonymised, aggregated data to anticipate the development of the pandemic.”

    But the use of such data to track the virus has triggered fears of growing surveillance, including questions about how the data might be used once the crisis is over and whether such data sets are ever truly anonymous.

    #surveillance #anonymat #traçage #vie_privée

  • Orange recycle son service de géolocalisation pour la pandémie – La Quadrature du Net

    Depuis des années, Orange cherche à commercialiser la mine d’or que sont nos données de géolocalisation (la liste des antennes-relais auxquelles nos téléphones se connectent au fil la journée). La pandémie semble être pour l’entreprise une bonne occasion d’ouvrir son marché. Flux Vision En 2013, Orange a lancé une première offre, Flux Vision, qui propose aux villes et lieux touristiques des statistiques sur les « flux de déplacement » de leurs visiteurs : fréquentation, durée de séjour, provenance, (...)

    #Deutsche_Telekom #Orange #Vodafone #algorithme #smartphone #GPS #géolocalisation #métadonnées #BigData #santé #surveillance #CNIL (...)

    ##santé ##LaQuadratureduNet

  • Doctolib jusqu’à l’OS, anonyme, forcément

    ENQUETE FRANCE INFO. Comment #Doctolib se sert de nos données de santé

    Comme l’indique le guide pratique (PDF) coédité par la Cnil et le Conseil national de l’Ordre des médecins à destination des professionnels de santé, le RGPD impose que les données issues de la prise de rendez-vous soient traitées de la même manière que les dossiers médicaux des patients.

    Tu lis juste ça, tu as tout compris, tu n’as pas à donner ton avis pour qu’on te sniffe tes données, tu t’es fait avoir à la moulinette des données de santé, mais seulement jusqu’à l’os, anonyme bien sur. L’article relate ce bel imbroglio censé te rassurer avec une base de données gigantesque qui se revendra très cher.
    Le résultat est que Doctolib peut sniffer des données personnelles médicales sans ton accord … et comme la CNIL est ok, tout va bien, va crever ailleurs si tu veux pas qu’on te pique tes données.
    Une enquête censé rassurer ceux qui s’inquiètent de leurs droits, pour ceux qui suivent depuis le début de la mise en place du business juteux, cela reste un hold-up.

  • ENQUETE FRANCEINFO. Comment Doctolib se sert de nos données de santé

    Lorsque vous utilisez Doctolib pour prendre rendez-vous chez votre dermatologue, par exemple, vous transmettez deux types d’informations bien distinctes à la plateforme : d’un côté, vos données personnelles (nom, adresse e-mail, numéro de téléphone…) ; de l’autre, vos données de santé (rendez-vous avec un praticien, motif de la consultation, ordonnance numérisée après une téléconsultation...). Si cette distinction peut sembler évidente, elle est en fait assez récente. « Auparavant, la loi ne qualifiait de données de santé que les données relatives aux pathologies, comme par exemple le fait d’indiquer que Monsieur X est atteint de tel type de cancer », explique à franceinfo Guillaume Desgens-Pasanau, ancien directeur juridique de la Cnil, le gendarme français du respect des données personnelles.

    • La nouvelle législation demande en effet des précautions particulières aux entreprises ou administrations qui collectent ces données jugées sensibles. Ce qui est le cas de Doctolib. Comme l’indique le guide pratique (PDF) coédité par la Cnil et le Conseil national de l’Ordre des médecins à destination des professionnels de santé, le RGPD impose que les données issues de la prise de rendez-vous soient traitées de la même manière que les dossiers médicaux des patients.


      Le fait que Doctolib soit considéré par la réglementation comme un prestataire des praticiens de santé qui font appel à ses services a de nombreuses conséquences. Outre le fait que le géant de la santé numérique ne communique pas à ses utilisateurs l’historique de ses rendez-vous médicaux, l’entreprise n’a sur le papier pas besoin d’obtenir votre consentement pour collecter vos données, tant que celles-ci sont utilisées pour la finalité recherchée, à savoir la prise de rendez-vous de santé.

      ...mais comme il s’agit d’une licorne ils peuvent s’arranger avec toutes les contraintes légales qui les empêcherait de faire des millions ? cf https://seenthis.net/messages/775587 ping @touti

      Voir aussi la plaquette de l’ordre des médecins avec les « bonnes pratiques » en matière de collecte, stockage et usage des données persos : https://www.conseil-national.medecin.fr/sites/default/files/external-package/edition/17ss6et/guide_cnom_cnil_rgpd.pdf

      #vie_privée #doctolib #big_data #santé #RGPD #CNIL

  • Linky : charge de la Cnil contre EDF et Engie

    Le gendarme des données personnelles vient d’annoncer la mise en demeure d’EDF et d’Engie, en leur qualité de fournisseurs d’électricité exploitant les compteurs connectés Linky. La Cnil leur reproche un défaut de recueil du consentement éclairé et spécifique et des durées de conservation des données trop longues.
    Pas assez éclairé…
    A commencer par le consentement des usagers. Si EDF comme Engie demandent effectivement à leurs usagers s’ils acceptent la collecte de leurs données, ce consentement n’est ni spécifique, ni suffisamment éclairé. En effet, une seule case à cocher pour deux voire trois finalités distinctes : affichage des consommations quotidiennes, affichage des consommations à la demi-heure et fourniture de conseils personnalisés.

    Je suis très vénère !
    J’avais spécifiquement signalé ce point à la CNIL au printemps 2016, ainsi que l’absence totale d’information (d’éclairage…) sur les conséquences de la non acceptation : quelles données étaient transmises et à quel pas de temps.

    Elle ne m’a même pas accusé réception de mon message.

  • Clearview AI : comment une entreprise aspire illégalement des millions de photos au service des forces de l’ordre - Cyberguerre

    Le New York Times s’est intéressé au cas inquiétant de Clearview AI, une startup qui a créé un outil de reconnaissance faciale... à partir de millions d’images trouvées sur le web. L’application, sortie des pires scénarios de science-fiction, convainc les utilisateurs, mais s’affranchit de plusieurs barrières légales. Peut-elle s’installer dans les usages, alors qu’elle se confronte aux lois américaines et au règlement européen sur les données en Europe ?

  • Une bibliothèque musicale en ligne classe ses morceaux selon vos émotions

    Parce qu’il est souvent difficile de décrire des émotions face à une quelconque forme d’art : musique, littérature ou spectacle vivant, des chercheurs américains ont décidé de les représenter. Ils ont ainsi conçu une cartographie interactive et audio qui hiérarchise des milliers de morceaux selon les sentiments qu’ils suscitent.

    Pour mener à bien ce projet de bibliothèque musicale interactive, les chercheurs de l’Université de Californie (Berkeley) ont d’abord mené une étude sur 2500 personnes vivant aux États-Unis et en Chine. Les participants, recrutés grâce à la plateforme de microtravail d’Amazon (Amazon Mechanical Turk), devaient évaluer plus de 40 extraits musicaux selon 28 catégories d’émotions différentes.

    Pendant cette enquête, 13 sentiments majeurs se sont démarqués : le plaisir, la joie, l’érotisme, la beauté, la détente, la tristesse, la rêverie, la satisfaction, l’angoisse, l’effroi, la colère, la défiance et enfin la motivation. Une seconde étude, sur un panel plus restreint cette fois, a également été menée pour garantir la véracité des premiers résultats, précise l’établissement dans un communiqué.

    Grâce à ces statistiques et aux données récoltées, les chercheurs ont pu classer les morceaux selon les sentiments qu’ils provoquent chez l’auditeur. Dans cette cartographie interactive, chaque musique y est décrite selon une combinaison d’émotions révélée en pourcentage. Par exemple, Somewhere over the Rainbow d’Israel Kamakawiwoʻole serait un mélange de joie, de sérénité, de beauté et de rêverie.

    Résoudre le mystère de la musique...

    « Nous voulions concevoir une grande bibliothèque musicale éclectique classée par émotions pour pouvoir capturer la combinaison des sentiments associés à chaque morceau », déclare l’auteur principal de l’étude, Alan Cowen, doctorant en neurosciences. « Pour ce faire, nous avons collecté le plus grand éventail d’émotions qui sont universellement ressenties à travers la mélodie d’une musique. »

    « Nous voulions faire un pas en avant vers la résolution du mystère autour de la musique, de comment elle peut évoquer autant d’émotions contrastées », reprend Alan Cowen. « La musique est un langage universel, nous ne prêtons pas toujours assez attention à ce qu’elle dit ni à la façon dont elle est comprise. »

    Métamorphoser une oeuvre littéraire
    en chanson, c’est possible

    La carte interactive est facile d’accès. L’utilisateur n’a qu’à diriger son curseur pour découvrir les morceaux et les combinaisons qu’ils renferment. La représentation contient également d’autres fonctionnalités, comme celle de présenter uniquement soit les statistiques des participants états-uniens, soit de ceux situés en Chine.

    Cela permet de mettre en lumière les conséquences de la culture et des traditions sur nos perceptions de la musique. Pour Cowen, les différences s’établissent surtout dans le sens que l’on donne à nos émotions. « Même s’ils appartiennent à des cultures différentes, deux personnes peuvent se mettre d’accord sur le fait qu’une chanson soit joyeuse ou triste. En revanche, ils sont rarement en adéquation quand il s’agit de caractériser ce sentiment de positif ou de négatif » a-t-il expliqué.

    La carte interactive est disponible à cette adresse.


    #musique #émotions #big_data

  • Les données financières d’employés de Facebook volées dans une voiture

    Facebook a prévenu vendredi ses employés que les données personnelles et financières de 29.000 d’entre eux avaient été volées dans une voiture le mois dernier.

    « Nous n’avons constaté aucun abus et nous pensons qu’il s’agit d’un cambriolage et non pas d’une tentative de voler des informations sur les employés », a expliqué Facebook à l’AFP.

    Aucune donnée d’utilisateurs du réseau n’a été compromise.

    Les disques durs volés contenaient les noms, numéros de comptes en banque et d’autres données personnelles de 29.000 personnes qui étaient employées par Facebook aux Etats-Unis l’année dernière, a confirmé le géant de l’internet, après une dépêche de Bloomberg.

    Le conducteur de la voiture, un membre du service de paie du groupe, avait placé les disques durs dans un sac, laissé dans le véhicule, alors qu’ils n’auraient pas dû quitter le campus Facebook.

    « Par prudence, nous avons informé les employés passés et présents concernés, et nous mettons à leur dispositions les aides nécessaires en cas de vol d’identité », a précisé Facebook, qui coopère aussi avec l’enquête de la police.

  • Gouvernementalité algorithmique : 3 questions à Antoinette Rouvroy et Hugues Bersini.


    En confiant notre pouvoir décisionnel au calcul algorithmique, dans quel type de société nous engageons-nous ? Que restera-t-il de la sphère publique, d’un idéal de la justice et de la personne humaine ? Antoinette Rouvroy, juriste et philosophe, et Hugues Bersini, informaticien spécialisé en IA, nous apportent leurs éclairages respectifs sur les dérives éventuelles des technologies contemporaines.


    • Que recouvre le concept de gouvernementalité algorithmique en regard des écrits de Foucault ?

    • Peut-on considérer que l’enjeu de la protection des données personnelles soit dépassé ? En quoi le raffinement des techniques de profilage exerce-t-il une pression contre l’individu dans l’espace social ?

    • En quoi la prétendue objectivité du calcul algorithmique s’érige-t-elle contre l’idée même de justice ?

    • Norbert Wiener, le père de la cybernétique, qui avait émis l’hypothèse d’une machine à gouverner conçue pour le bien-être de la planète et des humains, en était arrivé à la conclusion que celle-ci serait comme une fiction au service d’intérêts particuliers et humains. Est-ce là une vue qui rencontre aujourd’hui la définition d’une gouvernementalité algorithmique ?


  • Vous avez aimé ceci, vous aimerez cela

    HOMO NUMERICUS. Les algorithmes savent presque tout de nous. Ces outils omniprésents dans les nouvelles technologies iront-ils jusqu’à nous ravir notre libre arbitre ? Par Philippe Boyer, directeur de l’innovation à Covivio.

    « Inspiré de votre historique de navigation », «  Notre sélection pour vous » ou encore « Vous avez aimé ceci, vous aimerez cela » ... sont des injonctions que nous connaissons presque tous pourvu que nous achetions déjà sur Amazon, Netflix, Deliveroo et bien d’autres plates-formes numériques. Derrière ces phrases en apparence anodines se cachent une mécanique algorithmique bien huilée destinée à alimenter une stratégie de big data et d’intelligence artificielle qui vise à inciter les utilisateurs à passer toujours plus de temps, et accessoirement dépenser plus d’argent, sur ces sites.

    Grâce aux multiples traces numériques que nous laissons derrière nous, nous devenons de plus en plus prévisibles au point que les applicatifs technologiques en arriveraient presque à anticiper notre propre avenir sans que nous ayons besoin d’y penser nous-mêmes, sorte de renoncement à notre libre-arbitre à « l’insu de notre plein gré ».

    Pour qui s’intéresse à la philosophie, ces questions de l’affirmation de l’individu face à une entité qui dirige et décide de tout ont animé de très nombreux débats, en particulier au 17ème siècle, quand Descartes et Leibniz, philosophes de la modernité naissante, se demandaient déjà comment affirmer sa liberté face à Dieu, par nature omniscient et grand ordonnateur de toute chose. Leibnitz, est sans conteste le philosophe dont nous pourrions le plus nous inspirer aujourd’hui pour décrire la puissance des algorithmes développés par les entreprises du numérique. Qu’expose-t-il ? Dans son écrit paru en 1714, Monadologie, il oppose deux principes censés fondés l’équilibre du monde. D’une part, la connaissance scientifique, nécessairement vraie. En écrivant que la somme des angles d’un triangle est forcément égale à 180°, il s’agit-là d’une vérité universelle, que le philosophe appelle « principe de contradiction ». Et d’autre part, le « principe de raison suffisante » via lequel des événements se produisent en raison d’un nombre infini de causes qui, assemblées les unes aux autres, finissent par produire un résultat au-dessus de ce qu’un simple humain aurait été capable de penser, de prédire et a fortiori de réaliser.

    Si dans l’esprit du philosophe du 17ème siècle, cette « force obscure » se nomme Dieu, appliqué à notre quotidien du 21ème siècle, imprégné d’algorithmes, une telle « force » pourrait prendre l’appellation de « #big_data » en tant que collecte d’un nombre colossal de données qu’aucun être humain ne pourra jamais ingurgiter. C’est logiquement grâce aux corrélations établies entre toutes ces informations que l’on en arrive ensuite à la mise au point d’algorithmes, pour certains d’entre eux qualifiés de « prédictifs », en ce sens qu’ils peuvent prévoir, voire prédire, certaines de nos futures actions en nous envoyant des recommandations hyper-personnalisées.

    Sommes-nous à ce point transparents ?
    Comment se prémunir face à cette prégnance algorithmique dans laquelle nos comportements numériques sont scrutés, analysés et stockés dans les moindres détails ? Dans une vision dystopique, des algorithmes pourraient-ils finir par nous connaître mieux que nous nous connaissons nous-mêmes ? Sans que nous le sachions, se pourrait-il qu’ils fixent ce que nous pourrions faire sans que nous en ayons pleinement conscience ? Pour ne pas succomber à ce fantasmagorique futur, des débuts de réponses existent. Qu’il s’agisse de la récente législation européenne qui encadre l’usage des données personnelles (RGPD), en passant par nos actions individuelles consistant, sur les principaux moteurs de recherche, à désactiver l’affichage d’annonces basées sur ses propres centres d’intérêt, de nouveaux comportements apparaissent à l’heure d’une prise de conscience grand public de l’usage de ces données et de ses éventuels détournements (on se souvient du scandale Cambridge Analytica ayant eu pour cause la fuite de données personnelles de 87 millions d’utilisateurs Facebook).

    D’autres revendiquent même un certain « droit au mensonge numérique » visant à déjouer les moteurs de recherche à qui nous confions nos questions et nos pensées les plus intimes. S’appuyant sur les recherches Google de millions d’Américains, Seth Stephens-Davidowitz, ancien data scientist de Google, détaille combien ce « sérum de vérité numérique » qu’est le big data et les algorithmes qui sont par la suite construits sur cette matière brute, exposent nos comportements réels. Outre l’exploration de ce que le Big Data nous révèle de notre quotidien, le bien-nommé chapitre « Big Data, big n’importe quoi ? Ce que les données ne peuvent faire » décortique les limites de ce big data en prenant soin d’exhorter ses lecteurs à ne pas s’abandonner à la fatalité qui consisterait à penser que la technologie prendrait systématiquement le pas sur les humains.

    Préserver notre libre arbitre
    La quantité massive de données collectées associée aux algorithmes transforment notre rapport au monde. Ce dernier, c’est un fait, devenant toujours plus objectif, quantifié et mesurable. Face à cette situation, l’une des questions qui se pose est bien celle de la préservation de notre libre arbitre face à cette omniprésence des algorithmes. Pour Aurélie Jean, scientifique reconnue et éminente spécialiste de ces sujets, il s’agit de rappeler « qu’un algorithme ne connaîtra jamais tout de nous pour la bonne et simple raison qu’il n’atteindra jamais complètement notre inconscient. Les algorithmes nous faciliteront la vie de plus en plus à l’avenir, ils nous connaîtront davantage, mais ils ne peuvent pas se substituer à notre libre arbitre, car sans libre arbitre nous ne sommes rien. » et d’ajouter ce message de bon sens destiné, d’une certaine manière, à clore les débats, du moins les plus anxiogènes d’entre eux : « Certes les algorithmes sont plus performants que nous dans de nombreux domaines. Mais il en existe aussi de mal conçus, ou truffés de biais... Dirigeants, journalistes, consommateurs ou citoyens : tous, à notre niveau, nous devons améliorer notre culture algorithmique, et urgemment. »

    Qu’en penserait Leibniz ? Je suggère de poser la question à Google...

  • « #China_Cables » : au #Xinjiang, le #big_data au service d’une surveillance totale des #Ouïgours

    "Quatre bulletins internes émanant du chef de la sécurité de la région du Xinjiang, Zhu Hailun, obtenus par le Consortium international des journalistes d’investigation (#ICIJ), mettent en lumière l’utilisation du big data pour ratisser au plus large et envoyer une part importante de la population ouïgoure en détention. Les policiers font remonter les informations détaillées sur chaque individu, puis la plate-forme liste des milliers de noms de personnes à interner chaque semaine, sans que l’on sache si la décision relève de l’évaluation d’officiels ou de l’utilisation d’algorithmes.

    Les directives datent du mois de juin 2017, alors que la campagne « Frapper fort contre le terrorisme violent », lancée quelques mois plus tôt par un nouveau secrétaire du #Parti communiste chinois pour la région du Xinjiang, Chen Quanguo, prend toute son ampleur.

    Sur une semaine seulement, du 19 au 25 juin 2017, la base de données « notifie » aux autorités locales 24 412 noms de « personnes suspectes » dans quatre préfectures du sud du Xinjiang. Conséquence directe, 15 683 sont envoyées dans des centres dits « d’éducation et de formation », tandis que 706 sont « détenues pénalement », c’est-à-dire probablement destinées à la prison. Enfin, 2 096 feront l’objet d’une « surveillance préventive ». Malgré ces chiffres accablants, le chef de la sécurité de la région, Zhu Hailun, fait le constat de défaillances qui expliquent que certaines personnes, dont le nom est sorti, n’ont pas été localisées."

  • How Earnest Research Into Gay Genetics Went Wrong | WIRED

    Un excellent article sur les danger éthiques et sociaux de l’usage sans précaution des données génétiques, notamment les données massives obtenues soit par des actes volontaires (recherche d’ancêtres, et autres) soit au fil d’actes médicaux.

    Anonymiser les données ne suffit pas à garantir qu’il n’y aura pas de conséquences fâcheuses pour l’ensemble de la société.

    Un très bon papier.

    In late spring 2017, Andrea Ganna approached his boss, Ben Neale, with a pitch: He wanted to investigate the genetics of sexuality. Neale hesitated. One of the top geneticists in the country, Neale and his colleagues at the Broad Institute, a pioneering biotech hub in Boston, had a decade earlier developed software that made it much easier for scientists to study the vast amounts of genetic data that were beginning to flood in. It was the kind of tool that helped illuminate a person’s risk of developing, say, heart disease or diabetes. And now, as Ganna was proposing, the approach could be applied to the foundations of behavior, personality, and other social traits that in the past had been difficult to study.

    Ganna wanted to pounce on a new opportunity. A giant collection of carefully cataloged genomes, called the UK Biobank, was about to become available to researchers. A scientist could apply and then gain access to data from 500,000 British citizens—the largest public repository of DNA on the planet. To Ganna, the genetic origins of being gay or straight seemed like the kind of blockbuster question that might finally get an answer from a data set of this size.

    Neale wasn’t so sure. As a gay man himself, he worried that such research could be misconstrued or wielded to advance hateful agendas. On the other hand, a better understanding of how genetics influences same-sex attraction could also help destigmatize it.

    Then Ganna mentioned that another group was already pursuing the question using the UK Biobank: a geneticist named Brendan Zietsch, at the University of Queensland, and his colleagues. In 2008, Zietsch published a study suggesting that the genes straight people shared with their gay twins made them more successful at bedding heterosexual partners. Now he was going to further test this “fecundity hypothesis” with a much more powerful data set. He’d also proposed investigating the genetic associations between sexual orientation and mental health. Thinking his lab could add expertise coupled with caution to such a project, Neale agreed they should try to team up with Zietsch.

    “Armed with the knowledge that this research was going to be done, I thought it was important that we try and do it in a way that was responsible and represented a variety of different perspectives,” he says, noting that, because there is so much genetic data to work with these days, collaborations in his field are commonplace “But it was also important to me personally, as a gay man, to get involved.”

    From the outset, Neale expected some pushback and misunderstandings. That’s why he involved LGBTQ+ groups along the way, something not technically required for the kind of research he was doing. But he wasn’t prepared for scientists within his home institution to rise up and challenge the value and ethics of his work. And he was even less prepared for a company to exploit the results of the study—just a few weeks after it was published in the journal Science—to sell an app purporting to predict how attracted someone is to the same sex.

    #Données_génétiques #Big_data #Ethique #Recherche #Hubris #Génomique #Homosexualité #Fausse_science