• Évaluations : comment sommes-nous passés de l’amélioration au #contrôle ?
    http://www.internetactu.net/a-lire-ailleurs/evaluations-comment-sommes-nous-passes-de-lamelioration-au-controle

    À l’heure où chaque service en ligne nous demande sans cesse de l’évaluer, n’allons-nous pas basculer dans une fatigue de la rétroaction permanente ? C’est la question que pose la professeure d’anglais, spécialiste des humanités numériques, Megan Ward (@meganeward1) pour The Atlantic, auteure de Seeming Human, un livre qui s’intéresse à (...)

    #A_lire_ailleurs #Usages #big_data #intelligence_des_données


  • 1969 : le « jeu de la paix mondiale » de Buckminster Fuller, par Joanne K. Cheung
    https://visionscarto.net/buckminster-fuller-jeu-mondial

    Au cours des années 1965-1975, le World Game (ou World Peace Game) est l’occasion pour son inventeur Buckminster Fuller d’explorer des idéaux techno-utopistes de cette période qu’il a qualifiée de décennie mondiale des sciences du design.

    #cartographie #paix #jeux_coopératifs et #big_data : l’#utopie d’une certaine époque…


  • 10 Fragen und Antworten zum Thema Datenschutz im Kfz | Die Landesbeauftragte für den Datenschutz Niedersachsen
    https://www.lfd.niedersachsen.de/themen/datenschutz_im_kfz/kfz-und-datenschutz-148981.html

    1) Was hat das Auto mit Datenschutz zu tun?

    Die Autobranche ist im Umbruch: In wenigen Jahren wird das „connected car“ Standard sein: es wird nicht nur über Internetverbindungen verfügen, sondern auch in der Lage sein, Verkehrszeichen zu erkennen und mit anderen Autos, z.B. zum Umfahren eines Staus oder zum Auffinden einer Parklücke, zu kommunizieren. Und autonom fahrende Autos fangen an, Marktreife zu erlangen. Die Zukunft hat schon begonnen.

    Was hat diese Entwicklung mit Datenschutz zu tun? Sehr viel: Schon zum jetzigen Zeitpunkt werden in einem durchschnittlichen Kfz dutzende Datenkategorien erhoben und verarbeitet. Das Kfz der Zukunft wird – in jeder seiner Entwicklungsstufen - massive Datenströme verarbeiten. Nicht nur die Datenmenge und die Übertragungsgeschwindigkeit, sondern auch die Anzahl an erhobenen personenbezogenen Daten wird enorm ansteigen. Hierbei muss man sich klarmachen, dass das vernetzte Kfz wie kaum ein anderes Produkt in der Lage sein wird, ein umfassendes Persönlichkeitsprofil zu erstellen: Tagesrhythmus, Bewegungsprofile, emotionale Komponenten (vorausschauender oder abrupter Fahrer?), Körpergröße (Sitzeinstellungen), Anzahl an Mitfahrern (Anzahl geschlossener Gurte), Telefonlisten, Musikgeschmack… Aus der Zusammenlegung mehrerer Profile ließen sich sodann gemeinsame Treffen herauslesen etc.

    2) Wem „gehören“ alle diese Daten?

    Sind die Daten anonymisiert und damit in keiner Weise, auch nicht durch Verknüpfungen, rückverfolgbar, so dürfen sie ohne Einschränkung genutzt werden. Ein Beispiel wären Fehlermeldungen, die vom Hersteller anonymisiert für Statistikzwecke und Produktverbesserungen verwendet werden.

    Anders ist es bei personenbezogenen Daten, die im Zusammenhang mit dem Kfz anfallen. Daten sind dann personenbezogen, wenn sie sich auf eine „bestimmte Person“ oder zumindest auf eine „bestimmbare Person“ beziehen. Eine Person ist dann „bestimmbar“, wenn sie z.B. über die Fahrgestellnummer oder weiteres Zusatzwissen identifizierbar ist. In diesen Fällen liegen also „personenbezogene Daten“ vor. Damit gilt in diesen Fällen das Bundesdatenschutzgesetz (BDSG). Das BDSG wiederum enthält eine klare Aussage: Die Daten „gehören“ dem Betroffenen. Auf das Kfz bezogen: Die Daten „gehören“ dem Fahrer bzw. Halter des Kfz.

    Dem BDSG unterfallen insbesondere auch „rein technische Daten“, die auf den ersten Blick „weniger interessant“ erscheinen, aber personenbeziehbar sind. Beispielsweise erscheint die Anzahl der Bremsvorgänge auf den ersten Blick „weniger spannend“. Auf einen konkreten Zeitraum bezogen gibt diese Information jedoch Aufschluss darüber, ob der – identifizierbare – Fahrer ein Stadtfahrer ist oder ob er auf dem Land wohnt etc. Sofern diese Informationen ohne Zeitbezug gespeichert werden und regelmäßig wieder überschrieben werden, lassen sie sich zumindest durch ein enges Ausleseintervall einem konkreten Zeitraum zuordnen. Somit könnten bereits mit relativ wenigen Informationen einfache Persönlichkeits­profile gebildet werden.

    Ein weiteres Beispiel: Fahrprofile, die durch Erfassen der Lenkbewegung (Kurven) und der Geschwindigkeit (Landstraße? Autobahn?) gebildet werden können, könnten mit Landkarten abgeglichen und so einem Start- und Endziel zugeordnet werden. Auf diese Weise könnten aus nicht-geobezogenen Daten die Geobezüge (Standortdaten) nachträglich generiert werden.

    Die Begehrlichkeiten für solche potentiellen Datensammlungen sind groß. Kreditkartenfirmen, Scoringunternehmen, potentielle Arbeitgeber, Versicherungen… die Liste von möglichen Interessenten ließe sich problemlos fortsetzen.

    Das BDSG sorgt dafür, dass personenbezogene Fahrdaten nicht zu einem „freien Wirtschaftsgut“ werden: Gemäß § 4 Abs. 1 BDSG dürfen diese Daten nur dann genutzt werden, wenn entweder eine gesetzliche Regelung dies erlaubt oder wenn der Betroffene (Fahrer/Halter) durch Einwilligung bzw. Vertrag wirksam zugestimmt hat.

    3) was machen die Datenschutz Aufsichtsbehörden?

    Auf der Konferenz der Datenschutzbeauftragten des Bundes und der Länder im Oktober 2014 wurde eine Entschließung verabschiedet, die konkrete Forderungen an die Automobilindustrie richtet. Hierbei wurde klargestellt, dass Datenverarbeitungen entweder vertraglich vereinbart sein müssen oder eine ausdrückliche Einwilligung vorliegen muss. Hierzu gehört zumindest vollständige und praxisnahe Transparenz. Aber auch bei einer vertraglich vereinbarten oder von einer Einwilligung getragenen Datenübertragung muss der Fahrer bzw. Halter vom Hersteller in die Lage versetzt werden, eine solche Datenübermittlung zu erkennen, zu kontrollieren und ggf. zu unterbinden. Zudem muss Wahlfreiheit für datenschutzfreundliche Systemeinstellungen und die umfangreiche Möglichkeit zum Löschen eingeräumt werden.

    Aufbauend auf diesen Forderungen haben die Datenschutzbehörden des Bundes und der Länder sowie der Verband der Automobilindustrie (VDA) eine Gemeinsame Erklärung zu „Datenschutzrechtlichen Aspekten bei der Nutzung vernetzter und nicht vernetzter Fahrzeuge" erarbeitet.

    4) Worum geht es in dieser gemeinsamen Erklärung?

    In der Gemeinsamen Erklärung der Datenschutzbehörden des Bundes und der Länder mit dem Verband der Automobilindustrie (VDA) wurden gemeinsame Positionen festgelegt zu folgenden Themen:

    Personenbezogenheit der im Fahrzeug anfallenden Daten
    Festlegung des Zeitpunkts der Datenerhebung
    Bestimmung der verantwortlichen Stelle
    Rechtsgrundlagen für den Datenumgang im Kfz
    Datenschutzrechtliches Auskunftsrecht gegenüber dem Hersteller
    Hoheit über die Datenverarbeitungsvorgänge im Fahrzeug

    5) Was ist der „Dreh -und Angelpunkt“ in der gemeinsamen Erklärung?

    „Dreh -und Angelpunkt“ in der gemeinsamen Erklärung ist die Personenbezogenheit. Es ist ausdrücklich festgehalten, dass die bei der Kfz-Nutzung anfallenden Daten jedenfalls dann personenbezogen im Sinne des BDSG sind, wenn eine Verknüpfung mit der Fahrzeugidentifikationsnummer oder dem Kfz- Kennzeichen vorliegt.

    6) Wer ist ausweichlich der Gemeinsamen Erklärung „Verantwortliche Stelle“?

    Hierbei ist zu differenzieren, und zwar nach dem Zeitpunkt der Datenerhebung. Dieser Zeitpunkt ist unterschiedlich je nachdem, ob es sich um Kraftfahrzeuge handelt, bei denen eine Datenspeicherung nur innerhalb des Fahrzeuges stattfindet („offline“), oder ob eine Übermittlung von Daten aus dem Fahrzeug heraus erfolgt („online“), wie etwa bei der Übermittlung und Speicherung von Fahrzeugdaten auf Backend-Servern: Bei „Online“-Autos sind diejenigen als verantwortliche Stellen anzusehen, die personenbezogene Daten erhalten, d. h. in der Regel die Hersteller und gegebenenfalls dritte Dienste-Anbieter. Insbesondere wenn Hersteller Zusatzdienstleistungen für das Kfz anbieten und dabei in ihren Backend-Servern Daten speichern, sind sie verantwortliche Stelle für diese Datenverarbeitung. Bei „Offline“-Autos wird derjenige, der personenbezogene Fahrzeugdaten aus dem Fahrzeug ausliest (d.h. erhebt) und anschließend verarbeitet, zur verantwortlichen Stelle. Hierbei wird es sich in der Regel um Werkstätten handeln.

    7) Besteht bei „Offline-Kfz“ ein Schutz der Daten schon vor dem ersten Werkstattbesuch?

    Bei „Offline-Kfz“ ist bereits vor dem ersten Werkstattbesuch - ohne vorherige Erhebung - von einer Datenspeicherung im Sinne des BDSG auszugehen. Eine Erhebung liegt mangels Erfüllung des Tatbestandes des § 3 Abs. 3 BDSG noch nicht vor; gleichwohl fallen anlässlich der Kfz-Nutzung Daten an, die im Fahrzeug abgelegt werden. Diese Daten müssen geschützt werden und machen auch eine Sicherung des Rechts auf informationelle Selbstbestimmung erforderlich. Auch wenn die Hersteller hierbei nicht bereits beim „Entstehen“ der Daten verantwortliche Stelle sind, trifft diese unter anderem nach dem Gedanken „Privacy by Design“ dennoch eine Verantwortung im Hinblick auf den Datenschutz. Dies gilt insbesondere, weil der Hersteller im Rahmen seiner technischen Gestaltungsmöglichkeiten (Art und Umfang von Schnittstellen, Zugriffsmöglichkeiten, Verfolgung der in § 3a BDSG niedergelegten Grundsätze von Datenvermeidung und -sparsamkeit) Einfluss auf die zeitlich nach hinten verlagerte Erhebung und Verarbeitung hat. Sofern es um die technischen Gestaltungsmöglichkeiten geht, sind daher die Hersteller auch bei dieser Fahrzeugkategorie als Ansprechpartner für die Datenschutzaufsichtsbehörden anzusehen.

    8) Wann ist Datenerhebung -und Verarbeitung zulässig?

    Die Zulässigkeit der Datenerhebung und -verarbeitung kann sich insbesondere aus Vertrag (§ 28 Abs. 1 S. 1 Nr. 1 BDSG) oder aus einer Einwilligung ergeben, die den Voraussetzungen des § 4a BDSG genügt. Wie die Informationen über Datenerhebungs- und -verarbeitungsvorgänge aufbereitet sein müssen, um Teil des Vertrags oder Grundlage für eine ggf. relevante informierte Einwilligung sein zu können (ausführliche Informationen im Sinne eines Verfahrensverzeichnisses oder strukturierte, überblicksartige Informationen), bleibt Frage des Einzelfalls. Der Erstkäufer kann die notwendigen Informationen jedenfalls vom Verkäufer (Hersteller oder herstellergebundener Händler) erhalten. Grundsätzlich sind die wichtigsten Informationen zur Datenverarbeitung in allgemein verständlicher Form auch in der Borddokumentation nachlesbar vorzuhalten. Sie wird vom Hersteller erstellt.Die Borddokumentation ist nicht nur für den Erstbesitzer wichtig. Sie erlangt gerade auch für Zweitbesitzer, also die Käufer von Gebrauchtwagen, eine besondere Bedeutung. Denn bei Zweitbesitzern besteht keine individuelle rechtliche Beziehung (Einwilligung oder Vertrag) zum Hersteller. Eine hinreichende Information in der Borddokumentation ist daher essentiell. Generell gilt: Wichtig ist vor allem Transparenz. Transparenz bedeutet, dass auch der technische Laie nachvollziehbare Erläuterungen zur Verfügung gestellt bekommt.

    9) Habe ich als Autofahrer ein Auskunftsrecht?

    Gegenüber dem Hersteller besteht ein unentgeltliches Auskunftsrecht des Halters über seine durch den Hersteller erhobenen und gespeicherten personenbezogenen Daten nach § 34 BDSG. Vor allem beim „Online-Kfz“ ist das relevant. Demgegenüber besteht beim „Offline-Kfz“ kein solches Auskunftsrecht nach § 34 BDSG gegenüber dem Hersteller, da der Hersteller nicht über diese Daten verfügt. Die Fahrzeughalter von „Offline“-Autos haben die Möglichkeit des Auslesens von Daten, ggf. mithilfe von Sachverständigen, was nicht zwingend unentgeltlich sein muss. Allerdings verlangt das Transparenzgebot, dass auch bei Offline-Kfz der Betroffene sich unentgeltlich und ohne sachverständige Hilfe über die Grundsätze der Datenverarbeitungsvorgänge einschließlich zumindest der Art der verarbeiteten personenbezogenen Daten beim Hersteller informieren kann.

    10) Was können die Verbraucher tun?

    Die Kunden sind mächtiger, als sie glauben. Wichtig ist, dass sie im jetzigen Entwicklungsstadium den Autoherstellern gegenüber deutlich machen, dass sie – beim vernetzten Fahren oder wenn sie beim künftigen autonomen Auto gar das Lenkrad aus der Hand geben – die Kontrolle über ihre Fahrdaten behalten wollen. Autos werden nicht für Labore, sondern für Kundenwünsche hergestellt. Die Verbraucher müssen deutlich machen, dass sie eine Datenschleuder nicht akzeptieren, dass eine Datenschleuder also unverkäuflich sein wird. Nur dann werden praxisnahe, verbraucherfreundliche Konzepte für den Datenschutz im Kfz angeboten werden, die über die – für sämtliche Produkte geltenden - gesetzlichen Regelungen hinausgehen.
    Die Landesbeauftragte für den Datenschutz Niedersachsen
    Prinzenstraße 5
    30159 Hannover
    Telefon 0511 120-4500
    Fax 0511 120-4599
    poststelle@lfd.niedersachsen.de

    #Deutschland #Datenschutz #DSGVO #Verkehr #big_data


  • Ce que récolte #Google : revue de détail – Framablog
    https://framablog.org/2018/11/14/ce-que-recolte-google-revue-de-detail

    Si beaucoup encore proclament à l’occasion « je n’ai rien à cacher » c’est moins par conviction réelle que parce que chacun en a fait l’expérience : « on ne peut rien cacher » dans le monde numérique. Depuis quelques années, les mises en garde, listes de précautions à prendre et solutions alternatives ont été largement exposées, et Framasoft parmi d’autres y a contribué.

    Il manquait toutefois un travail de fond pour explorer et comprendre, une véritable étude menée suivant la démarche universitaire et qui, au-delà du jugement global approximatif, établisse les faits avec précision.

    C’est à quoi s’est attelée l’équipe du professeur Douglas C. Schmidt, spécialiste depuis longtemps des systèmes logiciels, chercheur et enseignant à l’Université Vanderbilt, qui livre au public une étude d’une cinquantaine de pages intitulée #Google_Data_Collection. Cette #étude, qui nous semble pouvoir servir de référence, a retenu l’attention du groupe Framalang qui vous en livre ci-dessous l’executive summary, c’est-à-dire une sorte de résumé initial, qui en donne un aperçu programmatique.

    #données_personnelles #vie_privée #big_data

    Aussi visible sur https://seenthis.net/messages/735693 mais moi c’est artisanal ;-)


  • Europe is using smartphone data as a weapon to deport refugees

    European leaders need to bring immigration numbers down, and #metadata on smartphones could be just what they need to start sending migrants back.

    Smartphones have helped tens of thousands of migrants travel to Europe. A phone means you can stay in touch with your family – or with people smugglers. On the road, you can check Facebook groups that warn of border closures, policy changes or scams to watch out for. Advice on how to avoid border police spreads via WhatsApp.

    Now, governments are using migrants’ smartphones to deport them.

    Across the continent, migrants are being confronted by a booming mobile forensics industry that specialises in extracting a smartphone’s messages, location history, and even #WhatsApp data. That information can potentially be turned against the phone owners themselves.

    In 2017 both Germany and Denmark expanded laws that enabled immigration officials to extract data from asylum seekers’ phones. Similar legislation has been proposed in Belgium and Austria, while the UK and Norway have been searching asylum seekers’ devices for years.

    Following right-wing gains across the EU, beleaguered governments are scrambling to bring immigration numbers down. Tackling fraudulent asylum applications seems like an easy way to do that. As European leaders met in Brussels last week to thrash out a new, tougher framework to manage migration —which nevertheless seems insufficient to placate Angela Merkel’s critics in Germany— immigration agencies across Europe are showing new enthusiasm for laws and software that enable phone data to be used in deportation cases.

    Admittedly, some refugees do lie on their asylum applications. Omar – not his real name – certainly did. He travelled to Germany via Greece. Even for Syrians like him there were few legal alternatives into the EU. But his route meant he could face deportation under the EU’s Dublin regulation, which dictates that asylum seekers must claim refugee status in the first EU country they arrive in. For Omar, that would mean settling in Greece – hardly an attractive destination considering its high unemployment and stretched social services.

    Last year, more than 7,000 people were deported from Germany according to the Dublin regulation. If Omar’s phone were searched, he could have become one of them, as his location history would have revealed his route through Europe, including his arrival in Greece.

    But before his asylum interview, he met Lena – also not her real name. A refugee advocate and businesswoman, Lena had read about Germany’s new surveillance laws. She encouraged Omar to throw his phone away and tell immigration officials it had been stolen in the refugee camp where he was staying. “This camp was well-known for crime,” says Lena, “so the story seemed believable.” His application is still pending.

    Omar is not the only asylum seeker to hide phone data from state officials. When sociology professor Marie Gillespie researched phone use among migrants travelling to Europe in 2016, she encountered widespread fear of mobile phone surveillance. “Mobile phones were facilitators and enablers of their journeys, but they also posed a threat,” she says. In response, she saw migrants who kept up to 13 different #SIM cards, hiding them in different parts of their bodies as they travelled.

    This could become a problem for immigration officials, who are increasingly using mobile phones to verify migrants’ identities, and ascertain whether they qualify for asylum. (That is: whether they are fleeing countries where they risk facing violence or persecution.) In Germany, only 40 per cent of asylum applicants in 2016 could provide official identification documents. In their absence, the nationalities of the other 60 per cent were verified through a mixture of language analysis — using human translators and computers to confirm whether their accent is authentic — and mobile phone data.

    Over the six months after Germany’s phone search law came into force, immigration officials searched 8,000 phones. If they doubted an asylum seeker’s story, they would extract their phone’s metadata – digital information that can reveal the user’s language settings and the locations where they made calls or took pictures.

    To do this, German authorities are using a computer programme, called Atos, that combines technology made by two mobile forensic companies – T3K and MSAB. It takes just a few minutes to download metadata. “The analysis of mobile phone data is never the sole basis on which a decision about the application for asylum is made,” says a spokesperson for BAMF, Germany’s immigration agency. But they do use the data to look for inconsistencies in an applicant’s story. If a person says they were in Turkey in September, for example, but phone data shows they were actually in Syria, they can see more investigation is needed.

    Denmark is taking this a step further, by asking migrants for their Facebook passwords. Refugee groups note how the platform is being used more and more to verify an asylum seeker’s identity.

    It recently happened to Assem, a 36-year-old refugee from Syria. Five minutes on his public Facebook profile will tell you two things about him: first, he supports a revolution against Syria’s Assad regime and, second, he is a devoted fan of Barcelona football club. When Danish immigration officials asked him for his password, he gave it to them willingly. “At that time, I didn’t care what they were doing. I just wanted to leave the asylum center,” he says. While Assem was not happy about the request, he now has refugee status.

    The Danish immigration agency confirmed they do ask asylum applicants to see their Facebook profiles. While it is not standard procedure, it can be used if a caseworker feels they need more information. If the applicant refused their consent, they would tell them they are obliged under Danish law. Right now, they only use Facebook – not Instagram or other social platforms.

    Across the EU, rights groups and opposition parties have questioned whether these searches are constitutional, raising concerns over their infringement of privacy and the effect of searching migrants like criminals.

    “In my view, it’s a violation of ethics on privacy to ask for a password to Facebook or open somebody’s mobile phone,” says Michala Clante Bendixen of Denmark’s Refugees Welcome movement. “For an asylum seeker, this is often the only piece of personal and private space he or she has left.”

    Information sourced from phones and social media offers an alternative reality that can compete with an asylum seeker’s own testimony. “They’re holding the phone to be a stronger testament to their history than what the person is ready to disclose,” says Gus Hosein, executive director of Privacy International. “That’s unprecedented.”
    Read next

    Everything we know about the UK’s plan to block online porn
    Everything we know about the UK’s plan to block online porn

    By WIRED

    Privacy campaigners note how digital information might not reflect a person’s character accurately. “Because there is so much data on a person’s phone, you can make quite sweeping judgements that might not necessarily be true,” says Christopher Weatherhead, technologist at Privacy International.

    Bendixen cites the case of one man whose asylum application was rejected after Danish authorities examined his phone and saw his Facebook account had left comments during a time he said he was in prison. He explained that his brother also had access to his account, but the authorities did not believe him; he is currently waiting for appeal.

    A spokesperson for the UK’s Home Office told me they don’t check the social media of asylum seekers unless they are suspected of a crime. Nonetheless, British lawyers and social workers have reported that social media searches do take place, although it is unclear whether they reflect official policy. The Home Office did not respond to requests for clarification on that matter.

    Privacy International has investigated the UK police’s ability to search phones, indicating that immigration officials could possess similar powers. “What surprised us was the level of detail of these phone searches. Police could access information even you don’t have access to, such as deleted messages,” Weatherhead says.

    His team found that British police are aided by Israeli mobile forensic company Cellebrite. Using their software, officials can access search history, including deleted browsing history. It can also extract WhatsApp messages from some Android phones.

    There is a crippling irony that the smartphone, for so long a tool of liberation, has become a digital Judas. If you had stood in Athens’ Victoria Square in 2015, at the height of the refugee crisis, you would have noticed the “smartphone stoop”: hundreds of Syrians, Iraqis, and Afghans standing or sitting about this sun-baked patch of grass and concrete, were bending their heads, looking into their phones.

    The smartphone has become the essential accessory for modern migration. Travelling to Europe as an asylum seeker is expensive. People who can’t afford phones typically can’t afford the journey either. Phones became a constant feature along the route to Northern Europe: young men would line the pavements outside reception centres in Berlin, hunched over their screens. In Calais, groups would crowd around charging points. In 2016, the UN refugee agency reported that phones were so important to migrants moving across Europe, that they were spending up to one third of their income on phone credit.

    Now, migrants are being forced to confront a more dangerous reality, as governments worldwide expand their abilities to search asylum seekers’ phones. While European countries were relaxing their laws on metadata search, last year US immigration spent $2.2 million on phone hacking software. But asylum seekers too are changing their behaviour as they become more aware that the smartphone, the very device that has bought them so much freedom, could be the very thing used to unravel their hope of a new life.

    https://www.wired.co.uk/article/europe-immigration-refugees-smartphone-metadata-deportations
    #smartphone #smartphones #données #big_data #expulsions #Allemagne #Danemark #renvois #carte_SIM #Belgique #Autriche


  • « Big Data » et intelligence artificielle : comprendre sans expliquer ( et réciproquement )
    http://www.librairie-tropiques.fr/2018/10/l-intelligence-artificielle-comprendre-sans-expliquer-et-recipro

    La conférence d’Hubert Krivine autour de son livre « Comprendre sans prévoir, prévoir sans comprendre », suivie d’un débat fort instructif et très bien informé sur les questions des « Big data » , des "réseaux de neurones artificiels et des problèmes posés par la dérive actuelle des techniques désormais désignées comme relevant de l’Intelligence Artificielle...

    https://www.youtube.com/watch?time_continue=1850&v=bgxoW4g7qEU


    . . .
    – L’apprentissage automatique
    – Les réseaux de neurones artificiels
    – Des choix cachés
    . . .
    Postface

    Finalement on s’aperçoit que la difficulté pratique qu’il y a à contrôler le modus opérandi des réseaux de neurones artificiels est en rapport direct mais inverse avec l’atomisation des opérations « machine » ainsi « optimisées », et directement proportionnelle à la croissance exponentielle des opérations rudimentaires qui en résultent sans ordonnancement déterminé.

    C’est la contrepartie de l’économie réalisée au stade préalable de la conceptualisation et de l’analyse d’un éventuel « programme expert » équivalent.

    Ce type d’intelligence de synthèse présente donc le tour paradoxal d’être particulièrement « bourrin » mais rendu efficace par l’investissement préalablement accumulé par l’humain en matière de créativité de conception des calculateurs qui « boostent » ces « neurones » rudimentaires, et en font des outils bien adaptés à leur usage statistique appliqué à de très grosses masses de données.

    Viktor Yugo

    #IA #big_data #données #intelligence_artificielle #algorithme #éducation #intelligence

    • Décapant !

      Hubert Krivine, est un physicien français. Ancien chercheur au laboratoire de physique théorique et modèles statistiques de l’université d’Orsay, il a été enseignant à l’université Pierre-et-Marie-Curie à Paris1.

    • Formidable !

      Enfin quelqu’un qui pose la question de la prétendue intelligence de la vision « boîte noire » des réseaux de neurones. Et le fait que ce sont des boîtes noires justement : aucune preuve de leur bon fonctionnement n’existe, juste des statistiques.



  • Les nouvelles technologies et l’école primaire. Partie 13 / 125 (Évaluations, statistiques et cybersécurité…) (Blog Le Mari De La Maîtresse)
    https://lmdlm16.wordpress.com/2018/09/30/les-nouvelles-technologies-et-lecole-primaire-partie-13-125-evalu

    Je n’y connais rien mais le peu que j’ai vu, il m’a semblé retrouver les tests que j’avais passés il y a … longtemps… lors de mon entretien d’embauche.

    Cette méthode avec des tests très répétitifs est typique du « big data » : des « data scientists » devraient arriver à sortir de ce volume gigantesque de données, des indicateurs de performance et une synthèse du niveau des élèves sondés.

    On est à 100% dans les méthodes de mesure de la performance industrielle ou de la maintenance prédictive, par exemple, ou même dans l’analyse marketing, qui fait ressortir des comportements-types à partir des données personnelles récoltées par vos comportements sur le ouaibe.

    #éducation #école #évaluations #sécurité_informatique #données_personnelles #big_data #date_scientists #tests


  • Cambridge Analytica est morte, vive Data Propria !
    https://www.lemonde.fr/economie/article/2018/09/28/cambridge-analytica-est-morte-vive-data-propria_5361290_3234.html

    Au cœur d’un scandale d’exploitation de données d’utilisateurs de Facebook en 2016, la société a fermé, sans disparaître. D’anciens cadres ont pris la relève, pour servir Trump et les élus républicains.

    Après plusieurs mois de scandale, la société de marketing politique Cambridge Analytica a dû fermer définitivement, en mai 2018. Les médias et une partie de la classe politique américaine lui reprochaient d’avoir siphonné, puis exploité les données personnelles de 87 millions d’utilisateurs de Facebook au cours de la campagne électorale américaine de 2016, pour soutenir la candidature de Donald Trump et de divers candidats républicains grâce à des messages ciblés sur Internet et les réseaux sociaux.

    Exit donc Cambridge Analytica ? Pas vraiment ! En réalité, les équipes chargées de ces opérations ne se sont pas dispersées ; leurs algorithmes et leurs bases de données n’ont pas disparu. En fait, les stratèges électoraux du président Trump ont effectué une restructuration juridique et financière de leurs sociétés, sans se soucier de la tempête médiatique, qui s’est déjà essoufflée. Leur objectif à court terme est de mettre leurs talents au service des républicains lors les élections de mi-mandat, qui se dérouleront le 6 novembre. Par ailleurs, ils ont déjà lancé la campagne en vue de la réélection de Donald Trump en 2020.

    Au cœur de cette nouvelle galaxie gravite un Texan barbu mesurant plus de deux mètres, Brad Parscale. La trajectoire de M. Parscale, âgé de 42 ans , est singulière. Patron d’une petite entreprise Internet sise à San Antonio (Texas), il travaillait depuis 2011 comme simple designer et administrateur de sites Web pour le groupe immobilier Trump. Cela lui a donné l’occasion de rencontrer Donald Trump en personne, puis de gagner sa confiance. En 2015, le candidat milliardaire lui confie la création de ses sites électoraux, et le nomme, l’année suivante, directeur des médias numériques de sa campagne.

    Facebook, « l’autoroute » grâce à laquelle Trump a gagné

    D’emblée, M. Parscale mise sur les réseaux sociaux. Dans un entretien accordé en octobre 2017 à la chaîne de télévision CBS, il résume ainsi sa stratégie : « J’ai compris très tôt que Trump gagnerait grâce à Facebook. Il parlait aux gens sur Twitter, mais il allait gagner sur Facebook (…). Facebook a été sa méthode, l’autoroute sur laquelle sa voiture a roulé. » Pendant toute la campagne, son équipe bénéficie de l’aide directe d’employés de Facebook, dont certains sont installés dans ses locaux.

    Afin d’étoffer sa force de frappe, il passe un contrat avec Cambridge Analytica, qui l’aide à affiner le ciblage des électeurs dans les régions les plus disputées. L’une des techniques utilisées est la « psychographie », qui consiste à classer chaque cible uniquement en fonction de ses traits de caractère et de sa personnalité. En analysant le comportement d’un utilisateur sur Facebook, il est loisible de dresser son profil psychologique : est-il capable de s’ouvrir aux autres, est-il plus ou moins consciencieux, extraverti, agréable, névrosé ? Il sera ensuite possible de lui envoyer des messages politiques ou commerciaux dont le contenu et le style ont été conçus pour lui correspondre, et qui le toucheront réellement.

    Lorsque Brad Parscale rejoint le quartier général de campagne du candidat Trump à New York, il délègue la direction de son équipe, restée à San Antonio, à l’un des responsables techniques de Cambridge Analytica, Matt Oczkowski. Auparavant, M. Oczkowski avait fondé une agence de marketing spécialisée dans « l’analyse des motivations » des consommateurs et des électeurs. Il fut aussi le « directeur numérique » du gouverneur républicain du Wisconsin (nord) Scott Walker pendant trois ans.

    Après la victoire de M. Trump, Brad Parscale intègre le cercle des proches du nouveau locataire de la Maison Blanche. Il embauche même Lara Trump, l’épouse d’Eric, le fils cadet du président. Parallèlement, il se réorganise : il regroupe ses activités de publicité politique au sein d’une nouvelle entité, Parscale Strategy, qu’il transfère à Miami (Floride), et qui reste sous son contrôle exclusif. Puis, il vend l’autre département, chargé du marketing commercial, à CloudCommerce, une petite société californienne jusque-là spécialisée dans les logiciels de commerce en ligne, installée dans la station balnéaire de Santa Barbara. Du même coup, il devient actionnaire et membre du conseil d’administration du nouvel ensemble.

    « Science politique, big data et psychologie »

    En février 2018, M. Parscale est nommé directeur de la « campagne pour la réélection de Donald Trump en 2020 », c’est-à-dire chef de l’ensemble des opérations, au-delà du numérique. Dans le même, temps, sous son impulsion, CloudCommerce crée une nouvelle filiale de marketing numérique baptisée « Data Propria », enregistrée au Nevada (ouest), domiciliée en Californie et installée à San Antonio. La direction de Data Propria est confiée à Matt Oczkowsky, qui, dès son arrivée, embauche plusieurs de ses anciens collègues de Cambridge Analytica.

    Cependant, une chose intrigue : le profil du patron officiel de CloudCommerce, Andrew Van Noy, 36 ans. Dans son CV en ligne, M. Van Noy se vante d’avoir créé dès son adolescence une entreprise de jardinage très prospère, avant de se tourner vers la finance, comme tradeur à la banque Morgan Stanley. Mais, selon une enquête menée par l’agence Associated Press, la réalité serait moins reluisante : Andrew Van Noy fut, dans sa jeunesse, plusieurs fois condamné pour fraude immobilière et faillite douteuse. Quant à CloudCommerce, qui a changé quatre fois de nom depuis 1999, c’était jusqu’en 2017 une petite société sans envergure, qui n’avait dégagé aucun bénéfice depuis dix ans.

    L’apparition de Data Propria, en plein scandale Cambridge Analytica, n’est pas passée inaperçue. Fin juin 2018, trois élus démocrates de la Chambre des représentants de Washington envoient une lettre à Matt Oczkowsky pour lui demander de venir témoigner devant une commission. Ils veulent savoir s’il a hérité des bases de données frauduleuses de Cambridge Analytica, et s’il s’est procuré d’autres données de Facebook par ses propres moyens. Aucun élu républicain ne s’est associé à cette requête, et à ce jour, la Chambre des représentants n’a pas indiqué si Matt Oczkowsky lui avait répondu.

    Reste à savoir si les techniques « psychographiques » sont toujours à la mode chez les stratèges républicains. Echaudé par le scandale, Matt Oczkowski, de Data Propria, reste évasif, mais sur différents sites professionnels, il continue à s’enorgueillir de son passage chez Cambridge Analytica, où il a su « fusionner la science politique, le big data et la psychologie comportementaliste pour influencer les électeurs ». Il démarche aussi des grandes entreprises privées, notamment des compagnies d’assurances, en insistant sur la dimension psychologique de ses méthodes.

    La machine est relancée

    En revanche, Brad Parscale, dans des déclarations aux médias américains, émet régulièrement des doutes sur l’infaillibilité de la psychographie. Il semble partisan du retour à une forme de publicité politique axée sur les opinions, les valeurs et les préoccupations des cibles (par exemple « hommes de plus de 40 ans soucieux de l’état des infrastructures routières »). Cela étant dit, tous les stratèges s’accordent sur un point : le champ de bataille prioritaire sera la « Middle America », la classe moyenne laborieuse vivant dans les Etats du centre du pays, qui a porté Donald Trump au pouvoir en 2016 et qui pourrait le refaire en 2020.

    Par ailleurs, les stratèges du marketing ciblé vont aussi devoir s’adapter aux modifications récemment introduites par Facebook. Désormais, les annonceurs, commerciaux et responsables politiques ne peuvent plus croiser les données personnelles fournies par Facebook avec celles provenant des « data brokers » classiques (banques de données commerciales, bancaires…). Le réseau social veut ainsi faire un geste vers le Congrès américain et la Commission européenne, soucieux de la protection de la vie privée des citoyens, tout en marginalisant ses grands concurrents sur le marché des données personnelles.

    Il a aussi supprimé certaines combinaisons multicritères jugées intrusives ou trop précises – race, religion, pays d’origine, orientation sexuelle, handicaps, statut militaire… Enfin, les propagandistes politiques de tout bord doivent désormais communiquer leur nom, leur domicile et leurs sources de financement à Facebook, qui les vérifiera.

    Ces changements ne devraient pas entraver sérieusement l’action de Data Propria, qui a déjà noué des contrats avec la direction nationale du Parti républicain et les équipes de campagne de différents candidats conservateurs à travers le pays. De son côté, selon Associated Press, la société Parscale Strategy encaisse, depuis le début de 2018, près de 1 million de dollars (850 000 euros) par mois grâce à des commandes publicitaires d’organisations soutenant Donald Trump et ses alliés, contre 5 millions pour l’ensemble de 2017. La machine est relancée, les électeurs des régions jugées prioritaires sont de nouveau soumis à une avalanche de messages ciblés sur le Web et les réseaux sociaux.


  • De la tyrannie des métriques
    http://www.internetactu.net/2018/09/17/de-la-tyrannie-des-metriques

    On n’a pas attendu le numérique pour produire des métriques, mais celui-ci a incontestablement simplifié et amplifié leur production. Quitte à produire un peu n’importe quelles mesures puisque celles-ci semblent désormais accessibles et ajustables en quelques clics. On connaît la rengaine : « ce qui ne peut être mesuré ne peut être (...)

    #Articles #Enjeux #big_data #économie #intelligence_des_données


  • Our lives in a scored society, by Frank Pasquale (Le Monde diplomatique - English edition, May 2018)
    https://mondediplo.com/2018/05/05data

    Every aspect of #Big_Data needs clear governmental regulation — its collection, its use with analysis to classify people, and its exploitation. We shouldn’t be expected to fight it alone.

    #données #intrusion #violation #agression


  • Technologie : l’âge sombre
    http://www.internetactu.net/2018/09/10/technologie-lage-sombre

    L’artiste et essayiste James Bridle (@jamesbridle) s’intéresse depuis longtemps aux dysfonctionnements de notre monde moderne. Il observe ce qui ne fonctionne pas : les bugs, les glitchs, les ratés de notre développement technologique… Longtemps, il a regardé les espaces de friction entre technologie et société comme le lieu d’expression et de (...)

    #Articles #Débats #algorithmes #big_data #innovation #RD #réseaux_sociaux #surveillance

    • #pensée_computationnelle

      « L’histoire de l’automatisation n’est pas qu’une histoire de machines qui prennent le travail de travailleurs humains, c’est aussi et avant tout l’histoire d’une concentration du pouvoir en de moins en moins de mains, et une concentration de la compréhension du monde en de moins en moins de têtes. »


  • La chanson la plus triste...

    BBC - Culture - Can data reveal the saddest number one song ever?

    http://www.bbc.com/culture/story/20180821-can-data-reveal-the-saddest-song-ever

    Data journalist Miriam Quick put Spotify’s new algorithm to the test, analysing over 1000 tracks to find the saddest pop songs to top the charts. The results were surprising.

    By Miriam Quick

    22 August 2018

    When I was 15 I discovered The Smiths, a band whose name had by then long been synonymous with misery. But it was Morrissey’s unique style of being miserable – coquettish and laced with Northern English humour, flipping between self-pity and irony – that appealed to my teenage self. That and the grandiose but intricately layered sweeps of Johnny Marr’s guitar. I’d always cry at the same points in each song: the end of Hand in Glove, the chord changes before the chorus of Girl Afraid, the line in The Queen is Dead where he sings “we can go for a walk where it’s quiet and dry”. I’m still not sure why the last one had such an effect.

    Roberta Flack - The First Time Ever I Saw Your Face

    https://www.youtube.com/watch?v=Go9aks4aujM

    #data #big_data #chanson #algoritme

    • 1. The First Time Ever I Saw Your Face – Roberta Flack (1972)
      2. Three Times a Lady – Commodores (1978)
      3. Are You Lonesome Tonight ? – Elvis Presley (1960)
      4. Mr Custer – Larry Verne (1960)
      5. Still – Commodores (1979)

      A mon avis, l’algorithme est loin d’être au point et le classement est hautement critiquable, non seulement subjectivement (parce qu’elles sont assez mauvaises ! Les Commodores ? Seriously ?! Et deux fois en plus ?), mais même objectivement si on se rend compte que les paroles des deux premières chansons sont en fait joyeuses !

      J’avais commencé une liste moi aussi, mais je ne l’ai jamais terminée...

      –Trouble of the World, Mahalia Jackson
      –Double Trouble, Otis Rush
      –Walking the Backstreets and crying, Little Milton
      –Part Time Love, Clay Hammond
      –Let Me Down Easy, Bettye Lavette
      –Unfair, Barbara Lynn
      –Nothing Takes The Place Of You, Toussaint Mc Call
      –Please come home for Christmas, Charles Brown
      –Lost Someone, James Brown
      –Nothing compares to you, Sinead O’Connor
      –Walk on by, Dionne Warwick
      –In The Rain, The Dramatics
      –Inner City Blues, Marvin Gaye
      –I wish I knew how it would feel to be free, Nina Simone
      –In the ghetto, Candi Staton
      –Crying time, Ray Charles
      –Gloomy Sunday, Billie Holiday
      –Ne me quitte pas, Jacques Brel

      #Musique #triste #palmarès #subjectivité


  • Google vous géolocalise même lorsque vous lui dites de ne pas le faire (mais il y a une solution) - Libération
    http://www.liberation.fr/futurs/2018/08/13/google-vous-geolocalise-meme-lorsque-vous-lui-dites-de-ne-pas-le-faire-ma

    D’après Associated Press, Google enregistre les déplacements de ses utilisateurs sans les en informer explicitement. En cause : un discret paramètre, activé par défaut et utilisé à des fins mercantiles.

    Google enregistre vos déplacements même lorsque vous lui dites de ne pas le faire. La révélation tient en une phrase, et elle risque d’accroître encore un peu la méfiance des utilisateurs envers les politiques de protection des données des géants de la Silicon Valley. D’après Associated Press, les différents services de Google conservent en effet les données de localisation de leurs utilisateurs, même lorsque ceux-ci l’en empêchent explicitement dans leurs paramètres. Et ce à la fois sur les smartphones iPhone et Android.

    Sur la majorité des applications qu’il détient, Google vous demande l’autorisation de vous géolocaliser : en ouvrant Google Maps, par exemple, un petit message vous conseille d’autoriser l’accès à votre emplacement pour mieux vous aider. Si vous l’acceptez, Google Maps stockera la chronologie de vos déplacements dans votre « historique des positions ». Mais la plateforme vous propose aussi de désactiver cette géolocalisation dès que vous le souhaitez. A la clé, selon Google : « Les lieux dans lesquels vous vous rendez ne sont plus répertoriés. »

    « Ce n’est pas vrai », affirme purement et simplement l’enquête d’Associated Press, corroborée par un groupe de chercheurs à l’université Princeton. D’après eux, même une fois l’« historique des positions » désactivé, les applications du service continuent de vous géolocaliser sans vous demander votre permission. Pour preuve : des recherches qui n’ont a priori rien à voir avec votre emplacement (AP cite comme exemple « Cookies au chocolat ») utilisent et enregistrent vos coordonnées géographiques exactes.

    Deux paramètres distincts

    Pour empêcher Google d’enregistrer ces informations, il faut en fait désactiver un autre paramètre, beaucoup moins facile à trouver et surtout activé par défaut : « Activité sur le Web et les applications ». Sauf qu’il faut d’abord le désactiver puis le réactiver pour qu’on comprenne le type d’informations qu’il recueille. Un message explique alors : « Le paramètre “Activité sur le Web et les applications” enregistre ce que vous faites sur les services, les applications et les sites Google, y compris vos recherches, vos interactions avec les partenaires Google et d’autres informations connexes telles que la position et la langue. »

    En clair, laisser activé « Activité sur le Web et les applications » et désactiver l’« Historique des positions » empêche uniquement Google d’ajouter vos déplacements à sa catégorie « Vos trajets », qui peut vous permettre de visualiser vos déplacements quotidiens. Mais cela ne l’empêche pas de collecter les données relatives à votre géolocalisation, qui sont alors stockées dans une autre section, appelée « Mon activité ».

    Intérêt mercantile

    Pourquoi une telle opacité ? Sans surprise, l’intérêt de Google est mercantile : l’entreprise indique clairement à AP que les lieux enregistrés dans « Mon activité » sont utilisés par… des publicités. En payant davantage Google, les annonceurs peuvent cibler des sites géographiques précis (par exemple, un rayon d’un kilomètre autour d’un point de repère) et ainsi atteindre un public plus restreint. En mai dernier, K. Shankari, chercheuse à l’Université de Berkeley, avait notamment expliqué dans un post de blog avoir remarqué que son téléphone l’avait incitée à noter un magasin Kohl dans lequel elle s’était rendue, alors qu’elle avait pourtant désactivé son « Historique des positions ». « Comment Google Maps a-t-il su où j’étais ? », s’interrogeait-elle alors. Elle a désormais sa réponse.

    La solution

    Alors, comment faire ? Pour consulter votre section « Mon activité », c’est par ici. Pour activer ou désactiver le paramètre « Historique des positions », rendez-vous ici. Enfin, pour activer ou désactiver le paramètre « Activité sur le Web et les applications » (activé par défaut), c’est ici qu’il faut cliquer.
    Pablo Maillé

    Moi j’ai trouvé une autre solution : pas de smartphone !

    #google #big_data #géoloalisation #android #google_maps #smartphone #tracking #confidentialité



  • L’affaire Benalla gonflée sur Twitter par « la communauté russophile » ? par Lynda Zerouk | Arrêt sur images
    https://www.arretsurimages.net/articles/laffaire-benalla-gonflee-sur-twitter-par-la-communaute-russophile

    Selon une enquête de l’ONG européenne EU Disinfo Lab, l’affaire Benalla a été amplifiée sur Twitter notamment par des « comptes russophiles ». 2 600 comptes « suractifs » auraient tweeté près de 44 % du contenu sur le sujet, avance l’association. Sans jamais préciser s’il s’agit de bots et de compte créés pour l’occasion, l’enquête présente plusieurs limites.

    Les ONG, c’est bon, mangez-en, surtout quand vous avez besoin de faire passer un vrai scandale d’état pour un truc téléguidé par les klingons.

    • On le sait, l’affaire Benalla a fait un carton sur Twitter. Dès les premières révélations du "Monde "sur l’ex-collaborateur du chef de l’Etat, mis en examen pour violence en réunion (notre dossier est à lire ici), on a vu une multiplication de tweets se répandre sur le réseau social. Avec chaque jour une occurrence #Benalla, #affaireBenalla ou encore #Elysée se retrouvant en tête des mots-clés les plus commentés. Un buzz attendu sur un scandale impliquant les plus hautes autorités de l’Etat. Mais un buzz suspect de manipulation, à en croire les analystes de EU Disinfo Lab.

      Cette ONG européenne basée à Bruxelles est spécialisée dans l’étude de phénomènes d’amplification et de désinformation. Elle est actuellement ""financée exclusivement par Twitter à hauteur de 100 000 euros alloués au cours de l’année 2017"". Et compte parmi ses partenaires l’Union européenne, auprès de qui elle envisage de formuler prochainement une demande de financements pour les années à venir.

      Créée en 2017, cette ONG s’est très vite fait connaître dans la presse, en menant notamment un travail visant ""à démystifier plusieurs campagnes de désinformation"", ""comme Emmanuel Macron ""ayant un compte off-shore aux Bahamas""", "et" "plus particulièrement, #MacronLeaks"", comme on peut le lire sur son site.

      Cette fois, Eu Disinfo Lab a mené une enquête à partir de l’API Twitter, une extraction de données accessible au public. Il ressortirait de cette étude que l’affaire Benalla a été amplifiée ""par un gonflage numérique"", comme l’a repris, entre autres, le site de BFMTV.
      BFm

      Que révèle exactement cette enquête ? ""Nous avons été alertés par le volume de tweets en lien avec l’affaire Benalla, c’est ce qui nous a conduits à pousser les investigations", explique à "Arrêt sur Images", Alexandre Alaphilippe, directeur exécutif de l’ONG." D’après nos premiers résultats, 4 millions de tweets au total ont été postés autour de cette affaire, score nettement supérieur à celui du ""#BalanceTonPorc qui a enregistré, lui, 770 000 tweets, pour un même nombre d’auteurs, soit 245 000 comptes actifs dans les deux cas.""

      L’enquête révèle également que 1% des comptes actifs autour de l’affaire Benalla, soit environ 2 600 comptes, sont à l’origine de 44 % des messages postés sur Twitter. Autrement dit, ""ces comptes ont produit 1,7 millions de tweets sur un total de 4 millions qui ont parlé du sujet "", souligne Alaphilippe.
      "La communauté russophile" très active ?

      La capacité de cette proportion d’internautes à produire ""300 tweets par semaine en moyenne"" autour de l’affaire Benalla a interpellé les analystes de Bruxelles. Notons toutefois que ces ces 300 tweets hebdomadaires représentent en moyenne 40 posts par jour. Est-ce forcément une activité anormale ou suspecte ? Cependant, EU Disinfo Lab a cherché à savoir si ces 2 600 comptes frénétiques avaient déjà été repérés dans d’autres opérations de propagation. ""On s’est rendu compte que pour 27 % d’entre eux, il y avait des correspondances avec la communauté russophile"", nous confie le directeur exécutif.

      Qui compose cette communauté russophile et comment a-elle été identifiée par cette ONG ? ""Elle est constituée d’internautes qui ont une sympathie pour RT (Russia Today) ou encore Sputnik, c’est à dire qui ont tendance à tweeter ou retweeter ces deux médias ", "précise Alaphilippe. ""Cela ne veut pas dire qu’ils sont russes," poursuit-il. "Mais qu’il y a des accointances en matière de narratifs avec ces médias"". Si le délégué exécutif semble redoubler de précautions sémantiques pour ne pas qualifier ces comptes de ""pro-russes"", on s’aperçoit que sur son compte Twitter, EU Desinfo Lab France ne s’en prive pas. ""Nos experts notent une corrélation de 27 % avec des comptes pro-russes déjà repérés en France"", exprime clairement l’ONG.

      ProRusse
      Eu disinfo lab accuse les comptes pro-russes
      répartition de l’influence pro russe sur twitter - avril 2017


      Capture d’écran

      Eu Disinfo Lab a pu cartographier ""cet écosystème russophile"" lors d’une enquête menée trois mois avant l’élection présidentielle de 2017. Durant cette période, l’association a analysé l’influence des médias russes sur Twitter, ce qui lui a permis d’identifier les comptes ayant une tendance à propager des contenus de "RT "et "Sputnik". Revenant sur cette enquête, Alaphilippe, emploie cette fois plus volontiers le terme "pro-russe". ""On avait démontré que les narratives pro-russes se propageaient mieux au sein de ce réseau, scindé en trois communautés, l’une autour du candidat à l’élection François Asselineau, un autre autour de Marine Le Pen et la dernière supportait le candidat François Fillon"", détaille-t-il.

      On peut observer sur le visuel ci-dessous la répartition de ""l’influence pro-russe"" en amont de la présidentielle française. ""Nous avions notamment remarqué que la communauté de François Asselineau est la plus isolée et la plus complotiste via les liens qu’elle partage"", analyse le directeur exécutif .

      Les limites de l’enquête

      Reste à savoir à partir de combien de tweets et retweets de "RT" et/ou de "Sputnik", un compte peut être considéré comme diffusant des récits pro-russes. Interrogé sur ce point, Alaphilippe explique que les analystes ""repèrent dans un premier temps les profils qui ont retweeté plus de 10 fois un contenu RT ou Sputnik durant une période de deux mois"". ""Ensuite nous observons les interactions qu’il peut y avoir entre les comptes qui partagent ces contenus", poursuit-il. "Si des utilisateurs n’ont aucun lien avec le réseau, ils sont éliminés, parce que hors communauté.""

      Peut-on avancer pour autant que ces 2600 comptes, parmi lesquels 27 % ont été identifiés ""russophiles"" sont à l’origine d’un ""gonflage numérique"" délibéré ? ""Il y a un phénomène de surreprésentation, il y a donc forcément un gonflage, "répond, catégorique, le directeur exécutif." A titre de comparaison, on est dans une opération encore plus forte que Je suis Charlie." "Or si ces comptes les plus actifs ont produit 1,7 million de tweets sur le sujet sur un total de 4 millions, les 2,3 millions restants devraient alors suffire à mesurer l’incroyable audience qu’a suscité cette affaire. Mais l’enquête se concentre sur les comptes les plus actifs.

      Alors que sait-on exactement de ces 2600 comptes ? Sont-ils apparus récemment ? Y a-t-il parmi eux des comptes-robots ? Si oui, quelle est la proportion ? Autant de questions auxquelles EU Disinfo Lab n’est pas en mesure d’apporter de réponse dans l’immédiat. Une enquête plus approfondie est en cours. ""On se concentre désormais sur ces 2 600 comptes suractifs, pour déterminer pourquoi ils ont été actifs sur ce sujet, quels sont les pics de publication et la part éventuel de bots"", indique Alaphilippe avant de conclure : """ces derniers résultats nous permettront d’établir s’il s’agit d’un gonflage lié à l’affaire, ou plus organisé."" "En réalité, tant que les résultats de cette seconde phase de l’enquête ne sont pas connus, il est difficile de conclure à un"gonflage numérique" tout court." "
      La riposte de RT France

      De son côté, dans la soirée du jeudi 3 août 2018, "RT France" a vivement critiqué l’enquête de EU Disinfo France. ""Décidément, l’influence russe supposée se retrouve partout"", écrit "Russia Today", qui qualifie la méthodologie employée par cette ""ONG pro européenne" "de""subjective"".

      Pour expliquer combien la portée de l’affaire Benalla a dépassé le twittosphère, "RT "revient longuement sur la couverture médiatique de grande ampleur de la presse et des chaînes de télévision françaises qui ont battu des records d’audience. En conclusion, "Russia Today" rappelle également que" ""la page Facebook du "Monde" a """"enregistré une augmentation de 67% de ses interactions sur ses contenus relatifs à l’affaire Benalla. "De là à conclure que ""Le Monde"" alimenterait « l’écosystème russophile »...", ""ironise le média russe. La question d’un ""gonflage numérique"" reste en effet en suspens. Les derniers résultats de l’enquête de Eu Disinfo Lab devraient être connus courant de la semaine prochaine.""

    • "Il y a un phénomène de surreprésentation, il y a donc forcément un gonflage,"répond, catégorique, le directeur exécutif.

      Euh, sérieux ? Si je reformule :
      • 27% (soit 700) des 1% « sur-actifs » (les 2600 qui ont émis 1,7 M de tweets) sont « russophiles », identifiés à l’occasion de la campagne présidentielle française de 2017, parce qu’ils ont RT (retweeté) plus de 10 fois en 2 mois un message RT (Russia Today) ou Sputnik ; au passage, on ne sait pas combien ces 700 représentent de tweets,
      • il y a «  surreprésentation  ». De qui ? des 1,7 M de tweets dans les 4 M (émis par le 1% (2600)) ou des 700 parmi les 2600 ?
      • surreprésentation DONC gonflage
      EUH ?

      Que des gens a priori peu macron-philes retweetent à tour de bras des infos défavorables au héros, ça ne peut qu’être une manipulation ou un complot… Qu’en plus, ils pèchent leurs infos les uns chez les autres, c’est forcément qu’ils forment un réseau, forcément organisé, voire supervisé par le centre occulte pro-Kremlin.

      Vu les éléments dont on dispose, il semblerait qu’on puisse assez facilement reformuler l’ensemble de ce blabla en :
      Aujourd’hui, RIEN !
      ou encore,
      quand des opposants sont dans une #bulle_de_filtres, c’est forcément qu’il y a #complot

      #encore_un_coup_des_Russes

      L’enquête continue sur les 2600…

      PS : le beau graphique, c’est les Russkofs et l’élection présidentielle de 2017…
      Comment ils s’appellent déjà ? ah oui EU Disinfo Lab …
      en français, ça doit être #désinformation.

    • De rien ! C’est quand même assez étonnant à observer, la façon dont ce chercheur représente lui-même ce qu’il prétend dénoncer, à savoir la création de toutes pièces d’un #bruit_médiatique à des fins politiques. Et les médias sont ravis de tomber dans le panneau, tout fascinés qu’ils sont par cette fumeuse application du #big_data aux #réseaux_sociaux et ravis des belles infographies qu’on leur sert clés en main.

    • EU Disinfo Lab sort « l’étude » sur le sujet
      http://disinfo.eu/2018/08/08/08-08-2018-affaire-benalla-les-ressorts-dun-hyperactivisme-sur-twitter

      Rien de nouveau (si ce n’est des graphiques illisibles), c’est surtout la compilation en un seul endroit des différents tweets.

      À aucun moment un travail minimum d’analyse. Seul exemple que je retiendrai (dans le chapitre Analyse (si, si !)) :

      D’un point de vue macroscopique, quelle est la nature de ces comptes ?
      Premièrement, nous pouvons dire, sur base de leur date de création, qu’ils ont été ouverts dans un contexte plus que politique :

      En effet, nous observons d’importants pics de création de comptes Twitter pendant les périodes d’élections présidentielles : 2012 et 2017. Sans surprise ici, les périodes électorales incitent des utilisateurs à s’engager dans les campagnes en ligne.

      Sans surprise, en effet…

      Et donc, en l’espèce ? En quoi, ces comptes-là sont-ils différents d’autres comptes « politiques » ? J’ai comme l’idée que les comptes pro-En Marche ont dû être créés l’année de la présidentielle de 2017, mais je n’ai pas été voir, il faudrait (!) que je vérifie… Il doit forcément y avoir des réseaux occultes derrière ça. Il faut que je continue l’analyse…

      Je dois dire que j’admire les gens (Les Crises, p. ex.) qui ont le courage de démonter ce genre de choses.

    • L’enquête des #Décodeurs Léa Sanchez et Samuel Laurent, sans vraiment remettre en cause la "méthode", conclue ainsi :

      L’impossible quête des « bots russes » de l’affaire Benalla
      https://www.lemonde.fr/les-decodeurs/article/2018/08/08/l-impossible-quete-des-bots-russes-de-l-affaire-benalla_5340540_4355770.html

      Les deux études d’EU Disinfo Lab et de Damien Liccia concluent finalement dans le même sens : sans infirmer catégoriquement la présence de « bots », ceux-ci n’auront de toute façon joué qu’un rôle mineur dans cette polémique.

      De fait, s’il est celui des journalistes, des communicants ou des politiques, Twitter n’est pas, contrairement à Facebook, un réseau de masse. S’il peut être efficace d’y utiliser des méthodes artificielles pour faire exister médiatiquement un sujet dont on craint qu’il ne le soit pas, il est moins aisé de comprendre l’intérêt de tenter d’y « gonfler » une affaire qui fait déjà l’ouverture des journaux télévisés et les couvertures des quotidiens et revues périodiques, comme ce fut le cas de l’affaire Benalla.

      Ouf ! Samuel Laurent peut continuer à décoder tranquille : il reste encore un petit espace pour les bots (russes). C’est, de toutes façons, ce que choisiront d’en retenir celles et ceux qui citeront " l’étude ".

      Et les médias de masse, ça reste le JT (5 millions pour TF1,…) et… les quotidiens (dont certain est plus #de_référence que d’autres ;-)

    • Si tu fais partie du #listing des 3393 comptes Twitter fichés par #Disinfo (ou si tu te demandes) voici un lien pour vérifier & savoir comment porter plainte (la #CNIL a confirmé s’emparer de l’affaire)
      https://mensuel.framapad.org/p/fichier_bot_russe_03

      (moi je fais juste partie des 55000 comptes recensés mais pas comme « hyperactifs » avec seulement 81 tweets, je crois que le fichage commence entre 200 et 300 tweets)


  • Que penser des tentatives de physiciens, informaticiens et ingénieurs qui, armés d’outils #mathématiques, veulent créer une nouvelle #science de la #société en utilisant une avalanche de données sociales (#big_data…)

    https://sms.hypotheses.org/11193

    #big_data, #monde_social, #mathématique, #sciences, #SHS, #donnée, traitement, #formalisation, #modélisation, #recherche, #quantification



  • L’emprise des algorithmes
    http://www.laviedesidees.fr/L-emprise-des-algorithmes.html

    Les algorithmes qui exploitent les #données pourraient éclairer les décisions publiques au service des citoyens. Mais leurs utilisations actuelles par les GAFA et les entreprises de la finance sont opaques et portent, parfois directement, atteinte aux libertés. Peuvent-elles être réglementées ?

    #Recensions

    / #droit, #big_data, données


  • Security Union: A stronger EU Agency for the management of information systems for security and borders

    Today, the European Parliament (LIBE Committee) and the Council (COREPER) reached a political compromise on the Commission’s proposal to strengthen the mandate of the eu-LISA, the EU Agency for the operational management of large scale IT systems for migration, security and border management. Welcoming the compromise agreement, Commissioner for Migration, Home Affairs and Citizenship Dimitris Avramopoulos and Commissioner for the Security Union Julian King said:

    Commissioner Dimitris Avramopoulos: “Today’s agreement represents another crucial building block towards a more secure and resilient European Union. A strengthened eu-LISA will be the nerve centre for the development and maintenance of all our information systems on migration, border management and security, and crucially, their interoperability. We want to connect all the dots, not just legally but also operationally – and a stronger and more efficient eu-LISA will precisely help us do this.”

    Commissioner Julian King: “In the future, eu-LISA will play a pivotal role in helping keep Europe safe. Today’s agreement means that the Agency will have the resources it needs to manage the EU’s information systems for security and border management, help them to interact more efficient and improve the quality of the data they hold – an important step forward.”

    The upgrade, proposed by the Commission in June 2017, will enable eu-LISA to roll-out the technical solutions to achieve the full interoperability of EU information systems for migration, security and border management. The Agency will now also have the right tools to develop and manage future large-scale EU information systems, such as the Entry Exit System (EES) and the European Travel Information and Authorisation System (ETIAS). This comes in addition to the management of the existing system, such as the Schengen Information System (SIS), the Visa Information System (VIS) and Eurodac, which the Agency is already responsible for.
    Next steps

    The compromised text agreed in today’s final trilogue will now have to be formally adopted by the European Parliament and the Council.
    Background

    In April 2016Search for available translations of the preceding linkEN••• the Commission presented a Communication on stronger and smarter information systems for borders and security, initiating a discussion on how information systems in the European Union can better enhance border management and internal security. Since then the Commission tabled a number of legal proposals to ensure that the outstanding information gaps are closed and the EU information systems work together more intelligently and effectively and that borders guards and law enforcement officials have the information they need to do their jobs. This includes strengthening the mandate of eu-LISA proposed by the Commission in June 2017 and upgrading the EU information systems to make them interoperable in December 2017.

    The EU Agency for the operational management of large-scale IT systems, eu-LISA, successfully started operations in December 2012. It is responsible for the management and maintenance of the SIS II, VIS and EURODAC. The main operational task is to ensure that these systems are kept functioning 24 hours a day, seven days a week. The Agency is also tasked with ensuring the necessary security measures, data security and integrity as well as compliance with data protection rules.

    https://ec.europa.eu/home-affairs/news/security-union-stronger-eu-lisa-agency-management-information-systems-secu

    #sécurité #surveillance #migrations #asile #réfugiés #VIS #SIS #Eurodac #eu-LISA #frontières #surveillance_des_frontières #big_data #Schengen #Europe #EU #UE
    cc @marty @daphne @isskein

    • SECURITY UNION. Closing the information gap

      The current EU information systems for security, border and migration management do not work together – they are fragmented, complex and difficult to operate. This risks pieces of information slipping through the net and terrorists and criminals escaping detection by using multiple or fraudulent identities, endangering the EU’s internal security and the safety of European citizens. Over the past year, the EU has been working to make the various information systems at EU level interoperable — that is, able to exchange data and share information so that authorities and responsible officials have the information they need, when and where they need it. Today, the Commission is completing this work by proposing new tools to make EU information systems stronger and smarter, and to ensure that they work better together. The tools will make it easier for border guards and police officers to have complete, reliable and accurate information needed for their duties, and to detect people who are possibly hiding criminal or terrorist activities behind false identities.

      https://ec.europa.eu/home-affairs/sites/homeaffairs/files/what-we-do/policies/european-agenda-security/20171212_security_union_closing_the_information_gap_en.pdf
      #interopérabilité #biométrie #ETIAS #Entry/Exit_System #EES #ECRIS-TCN_system


  • Quand Google rêve de contrôler l’humanité - Le Temps
    https://www.letemps.ch/sciences/google-reve-controler-lhumanite

    Dans une vidéo interne révélée par le site américain « The Verge », Google développe une théorie prospective pour influencer le comportement humain à travers la compilation des données personnelles. Une « opération qui n’est pas liée à un produit actuel ou futur », se défend la multinationale

    Comment les expériences d’un être humain peuvent-elles modifier le code génétique interne et les caractéristiques physiologiques des générations futures ? Google part de cette interrogation pour imaginer un immense registre de données compilées utilisé pour influencer le comportement humain. Son nom : « The selfish Ledger (le registre égoïste), ouvertement inspiré de l’ouvrage de Richard Dawkins The Selfish Gene, publiée en 1976. Dans ce livre, l’auteur émet un postulat iconoclaste : les êtres humains ne sont que des vecteurs, la véritable humanité se situe dans les gènes, éléments fondateurs de sa théorie de l’évolution. Par analogie, on peut penser que Google effectue le même renversement dans sa vidéo en célébrant la suprématie des données personnelles face à des individus réduits au rôle d’enveloppes corporelles.

    #Google #Hubris #Selfish_Ledger #Big_data


  • L’#histoire à l’heure du #Big_Data - Sciences | ARTE
    https://www.arte.tv/fr/videos/RC-015617/l-histoire-a-l-heure-du-big-data

    Au croisement de l’histoire et des nouvelles technologies, la #Venice_Time_Machine est un projet ambitieux de numérisation des 10 siècles d’archives accumulées par le puissant Etat Vénitien. Des scientifiques de l’#EPFL à Lausanne et de l’#université_Ca’Foscari de #Venise travaillent ensemble à l’élaboration d’un outil numérique inédit qui fera renaître sous nos yeux la Venise du passé.

    #archives #tomographie #systèmes_d'information_géographique #mégadonnées


  • L’#Internet, vecteur de puissance des #Etats-Unis ? Le commerce des mégadonnées (Big Data)

    https://www.diploweb.com/4-Commerce-des-megadonnees-Big-Data.html

    Alors que l’Intelligence artificielle passionne, Laurent Bloch aborde dans ce quatrième chapitre le commerce des mégadonnées (Big Data). Il présente successivement avec pédagogie Le commerce de données et ses acteurs ; Concurrence et conflits réglementaires ; Un pays évincé de ce domaine serait condamné au déclin.

    Diploweb.com, publie cet ouvrage de Laurent Bloch, L’Internet, vecteur de puissance des Etats-Unis ? pour proposer à chacun les éléments nécessaires à une juste appréciation de la situation. Ce livre est déjà disponible sur Amazon au format numérique Kindle et au format broché imprimé sur papier. Il sera publié ici sous forme de feuilleton, chapitre par chapitre, au rythme d’environ un par trimestre.

    #câbles


  • Après les « fake news », les « fake data » et « fake pictures » ?
    http://www.internetactu.net/a-lire-ailleurs/apres-les-fake-news-les-fake-data-et-fake-pictures

    On le sait : pour éduquer les actuelles IAs, basées sur des réseaux de neurones, il faut des data, beaucoup de data. Bien plus, en fait, que de petites startups ne peuvent s’en procurer. Quelles solutions ont-elles alors à leur disposition ? Les fabriquer, nous explique Wired. C’est à cette tâche que (...)

    #A_lire_ailleurs #Enjeux #big_data #IA


  • Algorithmic Accountability : A Primer | Data & Society
    https://datasociety.net/output/algorithmic-accountability-a-primer

    Big decisions about people’s lives are increasingly made by software systems and algorithms. Sorting résumés for job applications, allocating social services, and deciding who sees advertisements for open positions, housing, and products are just a few of the ways in which these software systems shape our lives.

    While algorithmic decision-making can offer benefits in terms of speed, efficiency, and even fairness, bias is routinely introduced into software systems in many ways, including the use of biased training data.

    Often “black boxes” with little transparency or accountability, algorithms can unfairly limit opportunities, restrict services, and produce “technological redlining”–a form of digital data discrimination that uses digital identities and activities to bolster inequality and oppression.

    Algorithmic Accountability: A Primer explores issues of algorithmic accountability, or the process of assigning responsibility for harm when algorithmic decision-making results in discriminatory and inequitable outcomes.

    Currently, there are few consumer or civil rights protections that limit the types of data used to build data profiles or that require the auditing of algorithmic decision-making, even though algorithmic systems can make decisions on the basis of protected attributes like race, income,or gender–even when those attributes are not referenced explicitly–because there are many effective proxies for the same information.

    This brief explores the trade-offs between and debates about algorithms and accountability across several key ethical dimensions, including:

    Fairness and bias;
    Opacity and transparency;
    The repurposing of data and algorithms;
    Lack of standards for auditing;
    Power and control; and
    Trust and expertise.

    #Big_data #Algorithmes #Pouvoir