• Algorithmes : où sont les dangers ?
    http://theconversation.com/algorithmes-ou-sont-les-dangers-120543

    Pourquoi avons-nous spontanément tendance à croire qu’à l’origine de nos maux se cache un agent animé par une volonté de nuire ? Plusieurs mécanismes psychologiques permettent d’en rendre compte, et notamment certains biais cognitifs – des erreurs systématiques de raisonnement. L’humain tend naturellement à raisonner de manière téléologique, c’est-à-dire à penser que si un évènement se produit, celui-ci se produit dans un but particulier. Par extension, nous pourrons avoir tendance à croire que l’évènement a été voulu par un agent conscient, ce dernier fut-il invisible. Ce type de raisonnement se retrouve dans nombre de croyances, allant du créationnisme à diverses théories du complot. Tout particulièrement pour expliquer les évènements ayant des conséquences négatives, il semble que nous privilégions les causes intentionnelles aux causes accidentelles.

    On parle de « biais d’intentionnalité » pour désigner cette tendance à spontanément chercher une intention consciente derrière les évènements. Si dans nombreux cas ce biais nous amènera à des conclusions hâtives et souvent fautives, il comporte un avantage important : il permet d’identifier clairement et rapidement un responsable, et donc d’agir contre celui-ci là où une réflexion plus fine, scientifique, prendra davantage de temps… temps durant lequel le coupable intuitivement identifié pourra continuer de nuire ! Dans la mesure où le biais d’intentionnalité (et le raisonnement téléologique de façon générale) s’observe dès la petite enfance, on peut supposer qu’il est issu de notre histoire évolutive.

    Ainsi, le biais d’intentionnalité comporte une utilité adaptative qui était d’autant plus grande à l’époque où les sociétés étaient à la fois moins complexes et plus violentes. La désignation d’un coupable (qui sera bien souvent un groupe social particulier, perçu comme une entité monolithique : les élites, les banquiers, Big Pharma, les multinationales, les immigrés, les Juifs…), est un puissant facteur de mobilisation collective. Outre cet intérêt adaptatif, il est de plus en plus clair que les expressions conspirationnistes du biais d’intentionnalité ont d’autant plus de chance d’apparaître à la suite d’un évènement générant de la peur et de l’incertitude. La désignation d’un coupable permet également de soulager l’inconfort mental provoqué par cet état d’incertitude et de peur.

    L’utilisation généralisée des algorithmes est adossée à une série de phénomènes qui préoccupent de plus en plus les chercheurs en sciences sociales : dérégulation généralisée du marché de l’information, isolement des individus dans des bulles idéologiques, viralité d’informations douteuses, perpétuation de stéréotypes (notamment par les moteurs de recherche)… Mais également, dans des registres plus dramatiques, krachs boursiers et décisions de justice iniques à l’égard des minorités. Tous ces phénomènes ont en commun qu’ils n’ont pas été délibérément provoqués par un agent conscient. Il s’agit d’effets émergents, c’est-à-dire des effets collectifs plus ou moins imprévisibles qui découlent de l’agrégation d’actions individuelles non concertées – cette dernière précision étant d’une importance capitale.

    Notre cerveau semble cablé pour rechercher des coupables derrière les maux qui frappent la société. Cette intuition, si elle peut dans nombre de cas s’avérer fautive ou à tout le moins non fondée, comporte certains avantages : elle encourage dans certains cas à se mobiliser, et à agir contre le coupable présumé – quand bien même celui-ci serait en réalité innocent. Néanmoins, le cas des algorithmes – des « weapons of math destruction » – rappelle que quand bien même nous peinons à imaginer qu’un problème social puisse advenir en l’absence d’une volonté malveillante, de telles situations sont bien réelles, et constituent des enjeux majeurs pour la société. Concernant les algorithmes, on peut par exemple s’interroger sur la nécessité de rendre leur fonctionnement moins opaque. En effet, cette opacité empêche leur analyse critique, et par la même la responsabilisation de leurs concepteurs – quand bien même ceux-ci seraient animés par les meilleures intentions qui soient.

    #Algorithmes #Fake_news #Complotisme

  • Opinion | How an Online Mob Created a Playbook for a Culture War - The New York Times
    https://www.nytimes.com/interactive/2019/08/15/opinion/what-is-gamergate.html

    On August 15, 2014, an angry 20-something ex-boyfriend published a 9,425-word screed and set in motion a series of vile events that changed the way we fight online. The post, which exhaustively documented the last weeks of his breakup with the video game designer Zoë Quinn, was annotated and punctuated with screenshots of their private digital correspondence — emails, Facebook messages and texts detailing fights and rehashing sexual histories. It was a manic, all-caps rant made to go viral.

    And it did. The ex-boyfriend’s claims were picked up by users on Reddit and 4chan and the abuse began. Ms. Quinn and her immediate family members were threatened. Her private information was exposed, including old nude photos from a past relationship. Chat rooms popped up to discuss the best ways to “ruin her life” and fantasize about elaborate ways of killing her.

    Using fake Twitter accounts, 4chan users posed as “angry feminists” and got the hashtags #EndFathersDay and #WhitesCantBeRaped to trend globally. At a tech conference in 2013, in an incident called Donglegate, Adria Richards, a tech consultant and woman of color, tweeted about a sexist joke uttered during a keynote speech. Her tweet went viral, and Ms. Richards was fired, doxxed, received death threats and had “images of her beheaded, or her face photoshopped onto the body of porn stars.” Not all of the hoaxes succeeded: 4chan campaigns like “Operation Freebleeding” (where trolls pretended to be feminists rejecting tampons as patriarchal tools of oppression) failed to stoke culture war flames.

    “The energy and ideology of this movement weren’t new but Gamergate was when the movement evolved and the monster grew a voice box,” Whitney Phillips, an assistant professor at Syracuse who studies online harassment and media manipulation, told me. “All the anger, all the toxicity and fear of being replaced by a culture more focused on social justice — it all came together in a spectacularly awful way.”

    Unlike its predecessors, Gamergate jumped out of the obscure fever swamps of the internet and into mainstream consciousness, in part because its arrival coincided with a peculiar online moment in which social media platforms were becoming more mainstream. People who were unfamiliar with the chaotic underbelly of internet culture could be easily tricked or manipulated by its worst actors. “The clash of anonymous imageboard culture with the parts of social media where people live and work created the divide underlying Gamergate,” Jay Allen, a freelance writer, wrote of this dynamic in 2014.

    Crucially, Gamergate emerged during the internet’s shift from a largely anonymous or pseudonymous culture to one centered around personality-driven influencers. And, unlike previous abuse campaigns led by armies of unknown internet users, Gamergate attracted the attention of then-men’s rights bloggers like Mike Cernovich and Roosh V, right-wing political correctness monitors like Christina Hoff Sommers and middling journalists like Milo Yiannopoulos, then a writer for Breitbart.

    “Gamergate really prototyped the rise of harassment influencers,” Ms. Phillips told me, arguing that the size and intensity of the controversy quickly attracted opportunists who saw the conflict as a way to gain large followings stoking the culture war flames. In turn, these personalities extended the conflict, highlighting new controversies. The fact that these influencers were real, identifiable people only further legitimized the event for its followers.

    Today, five years later, the elements of Gamergate are frighteningly familiar: hundreds of thousands of hashtag-swarming tweets; armies of fake Twitter accounts; hoaxes and disinformation percolating in murky chat rooms and message boards before spreading to a confused mainstream media; advertiser boycotts; crowdfunding campaigns; racist, sexist and misogynist memes; YouTube shock jocks; D-list celebrities hand-wringing about political correctness on Twitter; Milo Yiannopoulos, Steve Bannon and Breitbart; Candace Owens.

    Gamergate’s DNA is everywhere on the internet, and the ubiquity of Gamergate’s influence has even spawned a winking trope: Everything Is Gamergate.

    Gamergate wasn’t the birth of a brand-new culture war, it was a rallying cry. And its trollish successes in intimidating women, deceiving clueless brands and picking up mainstream coverage taught a once-dormant subculture powerful lessons about manipulating audiences and manufacturing outrage. Five years on, no lesson feels more prescient than the fact that its supposed central premise — a broad reckoning regarding journalistic ethics in video games — was based on an easily (and frequently) debunked lie.

    Gamergate is occasionally framed as a battle for the soul of the internet between a diverse, progressive set and an angry collection of white males who feel displaced. And it is that, too. But its most powerful legacy is as proof of concept of how to wage a post-truth information war.

    The lesson of Gamergate — the one we feel reverberating throughout our politics every day in 2019 — is that there’s a sinister power afforded to those brazen enough to construct their own false realities and foist them on others.

    #Gamergate #Fake_news #Trolls #Faschosphère

  • The world’s top deepfake artist is wrestling with the monster he created - MIT Technology Review
    https://www.technologyreview.com/s/614083/the-worlds-top-deepfake-artist-is-wrestling-with-the-monster-he-cr

    Misinformation has long been a popular tool of geopolitical sabotage, but social media has injected rocket fuel into the spread of fake news. When fake video footage is as easy to make as fake news articles, it is a virtual guarantee that it will be weaponized. Want to sway an election, ruin the career and reputation of an enemy, or spark ethnic violence? It’s hard to imagine a more effective vehicle than a clip that looks authentic, spreading like wildfire through Facebook, WhatsApp, or Twitter, faster than people can figure out they’ve been duped.

    As a pioneer of digital fakery, Li worries that deepfakes are only the beginning. Despite having helped usher in an era when our eyes cannot always be trusted, he wants to use his skills to do something about the looming problem of ubiquitous, near-perfect video deception.

    Li isn’t your typical deepfaker. He doesn’t lurk on Reddit posting fake porn or reshoots of famous movies modified to star Nicolas Cage. He’s spent his career developing cutting-edge techniques to forge faces more easily and convincingly. He has also messed with some of the most famous faces in the world for modern blockbusters, fooling millions of people into believing in a smile or a wink that was never actually there. Talking over Skype from his office in Los Angeles one afternoon, he casually mentions that Will Smith stopped in recently, for a movie he’s working on.

    Actors often come to Li’s lab at the University of Southern California (USC) to have their likeness digitally scanned. They are put inside a spherical array of lights and machine vision cameras to capture the shape of their face, facial expressions, and skin tone and texture down to the level of individual pores. A special-effects team working on a movie can then manipulate scenes that have already been shot, or even add an actor to a new one in post-production.

    Shortly after joining USC, Li created facial tracking technology used to make a digital version of the late actor Paul Walker for the action movie Furious 7. It was a big achievement, since Walker, who died in a car accident halfway through shooting, had not been scanned beforehand, and his character needed to appear in so many scenes. Li’s technology was used to paste Walker’s face onto the bodies of his two brothers, who took turns acting in his place in more than 200 scenes.

    The movie, which grossed $1.5 billion at the box office, was the first to depend so heavily on a digitally re-created star. Li mentions Walker’s virtual role when talking about how good video trickery is becoming. “Even I can’t tell which ones are fake,” he says with a shake of his head.

    La vague des repentis s’élargit... Mais c’est intéressant cette façon de voir : tant que ce sont quelques personnes bien intentionnées, les technologies sont magiques, mais quand cela devient accessible à tout le monde, les problèmes arrivent. On a vu ce discours se répéter depuis que l’internet s’est ouvert au public.

    Underneath the digital silliness, though, is an important trend: AI is rapidly making advanced image manipulation the province of the smartphone rather than the desktop. FaceApp, developed by a company in Saint Petersburg, Russia, has drawn millions of users, and recent controversy, by offering a one-click way to change a face on your phone. You can add a smile to a photo, remove blemishes, or mess with your age or gender (or someone else’s). Dozens more apps offer similar manipulations at the click of a button.

    Not everyone is excited about the prospect of this technology becoming ubiquitous. Li and others are “basically trying to make one-image, mobile, and real-time deepfakes,” says Sam Gregory, director of Witness, a nonprofit focused on video and human rights. “That’s the threat level that worries me, when it [becomes] something that’s less easily controlled and more accessible to a range of actors.”

    Fortunately, most deepfakes still look a bit off. A flickering face, a wonky eye, or an odd skin tone make them easy enough to spot. But just as an expert can remove such flaws, advances in AI promise to smooth them out automatically, making the fake videos both simpler to create and harder to detect.

    Even as Li races ahead with digital fakery, he is also troubled by the potential for harm. “We’re sitting in front of a problem,” he says.

    (Medifor : programme de la DARPA our reconnaître les deepfakes)

    Earlier this year, Matt Turek, DARPA program manager for MediFor, asked Li to demonstrate his fakes to the MediFor researchers. This led to a collaboration with Hany Farid, a professor at UC Berkeley and one of the world’s foremost authorities on digital forensics. The pair are now engaged in a digital game of cat-and-mouse, with Li developing deepfakes for Farid to catch, and then refining them to evade detection.

    Farid, Li, and others recently released a paper outlining a new, more powerful way to spot deepfakes. It hinges on training a machine-learning algorithm to recognize the quirks of a specific individual’s facial expressions and head movements. If you simply paste someone’s likeness onto another face, those features won’t be carried over. It would require a lot of computer power and training data—i.e., images or video of the person—to make a deepfake that incorporates these characteristics. But one day it will be possible. “Technical solutions will continue to improve on the defensive side,” says Turek. “But will that be perfect? I doubt it.”

    #Fake_news #deepfakes #Intelligence_artificielle #Art #Cinéma

  • Facebook a espionné et retranscrit des conversations audio de ses usagers - Technologies - RFI
    http://www.rfi.fr/technologies/20190814-facebook-espionne-audio-conversations-usagers

    Faire du micro d’un téléphone un espion pour enregistrer les conversations et mieux cibler les #publicités avait été qualifié de théorie complotiste par Mark Zuckerberg lors de son audition devant le Congrès en avril 2018. « Nous ne faisons pas ça » avait répondu le fondateur du réseau social aux sénateurs américains après le scandale Cambridge Analytica sur la fuite des données personnelles de millions d’abonnés.

    Un an plus tard, c’est en fait une réalité : #Facebook le reconnait ce mardi après les révélations de l’agence Bloomberg. Selon ses informations ce sont des conversations audio passées sur l’application Messenger qui ont été enregistrées et même transcrites par des centaines de sous-traitants. Facebook promet avoir mis fin à cette pratique et l’avoir fait avec l’accord des utilisateurs qui l’auraient permis en cochant certaines règles d’utilisation.

    Il faudrait faire une liste des #complotismes qui n’en étaient pas

    #espionnage

  • « Malik Oussekine n’a pas reçu de coups de la police » : la fake news d’un directeur du Figaro - Acrimed | Action Critique Médias
    https://www.acrimed.org/Malik-Oussekine-n-a-pas-recu-de-coups-de-la

    Lundi 5 août, le directeur adjoint du Figaro Magazine, Jean-Christophe Buisson, intervenait dans « On refait le monde » sur RTL. L’occasion d’asséner plusieurs contrevérités sur la mort de Malik Oussekine, étudiant tué par la police en 1986, sans être jamais contredit. Un épisode qui montre une nouvelle fois que les producteurs de « fake news » ne sont pas toujours dépourvus de carte de presse…

    Jean-Christophe Buisson est formel ce 5 août au micro de RTL : si tout le monde considère que Malik Oussekine a été victime de violences policières, « ce n’est factuellement pas le cas ». Et le directeur adjoint du Figaro Magazine de préciser que l’étudiant n’aurait « pas reçu de coups » et qu’il serait « mort avec son problème d’insuline ». Peu importe que l’autopsie réalisée alors concluait « à un décès consécutif à un état de choc », des suites de coups reçus dans les côtes selon l’article du Monde du 9 décembre 1986. Ou que les policiers en cause aient été condamnés par la justice.

    Sur le plateau de RTL, aucune contradiction... au contraire, le présentateur Vincent Parizot semble acquiescer aux propos de Jean-Christophe Buisson (« C’est mieux de réagir un peu à froid, vous voulez dire »), laissant entendre que les critiques faites à la police à propos de la mort de Steve Maia Caniço sont hâtives. « Quand on réagit à chaud, on dit souvent des bêtises » ajoute, très inspiré, un autre invité.

    #fake_news #Journalisme #Editocratie

  • Man Who Built The Retweet : “We Handed A Loaded Weapon To 4-Year-Olds”
    https://www.buzzfeednews.com/article/alexkantrowitz/how-the-retweet-ruined-the-internet

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    “We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.”

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.

    After the retweet button debuted, Wetherell was struck by how effectively it spread information. “It did a lot of what it was designed to do,” he said. “It had a force multiplier that other things didn’t have.”

    “We would talk about earthquakes,” Wetherell said. “We talked about these first response situations that were always a positive and showed where humanity was in its best light.”

    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    In the early 2010s, Facebook’s leadership was looking for ways to drive up engagement. Having previously failed to acquire Twitter, they looked to its product for inspiration.

    The allure of going viral via the retweet had drawn publications, journalists, and politicians to Twitter en masse. And their presence shined most prominently during the 2012 election, a big moment for Twitter and a relative dud for Facebook. So Facebook, in a now all too familiar move copied Twitter, adding a trending column, hashtags, and a retweet clone.

    In 2014, Wetherell realized the retweet button was going to be a major problem when the phrase “ethics in game journalism” started pouring into a saved search for “journalism” he had on Twitter. The phrase was a rallying cry for Gamergate — a harassment campaign against women in the game industry — and Wetherell, after seeing that first batch of tweets, watched it closely.

    As Gamergate unfolded, Wetherell noticed its participants were using the retweet to “brigade,” or coordinate their attacks against their targets, disseminating misinformation and outrage at a pace that made it difficult to fight back. The retweet button propelled Gamergate, according to an analysis by the technologist and blogger Andy Baio. In his study of 316,669 Gamergate tweets sent over 72 hours, 217,384 were retweets, or about 69%.

    The game took another dark turn during the 2016 presidential campaign, when impulse-sparked sharing caused outrage and disinformation to flourish on both Twitter and Facebook. It’s one thing to copy and paste a link that says Hillary Clinton is running a pedophile ring in the basement of a pizza shop — and share it under your own name. It’s another to see someone else post it, remember that you don’t like Hillary Clinton, and impulsively hit the share or retweet button.

    “We have some evidence that people who are more likely to stop and think are better at telling true from false,” David Rand, an associate professor at MIT who studies misinformation, told BuzzFeed News. “Even for stuff that they are motivated to believe, people who stop and think more are less likely to believe the false stuff.”

    The benefits of creating such content accrued disproportionately to the fringe. When someone retweets something, they’re sharing the content with their followers, but also sending a signal to the person they’re amplifying, said Anil Dash, a blogger and tech entrepreneur. The more fringe the original tweeter, the more valuable the retweet.

    “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

    The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

    The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

    A full rollback of the share and retweet buttons is unrealistic, and Wetherell doesn’t believe it’s a good idea. Were these buttons universally disabled, he said, people could pay users with large audiences to get their message out, giving them disproportionate power.
    "Oh no, we put power into the hands of people.”

    To rein in the excesses of the retweet, Wetherell suggested the social media companies turn their attention toward audiences. When thousands of people retweet or share the same tweet or post, they become part of an audience. A platform could revoke or suspend the retweet ability from audiences that regularly amplify awful posts, said Wetherell. “Curation of individuals is way too hard, as YouTube could attest,” Wetherell said. “But curation of audiences is a lot easier.”

    Another solution might be to limit on the number of times a tweet can be retweeted. Facebook is experimenting with an approach of this nature, although not in its main product. Earlier this year, WhatsApp, which is owned by Facebook, limited the number of people to which a message could be forwarded to five at a time, in response to quick-spreading rumors and disinformation. “The forward limit significantly reduced forwarded messages around the world,” WhatsApp said in a blog post. “We’ll continue to listen to user feedback about their experience, and over time, look for new ways of addressing viral content.”

    MIT’s Rand suggested another idea: preventing people from retweeting an article if they haven’t clicked on the link. “That could make people slow down,” he said. “But even more than that, it could make people realize the problematic nature of sharing content without having actually read it.”

    Whatever the solution, Wetherell looks at the retweet very differently than he once did — a lesson that he thinks has broader implications. “I remember specifically one day thinking of that phrase: We put power in the hands of people,” he said. “But now, what if you just say it slightly differently: Oh no, we put power into the hands of people.”

    #Twitter #Retweet #Médias_sociaux #Viralité #Fake_news #Cyberharcèlement

  • Man Who Built The #Retweet: “We Handed A Loaded Weapon To 4-Year-Olds”
    https://www.buzzfeednews.com/article/alexkantrowitz/how-the-retweet-ruined-the-internet

    The button that ruined the internet — and how to fix it.

    Developer Chris Wetherell built Twitter’s retweet button. And he regrets what he did to this day.

    We might have just handed a 4-year-old a loaded weapon,” Wetherell recalled thinking as he watched the first Twitter mob use the tool he created. “That’s what I think we actually did.

    Wetherell, a veteran tech developer, led the Twitter team that built the retweet button in 2009. The button is now a fundamental feature of the platform, and has been for a decade — to the point of innocuousness. But as Wetherell, now cofounder of a yet-unannounced startup, made clear in a candid interview, it’s time to fix it. Because social media is broken. And the retweet is a big reason why.
    […]
    But the button also changed Twitter in a way Wetherell and his colleagues didn’t anticipate. Copying and pasting made people look at what they shared, and think about it, at least for a moment. When the retweet button debuted, that friction diminished. Impulse superseded the at-least-minimal degree of thoughtfulness once baked into sharing. Before the retweet, Twitter was largely a convivial place. After, all hell broke loose — and spread.

    #gamergate

    • “If I retweet the New York Times, they don’t care,” Dash said. “But extreme content comes from people who are trying to be voices, who are trying to be influential in culture, and so it has meaning to them, and so it earns me status with them.”

      The pursuit of that status has driven many Twitter users to write outrageous tweets in the hope of being retweeted by fringe power users. And when they do get retweeted, it sometimes lends a certain credibility to their radical positions.

      The retweet and share, in other words, incentivize extreme, polarizing, and outrage-inducing content.

      #rumeur #fake_news #harcèlement #réseaux_sociaux #extrémisme

  • Le pouvoir est pris dans une sale affaire de #missiles en #Libye

    Des missiles américains vendus à la France ont été retrouvés près de Tripoli dans une base militaire des troupes du général Haftar, l’homme fort de l’est du pays. Malgré les démentis de la ministre des armées, tout laisse penser que Paris a armé les troupes rebelles, en violation de l’embargo des Nations unies.

    Déjà fortement critiqué pour ses ventes d’armes à l’Arabie saoudite et leur utilisation dans la guerre au Yémen, voilà le gouvernement français engagé sur un nouveau front : la fourniture d’armes en Libye, en violation de l’embargo décrété par les Nations unies. Paris est en effet très fortement soupçonné d’armer les troupes rebelles du général Haftar. L’homme, qui tient l’est du pays et la région de Benghazi, a lancé depuis avril une violente offensive militaire pour prendre Tripoli. Selon l’ONU, elle a déjà provoqué plus de 1 000 morts et 5 500 blessés.

    Officiellement, la France dit parler en Libye avec « toutes les parties », le camp du général Haftar et le gouvernement de Tripoli, reconnu par les Nations unies. Dans les faits, Paris n’a cessé de soutenir le général Haftar, avec l’Égypte, l’Arabie saoudite et les Émirats arabes unis. Dès 2016, François Hollande avait reconnu la mort, dans un crash d’hélicoptère, de trois agents de la DGSE dépêchés auprès d’Haftar. Par la suite, le gouvernement français a reconnu avoir déployé des forces spéciales dans la région de Benghazi. Officiellement pour des missions « de lutte contre le terrorisme ».

    Mais cette fois un nouveau palier est franchi. Le New York Times a révélé le 9 juillet que des missiles antichar appartenant à la France ont été retrouvés le 26 juin à #Gharyan, dans une base militaire reprise par l’armée officielle aux forces rebelles du général Haftar. Gharyan, à une soixantaine de kilomètres au sud de Tripoli, a été le principal point d’appui d’Haftar pour mener son offensive sur la capitale libyenne. Armements, matériel et troupes étaient concentrés dans cette base reprise par surprise fin juin.

    Fait particulièrement gênant pour la France, ces missiles antichar – au nombre de quatre – ont été rapidement identifiés… par les États-Unis. Il s’agit de missiles Javelin, fabriqués par les groupes américains Raytheon et Lockheed Martin, et vendus par les États-Unis à la France en 2010. Paris avait alors acheté 260 missiles de ce type et leur équipement pour un contrat de 69 millions de dollars (soit 260 000 dollars l’unité).

    Voilà que quatre de ces missiles sont inopinément découverts dans ce qui fut le QG de campagne du général Haftar qu’il a dû abandonner en catastrophe à la suite de l’opération victorieuse de l’armée loyaliste de Tripoli ! L’enjeu est important pour le gouvernement français : une telle livraison d’armements aux troupes rebelles ne ferait pas que violer l’embargo international (par ailleurs massivement contourné par l’Égypte et les Émirats arabes unis). Elle violerait également l’accord commercial passé avec les États-Unis et qui interdit formellement la réexportation ou revente ou dissémination de ce type de missiles.

    D’où les explications particulièrement confuses de la ministre des armées, Florence Parly, depuis mardi 9 juillet. Contacté par Mediapart, le cabinet de la ministre s’en tient à une version en trois points :

    – « Ces armes étaient destinées à l’autoprotection d’un détachement français déployé à des fins de renseignement en matière de contre-terrorisme. »
    – « Endommagées et hors d’usage, ces munitions étaient temporairement stockées dans un dépôt en vue de leur destruction. Elles n’ont pas été transférées à des forces locales. »
    – « Détenues par nos forces pour leur propre sécurité, ces armes n’étaient pas concernées par les restrictions d’importation en Libye. »

    Ces explications sont bien peu crédibles et le ministère n’a pas souhaité répondre aux questions complémentaires posées mercredi 10 juillet par Mediapart. Florence Parly – hasard du calendrier – a été auditionnée à huis clos par la commission de défense de l’Assemblée nationale mercredi en fin d’après-midi au sujet des ventes d’armes de la France et de son rapport annuel au Parlement faussement transparent sur les exportations. C’est la troisième fois en trois mois que la ministre est entendue à ce sujet alors que les révélations s’enchaînent démontrant l’utilisation d’armements français dans des conflits comme dans la guerre au Yémen, « la pire crise humanitaire au monde », selon l’ONU.

    Interrogée par les députés, la ministre s’est très vite réfugiée derrière le « secret-défense » pour ne pas répondre aux questions. Elle s’est limitée à noter que les Français avaient constitué sur le terrain « un détachement de renseignement », sans préciser où, pendant combien de temps et avec quel matériel.

    Reprenons. Un détachement français aurait donc été présent à Gharyan dans la base militaire-QG du général Haftar situé pratiquement sur la ligne de front ? Ce serait reconnaître un engagement français sans précédent dans la guerre civile libyenne, d’autant que ce n’est pas sur une ligne de front et au plus fort des opérations militaires qu’on mène des opérations « antiterroristes ». Première incohérence.

    Tous les spécialistes l’affirment. Les forces spéciales font du renseignement, peuvent mener des opérations ponctuelles et limitées. Mais elles ne sont certainement pas équipées de missiles antichar, ce qui signifierait qu’elles se trouveraient directement engagées sur le champ de bataille. Deuxième incohérence.

    Des missiles « endommagés et hors d’usage », dit le ministère. Comment pouvaient-ils alors protéger les soldats français ? Ou alors, avaient-ils été déjà utilisés, par qui et dans quelles conditions ? Le silence du ministère rend absurde cet argument. Une autre hypothèse est que ces missiles auraient été oubliés ou abandonnés par les forces françaises dans un autre lieu puis récupérés par les forces du général Haftar et apportés à la base de Gharyan. Ce qui, là encore, est bien peu crédible. Et ce qui, dans ce cas, démontrerait que ces armes étaient bien sous le contrôle exclusif des « forces locales », contrairement aux affirmations du ministère.

    Contacté par Mediapart, Olivier Faure, premier secrétaire du PS et membre de la commission de défense, comptait interroger la ministre sur un tel scénario : « Comment les forces spéciales auraient-elles pu abandonner de telles armes ? Pourquoi en étaient-elles équipées ? Et surtout, pourquoi Haftar a-t-il récupéré ces missiles s’ils ne pouvaient pas servir ? ». A l’issue de l’audition d’une ministre muette, il ne masquait pas ses interrogations grandissantes. « La ministre a été extrêmement concise, pour le dire diplomatiquement, sur la Libye. Pour le reste elle s’est livrée à un long exposé sur la nécessité des ventes d’armes, enjeu stratégique dans la lutte contre le terrorisme... ».
    « La France mène une guerre secrète en Libye »

    Le député de La France insoumise Bastien Lachaud, également membre de la commission de défense, se pose les mêmes questions. Avec une obsession : « Mais que fait la France en Libye et que fait-elle avec ses armes ? » « Le gouvernement doit s’expliquer, insiste le parlementaire. Il nous doit la vérité car le bordel en Afrique notamment dans la bande sahélo-sahélienne est consécutif à la crise libyenne où la France tient une grande responsabilité depuis Sarkozy. »

    L’élu LFI déplore l’opacité du système français : « Nous auditionnons la ministre mais c’est un bien grand mot. Car c’est à huis clos et contrairement à nos pairs du Congrès américain, nous n’avons aucun droit de suite, ni de relance. En face, la ministre nous sert les mêmes éléments de langage que sur Twitter. » Les explications du ministère des armées le sidèrent : « Comment peut-on laisser de telles armes après une opération et comment finissent-elles sur une base pro-Haftar ? Et si elles étaient inutilisables, que faisaient-elles en Libye ? »

    Deux autres étrangetés, pour ne pas dire plus, peuvent être relevées. La première est une déclaration faite le 1er juillet sur Twitter par l’ambassade de France en Libye. Sous le hastag #Fakenews, l’ambassade « dément catégoriquement la présence de soldats ou de personnel militaire français à Gharyan ».

    La seconde étrangeté tient à l’équipement même des forces françaises. Les missiles Javelin avaient été achetés en 2010, dans l’attente d’un missile français de nouvelle génération produit par MBDA, le missile moyenne portée. Selon plusieurs spécialistes, le missile Javelin est pour partie obsolète, en tous les cas beaucoup moins performant que le missile MBDA. Comme le note le site spécialisé Opex360, ce missile français devait être déployé au Sahel d’ici la fin 2018. Ce qui renforce encore la suspicion d’une livraison aux forces « amies » du général Haftar de missiles Javelin moins performants.

    Dernier élément : les missiles Javelin ont été retrouvés à Gharyan, non pas dans un lieu isolé, mais dans des entrepôts où était stocké tout un arsenal des forces rebelles, dont des drones de fabrication chinoise, des armes de fabrication russe et des obus venant des Émirats arabes unis, comme le montre la photo ci-contre. Les missiles français ne bénéficiaient d’aucune protection particulière qui laisserait entendre qu’ils ne faisaient pas partie de l’arsenal rebelle.

    Dès lors, il est peu probable que le pouvoir français puisse en rester à des explications aussi imprécises. Les commissions spécialisées du Congrès américain pourraient se saisir de cette affaire et d’une éventuelle violation par la France d’un accord commercial. Les inspecteurs des Nations unies pourraient également intervenir et ont déjà documenté de multiples violations de l’embargo, en particulier par l’Égypte et les Émirats arabes Unis.

    Pour le chercheur Jalel Harchaoui, l’un des rares spécialistes de la crise libyenne aujourd’hui en France, « nous avons désormais avec la découverte de ces missiles une preuve indéniable de ce que l’on sait tous : la France mène une guerre secrète en Libye. Elle soutient Haftar même militairement. Elle souhaite que son poulain Haftar gagne, car elle est pour une dictature en Libye, elle voit en lui ce qu’elle aime en Égypte, un autoritarisme rigide sans aucune liberté individuelle ».

    Dans les rangs des ONG françaises aussi, cette information provoque des remous. Et on se pose les mêmes questions que les députés de l’opposition. « Pourquoi des missiles français se trouvent sur le territoire libyen pour assurer la protection des Français ? Ont-ils été déclarés auprès des Nations unies ? Ont-ils fait l’objet d’une autorisation du Congrès américain pour être utilisés en Libye ? Comment Haftar a eu accès à ces missiles ? Ces missiles sont, selon le gouvernement, inutilisables ? Qu’est-ce qui le prouve ? », lance Aymeric Elluin, chargé de plaidoyer à Amnesty International.

    Il rappelle l’affaire des #drones dits #MALE (moyenne endurance longue portée). Achetés en catastrophe à l’américain General Atomics, en 2013 pour être déployés dans la guerre au Mali et la bande sahélo-saharienne, ils ont été au cœur d’un feuilleton politico-industriel, Paris voulant s’éviter de passer devant le Congrès américain qui exige une autorisation pour toute nouvelle zone de déploiement. L’ONG, qui a transmis une douzaine de questions très précises aux députés en amont de l’audition de ce mercredi sur les ventes d’armes, se réjouit que cette affaire de missiles français sur le sol libyen survienne : « La France va devoir se plier au devoir de transparence. »

    https://www.mediapart.fr/journal/international/100719/le-pouvoir-est-pris-dans-une-sale-affaire-de-missiles-en-libye?onglet=full
    #armes #commerce_d'armes #USA #Etats-Unis #France #armement

  • Aux sources de la désinformation en santé, la confiance brisée
    https://www.mediapart.fr/journal/france/270719/aux-sources-de-la-desinformation-en-sante-la-confiance-brisee

    Les réseaux sociaux ont-ils provoqué l’épidémie de rougeole en laissant prospérer les « antivax » ? Pour les spécialistes réunis récemment à Paris, la rupture de confiance s’explique plutôt par « les scandales sanitaires à répétition » ou la « mendicité scientifique ».

    #INTERNET #fake_news,_sante,_réseaux_sociaux,_désinformation

  • Anonymat, représailles ciblées et faux comptes : comment des macronistes se sont radicalisés en ligne
    https://www.lemonde.fr/les-decodeurs/article/2019/07/06/anonymat-represailles-ciblees-et-faux-comptes-voyage-dans-la-macronie-numeri

    La majorité et le chef de l’Etat multiplient les mises en garde contre les fausses informations et les dangers des réseaux sociaux. Dans le monde numérique, des « marcheurs » ont pourtant adopté des méthodes peu en phase avec ces principes.

    Groupes privés, partages industrialisés, « cibles » désignées à la « riposte » collective, comptes anonymes démultipliés, faux profils, violence des propos… Depuis l’été 2018 et l’affaire Benalla, certains « marcheurs » qui peuplent les réseaux sociaux ont changé d’attitude : loin de la « bienveillance » préconisée par le chef de l’Etat pendant la campagne présidentielle, une partie de la Macronie numérique s’est durcie et convertie à des méthodes jusqu’alors pratiquées par d’autres acteurs du champ politique, notamment aux extrêmes.

    Twitter compte aujourd’hui environ 15 millions de profils actifs en France, bien loin de Facebook qui en aligne plutôt 30 millions. Mais le réseau à l’oiseau bleu (son icône) est celui des « décideurs » et des « influenceurs » : stars, politiciens, journalistes, communicants en ont fait leur canal privilégié, tant pour y diffuser leur actualité que pour s’informer. Ce qui explique sans doute également que les militants de tout bord y soient très actifs, dans l’espoir de « toucher » ces influents et d’obtenir une visibilité.

    S’agit-il d’une pratique organisée ? Officiellement, il n’est pas question de lever des armées d’anonymes. Mais la galaxie macroniste est structurée par des dizaines de groupes de messageries privés, appelés « boucles », notamment sur l’application Telegram, très populaire dans la politique française. Un membre de la communication numérique du parti confirme que LRM coordonne les actions grâce à cet outil. « Ces boucles nous donnent les liens de Tweet, posts Facebook, vidéos YouTube à partager en masse », confirme un militant.

    #Fake_news #Mobilisations_numériques #Twitter

  • Complotisme : YouTube est-il responsable des contenus publiés ?
    https://www.ladn.eu/media-mutants/tv-et-nouvelles-images/youtube-rend-responsables-suggestions-videos

    Face aux critiques, la plateforme a mis en avant ses outils de contrôle des recommandations de vidéo et estime que c’est aux utilisateurs de faire le ménage.

    Ne dites plus jamais que c’est de la faute de YouTube si vous trouvez une vidéo complotiste ou contenant de fausses informations dans votre fil de recommandations. C’est en tout cas le message qu’ont tenté de faire passer Romain Cabrolier et Justine Ryst, respectivement manager et directrice en charge des partenariats sur la plateforme.

    Les utilisateurs sont responsables, même les plus jeunes

    Effectivement, il suffit de regarder un coup d’œil aux commentaires des vidéos de Lama Fâché pour voir que de nombreux internautes ne prennent pas pour argent comptant les « informations » diffusées. Les compteurs de likes, eux, s’emballent. Et peu importe que le public visé soit... les adolescents. Pour YouTube, ça ne change rien : même s’ils n’ont pas le recul nécessaire pour utiliser les outils à leur disposition, ils sont responsables de ce qu’ils regardent.
    Comment la plateforme veut rééquilibrer l’information

    Plutôt que de supprimer l’infox, YouTube préfère pousser d’autres types de contenus censés « équilibrer » l’information.

    YouTube essaye donc de pousser du contenu anti-fake news, mais refuse toujours le titre d’éditeur.

    #YouTube #fake_news #Plateforme

  • Cory Doctorow: Fake News Is an Oracle – Locus Online
    https://locusmag.com/2019/07/cory-doctorow-fake-news-is-an-oracle

    In the same way, science fiction responds to our societal ideomotor responses. First, the authors write the stories about the futures they fear and rel­ish. These futures are not drawn from a wide-open field; rather, they make use of the writer’s (and audience’s) existing vocabulary of futuristic ideas: robots, internets and AIs, spaceships and surveil­lance devices. Writers can only get away with so much exposition in their fiction (though I’ve been known to push the limits) and so the imaginative leaps of a work of fiction are constrained by the base knowledge the writer feels safe in assuming their readers share.

    So the writers write the stories. Then the editors choose some of those stories to publish (or the writers publish them themselves). Then readers choose some of those stories to elevate to the discourse, making them popular and integrating them into our vocabulary about possible futures, good and bad. The process of elevation is complicated and has a lot of randomness in it (lucky breaks, skilled agents, PR wins, a prominent reviewer’s favor), but the single incontrovertible fact about a SF work’s popularity is that it has captured the public’s imagination. The warning in the tale is a warning that resonates with our current anxieties; the tale’s inspiration thrums with our own aspirations for the future.

    Reading a writer’s fiction tells you a lot about that writer’s fears and aspira­tions. Looking at the awards ballots and bestseller lists tells you even more about our societal fears and aspirations for the future. The system of writers and readers and editors and critics and booksellers and reviewers act as a kind of oracle, a societal planchette that our hands rest lightly upon, whose movements reveal secrets we didn’t even know we were keeping.

    Which brings me to “fake news.”

    “Fake news” is a nearly useless term, encompassing hoaxes, conspiracy theories, unfalsifiable statements, true facts spoken by people who are seek­ing to deceive audiences about the identity of the speaker, and as a catch-all meaning, “I read a thing on the internet that I disagree with.”

    But for all that, “fake news” is useful in one regard: the spread of a given hoax, or unfalsifiable statement, or truth delivered under color of falsehood, or conspiracy, or objectionable idea undeniably tells you that the idea has caught the public imagination. The fake news that doesn’t catch on may have simply been mishandled, but the fake news that does catch on has some plausibility that tells you an awful lot about the world we live in and how our fellow humans perceive that world.

    The anti-vaxers have a point. Not about the safety of vaccines. I believe they are 100% wrong about vaccines and that everyone who can should get a full schedule of vaccines for themselves and their children.

    But anti-vaxers have a point about the process.

    About 20 years ago, Purdue Pharma introduced a new blockbuster pain­killer to replace its existing flagship product, MS Contin, whose patent had expired. The new drug, Oxycontin, was said to be safe and long-lasting, with effects that would last an incredible 12 hours, without provoking the fast adaptation response characteristic of other opioids, which drives users to take higher and higher doses. What’s more, the company claimed that the addictive potential of opioids was vastly overstated, citing a one-paragraph letter to the New England Journal of Medicine penned by Boston University Medical Center’s Dr. Hershel Jick, who claimed that an internal, un-reviewed study showed that opioids could be safely given at higher doses, for longer times, than had been previously thought.

    Purdue Pharma weaponized the “Jick Letter,” making it one of the most-cited references in medical research history, the five most consequential sentences in the history of NEJM. Through a cluster of deceptive tactics – only coming to light now through a string of state lawsuits – Purdue cre­ated the opioid epidemic, which has killed more than 200,000 Americans and counting, more than died in the Vietnam War. Purdue made $31 billion. The Sackler family, owners of Purdue, are now richer than the Rockefellers.

    The regulators had every reason to know something terrible was going on, from the small town pharmacies ordering millions of pills to the dead piling up on the streets of American cities and towns. The only way they could miss the opioid crisis and its roots in junk science was if they were actively seeking not to learn about it – and no surprise, given how many top regulators come from industry, and have worked at an opioid giant (and more: they are often married to pharma execs, they’re godparents to other pharma execs’ kids, they’re executors of pharma execs’ estates – all the normal, tight social bonds from the top players in concentrated industries).

    Ten years ago, if you came home from the doctor’s with a prescription for oxy, and advice that they were not to be feared for their addictive potential, and an admonition that pain was “the fourth vital sign,” and its under-treatment was a great societal cruelty, you might have met someone who said that this was all bullshit, that you were being set up to be murdered by a family of ruthless billionaires whose watchdog had switched sides.

    You might have called that person an “opioid denier.”

    #Fake_news #Cory_Doctorow #Science_fiction #Vaccins #Opioides

  • Les «deepfakes», ces vidéos hyper réalistes bientôt au service des fake news ?
    https://www.rtbf.be/info/medias/detail_les-deepfakes-ces-videos-hyper-realistes-bientot-au-service-des-fake-new

    Au départ, les deepfakes permettaient surtout à incruster le visage d’une star dans un film porno ou à faire dire des énormités à des personnalités politiques. Mais aujourd’hui, la technologie étant plus accessible, la crainte est qu’elle soit utilisée à des fins de propagande ou de chantage. Réticent à l’idée de prendre position à ce sujet, le PDG de Facebook Mark Zuckerberg vient finalement de déclarer qu’il serait "sensé que le réseau social se dote d’une politique spécifique en la matière".
    "Nos ennemis peuvent nous faire dire n’importe quoi, quand ils le souhaitent"

    Quoi de plus parlant qu’un exemple ? L’an dernier, une vidéo publiée par le média Buzzfeed a été massivement commentée. On y apercevait l’ex-président américain Barack Obama déclarer face à la caméra que “Donald Trump est un abruti total”. Barack Obama ferait-il une telle déclaration publiquement ? Probablement pas. Et en effet : c’est en réalité l’acteur Jordan Peele qui est derrière ce "deepfake" bluffant (voir ci-dessous).

    "Nos ennemis peuvent nous faire dire n’importe quoi, quand ils le souhaitent […] ’Nous devons être plus prudents avec ce que nous trouvons sur internet”, précise l’acteur.

    Arrêter de croire aux vidéos ?

    Dans un webdoc consacré aux deepfake, CNN s’interroge également sur l’impact que ces vidéos pourraient avoir sur notre rapport à la vérité. “L’audio et la vidéo apparaissent depuis plus d’un siècle comme le socle de la vérité", écrit CNN. Pourtant, "malgré des preuves vidéos, certains questionnent déjà des événements comme l’Holocauste ou les attentats du 11 septembre (...) le conspirationnisme va encore empirer (...) Le risque principal de ces deepfakes est qu’elles altèrent pour toujours la confiance”.

    Ainsi, explique Xavier de La Porte, chroniqueur de France Inter, "toute image circulant dans les réseaux deviendrait par essence suspecte, l’image numérique basculerait dans le monde du faux, de la fabrication, on n’y croirait plus du tout”. Et à l’inverse, "quelqu’un qui aura été filmé en train de dire ou faire quelque chose de répréhensible ou de gênant pourra toujours, en l’absence d’autre source, crier au ’deepfake’".

    #Deepfakes #Fake_news #Fake_Obama

  • Facebook , gangster aux 55 milliards de dollars Pia de Quatrebarbes - 21 Juin 2019 - Solidaire
    https://www.solidaire.org/articles/facebook-gangster-aux-55-milliards-de-dollars

    Un chiffre d’affaire de plus de 55 milliards de dollars en 2018 : en quinze ans, le réseau aux 2,2 milliards « d’amis » a engrangé un paquet de fric sur nos informations, quitte à s’asseoir sur quelques lois. Un « #gangster_numérique », a tranché le parlement britannique dans un rapport au vitriol... Comment le réseau social qui voulait « rendre le monde meilleur » en est-il arrivé la ?


    Photo Wachiwit /iStock

    En 2008, quand Facebook débarque en France, c’est la ruée sur les « murs ». On y voit alors un formidable moyen de communiquer, partager des photos, personne ne s’y informe encore, mais on y dissémine naïvement des informations aux quatre vents : scolarité, opinion, statut amoureux....et déjà on #like. Rien de grave a priori, #Mark_Zuckerberg, le concepteur du réseau souhaite alors « rendre le monde meilleur ». Pas « le conquérir, seulement rendre les gens plus ouverts et connectés ».

    L’histoire est typique des innovations du web. 4 ans auparavant, dans sa chambre de Harvard, à Boston, le petit génie veut rencontrer des filles, il crée alors avec des camarades un #trombinoscope des étudiants, « The Facebook ». Les universités américaines s’y branchent, puis les lycées et collèges – Il suffit d’avoir 13 ans et une adresse mail. Et bientôt le monde entier : 2,2 milliards d’utilisateurs, un chiffre d’affaires de 55 milliards de dollars, et le 3e site internet le plus visité.

    De ses utilisateurs, il sait à peu près tout !
    Mais 15 ans après, sa firme est devenue un « gangster numérique au dessus des lois ». La sentence est venue mi-février de la Commission du numérique, de la culture et des médias du #Parlement_britannique. Pendant 18 mois, elle a planché sur le scandale #Cambridge_Analytica. Une centaine de témoins ont été auditionnés, mais le PDG de Facebook, lui, a refusé... A la lecture des 110 pages, on comprend pourquoi et comment #Mark_Zuckerberg a choisi « le profit avant la vie privée ».

    Comprenons bien : Que Facebook sait-il de ses utilisateurs ? A peu près tout ! « La pratique la plus problématique, c’est la captation systématique de nos données personnelles », explique Sylvain Steer, enseignant en droit et membre de l’association la Quadrature du Net. Pour les « amis », ce sont donc les contenus publics, les messages privés sur #Messenger, la listes des personnes, pages et groupes suivis, la façon dont on utilise le service et accède aux contenus et les informations sur l’appareil (adresse IP, fichiers présents, mouvements de la souris, accès au GPS et à l’appareil photo).

    Pour ceux qui n’ont pas de compte, la firme de Palo Alto a la solution : le « profil fantôme ». Les #cookies, les boutons « J’aime » et « Partager » affichés sur de nombreux sites, transmettent à Facebook les informations de navigation... En bref, Facebook s’accorde un pouvoir de surveillance de masse.

    Et quand Mark Zuckerberg répète à tout va, « Facebook ne vend pas les données », le parlement Britannique répond : il ment. En cause, le modèle économique : « la gratuité » pour l’utilisateur contre la monétisation de ses données. « Facebook vend aux annonceurs des catégories de publicité. Ce sont l’ensemble des caractéristiques sociales, économiques et comportementales que le réseau associe à chaque utilisateur afin de mieux le cibler », explique Sylvain Steer. « Avec l’argument fallacieux que c’est pour nous proposer des contenus de la façon la plus adaptée : sous entendu la plus subtile ». Facebook est donc avant tout « une #régie_publicitaire », analyse Yann Le Pollotech, chargé des questions numériques au PCF. 98 % de son chiffre d’affaires mondial provient de la publicité ciblée.

    L’accès aux données des téléphones
    Le réseau ouvre aussi ses données à des développeurs tiers contre rémunération « 250 000 dollars de publicités par an », écrivait le PDG dans un mail obtenu par les parlementaires britanniques. Facebook nie, explique que l’idée n’avait jamais été appliquée. En 2015, pourtant il restreint l’accès sauf pour une liste de 150 entreprises, dont Apple, Amazon, Netflix, ou Airbnb ou encore le site de rencontre #Tinder. Et là, c’est open bar ! Et Zuckerberg écrivait : « je ne vois pas de cas où des données ont été diffusées de développeurs à développeurs et ont causé un réel problème pour nous »... Raté ! 3 ans après, Cambridge Analytica allait prouver le contraire. La société, basée à Londres, a siphonné les données de 87 millions de comptes. La cheville ouvrière de la campagne numérique de Donald Trump en 2016, a réalisé un micro ciblage des électeurs.

    Parmi les autres pépites du rapport : l’accès aux données des téléphones. En 2015, la nouvelle version de l’application sur mobiles #Android pouvait avoir accès au journal des appels téléphoniques. Un cadre de Facebook s’inquiète dans un mail interne que les utilisateurs s’en rendent compte. « Ça serait très risqué : des journalistes (..) qui écrivent des articles sur “Facebook qui utilise sa mise à jour pour espionner votre vie privée” », écrit le cadre. Car le but de la firme, est bel et bien de tout savoir.... Pour cela, il faut capturer l’utilisateur et faire en sorte qu’il y reste. Et le pousser à partager toujours plus d’informations.

    Les #Fake_News rentrent dans cette catégorie. C’est parce qu’elles sont beaucoup plus partagées que Facebook les laisse se propager... Le sociologue Dominique Cardon limite leur portée dans un livre salvateur (1). Pendant la campagne américaine, ces « fake news » ont été le plus consultées par les 10% des électeurs les plus convaincus, y écrit-il. Pour Yann Le Pollotech aussi, « il faut se méfier de ce concept. Depuis que les hommes communiquent, il y a de la #désinformation. Mais ici, il y a aussi une sorte de racisme social : les fake news ne concerneraient que les moins diplômés.. et les gilets jaunes ! A chacun ses Fakes news ; celle des #CSP_+ [cadres supérieurs, NdlR], c’est que les cheminots partent à la retraite à 50 ans avec un pont d’or. Mais ce n’est pas à Facebook de décider ce qui est de l’ordre du complot ou de la #vérité. La seule manière de les éviter : c’est la délibération, le débat démocratique ».

    Mais ce n’est pas le programme du géant. Lui, il a un autre objectif : « enfermer les internautes dans son monde, son univers. Plus que du gangster, cela relève de la #mafia, au sens où c’est aussi une organisation sociale », continue Yann Le Pollotech. Dans ce système, Facebook compte aussi la messagerie #Whatsapp (1,5 milliard d’utilisateurs) et le site de partage de photos et vidéos #Instagram (1 milliard). Et avec elles, toutes leurs données ! En 2014, au moment du rachat de Whatsapp pour 19 milliards de dollars, Zuckerberg promettait « de ne pas combiner les données des comptes Facebook et Whatsapp. Bien sûr, il l’a fait deux ans après », continue Sylvain Steer.

    Depuis les scandales continuent : le 20 mars, Facebook reconnaissait ne pas protéger les #mots_de_passe de centaines de millions de comptes. En février, d’autres applications donnaient accès à Facebook à leurs données : une application pour suivre son cycle menstruel, de sport, de santé... En septembre, 50 millions de comptes étaient piratées.

    Un modèle basé sur l’illégalité
    Que font les législateurs ? En Europe, ils ont franchi une première étape avec le Règlement général pour la protection des données ( #RGPD ), entré en vigueur le 28 mai dernier. Ce dernier impose des formes de consentement éclairé et libre. Mais « Facebook continue de violer les textes, car tout son modèle économique est illégal », rappelle Sylvain Steer. Une plainte collective a été déposée, la CNIL Irlandaise – là où est le siège social de Facebook en Europe- l’examine. Sauf qu’elle prend son temps. « Bien sûr, Facebook comme les autres, fait un lobbying pour retarder sa mise en conformité et prolonger son business », continue-t-il.

    Le Parlement britannique veut la fin du far west... Sauf que Facebook, comme #Google « à force de ne pas être réglementés, se sont imposés comme des autorités centralisatrices sur internet. Les États au lieu de le limiter, continuent à lui déléguer des pouvoirs ». La France en tête, « les gouvernements, demandent à ces plateformes géantes de devenir juges et modérateurs des contenus en ligne. Ce qui devrait être de l’ordre de la justice ou du service public », poursuit Sylvain Steer ... Ou comment les gouvernements donnent à Facebook les clés de la censure. Zuckerberg, lui, s’excuse, encore une fois, et promet « de changer ». En attendant, le nombre d’utilisateurs recule, les jeunes désertent la plateforme... Mais pour Instagram. Et restent ainsi dans le monde clos de Facebook.

    Culture numérique, Dominique Cardon, Les presses de Sciences Po, sorti en février, 19 euros, 428 pages
    (Article paru dans le journal L’Humanité -Dimanche du 28 mars 2019)

    #facebook #surveillance #internet #algorithme #censure #réseaux_sociaux #publicité #données #bigdata #profiling #manipulation #marketing #domination #web #voleur de vies #escroc #gangster #fric

  • A new deepfake detection tool should keep world leaders safe—for now - MIT Technology Review
    https://www.technologyreview.com/s/613846/a-new-deepfake-detection-tool-should-keep-world-leaders-safefor-no

    An AI-produced video could show Donald Trump saying or doing something extremely outrageous and inflammatory. It would be only too believable, and in a worst-case scenario it might sway an election, trigger violence in the streets, or spark an international armed conflict.

    Fortunately, a new digital forensics technique promises to protect President Trump, other world leaders, and celebrities against such deepfakes—for the time being, at least. The new method uses machine learning to analyze a specific individual’s style of speech and movement, what the researchers call a “softbiometric signature.”

    The team then used machine learning to distinguish the head and face movements that characterize the real person. These subtle signals—the way Bernie Sanders nods while saying a particular word, perhaps, or the way Trump smirks after a comeback—are not currently modeled by deepfake algorithms.

    In experiments the technique was at least 92% accurate in spotting several variations of deepfakes, including face swaps and ones in which an impersonator is using a digital puppet. It was also able to deal with artifacts in the files that come from recompressing a video, which can confuse other detection techniques. The researchers plan to improve the technique by accounting for characteristics of a person’s speech as well. The research, which was presented at a computer vision conference in California this week, was funded by Google and DARPA, a research wing of the Pentagon. DARPA is funding a program to devise better detection techniques.

    The problem facing world leaders (and everyone else) is that it has become ridiculously simple to generate video forgeries with artificial intelligence. False news reports, bogus social-media accounts, and doctored videos have already undermined political news coverage and discourse. Politicians are especially concerned that fake media could be used to sow misinformation during the 2020 presidential election.

    Some tools for catching deepfake videos have been produced already, but forgers have quickly adapted. For example, for a while it was possible to spot a deepfake by tracking the speaker’s eye movements, which tended to be unnatural in deepfakes. Shortly after this method was identified, however, deepfake algorithms were tweaked to include better blinking.

    “We are witnessing an arms race between digital manipulations and the ability to detect those, and the advancements of AI-based algorithms are catalyzing both sides,” says Hao Li, a professor at the University of Southern California who helped develop the new technique. For this reason, his team has not yet released the code behind the method .

    Li says it will be particularly difficult for deepfake-makers to adapt to the new technique, but he concedes that they probably will eventually. “The next step to go around this form of detection would be to synthesize motions and behaviors based on prior observations of this particular person,” he says.

    Li also says that as deepfakes get easier to use and more powerful, it may become necessary for everyone to consider protecting themselves. “Celebrities and political figures have been the main targets so far,” he says. “But I would not be surprised if in a year or two, artificial humans that look indistinguishable from real ones can be synthesized by any end user.”

    #fake_news #Deepfake #Video #Détection

  • « Macrongate » : quand des néonazis américains cherchaient à faire basculer la présidentielle française
    https://www.lemonde.fr/pixels/article/2019/06/15/macrongate-quand-des-neonazis-americains-cherchaient-a-faire-basculer-la-pre

    Deux ans après l’élection présidentielle française, de nouveaux documents montrent l’implication d’un groupe de suprémacistes américains dans des opérations de déstabilisation politique.

    #Alt_right #Fake_news #fachosphère

  • The “Drunk Pelosi” video shows that cheapfakes can be as damaging as deepfakes.
    https://slate.com/technology/2019/06/drunk-pelosi-deepfakes-cheapfakes-artificial-intelligence-disinformation.html

    The A.I.-generated “deepfake” video implicitly but unmistakably calls for Facebook to make a public statement on its content moderation polices. The platform has long been criticized for permitting the spread of disinformation and harassment, but it became particularly acute recently, when the company said that it would not remove the “Drunk Pelosi” video.

    On Thursday, the House Permanent Select Committee on Intelligence will hold an open hearing on A.I. and the potential threat of deepfake technology to Americans. Many technology researchers believe that deepfakes—realistic-looking content developed using machine learning algorithms—will herald a new era of information warfare. But as the “Drunk Pelosi” video shows, slight edits of original videos may be even more difficult to detect and debunk, creating a cascade of benefits for those willing to use these digital dirty tricks.

    The video, posted to a self-described news Facebook page with a fan base of about 35,000, depicted Nancy Pelosi slurring her words and sounding intoxicated. However, when compared with another video from the same event, it was clear even to nonexperts that it had been slowed down to produce the “drunken” effect. Call it a “cheapfake”—it was modified only very slightly. While the altered video garnered some significant views on Facebook, it was only after it was amplified by President Donald Trump and other prominent Republicans on Twitter that it became a newsworthy issue. The heightened drama surrounding this video raises interesting questions not only about platform accountability but also about how to spot disinformation in the wild.

    “Cheapfakes” rely on free software that allows manipulation through easy conventional editing techniques like speeding, slowing, and cutting, as well as nontechnical manipulations like restaging or recontextualizing existing footage that are already causing problems. Cheapfakes already call into question the methods of evidence that scientists, courts, and newsrooms traditionally use to call for accountability

    Many will never know the video was a fake, but the advantages it gave to pundits will echo into the future. It’s a recent example of what legal theorists Bobby Chesney and Danielle Citron call the liar’s dividend . Those wishing to deny the truth can create disinformation to support their lie, while those caught behaving badly can write off the evidence of bad behavior as disinformation. In a new survey from Pew Research Center, 63 percent of respondents said that they believe altered video and images are a significant source of confusion when it comes to interpreting news quality. That loss of trust works in favor of those willing to lie, defame, and harass to gain attention.

    As Daniel Kreiss and others have pointed out, people don’t just share content because they believe it. They do it for a host of reasons, not the least of which is simply because a message speaks to what users see as an implicit truth of the world even as they know it is not factually true. Researchers have found that creating and sharing hateful, false, or faked content is often rewarded on platforms like Facebook.

    The looming threat of the deepfake is worth attention—from politicians, like at the upcoming hearing; from journalists; from researchers; and especially from the public that will ultimately be the audience for these things. But make no mistake: Disinformation doesn’t have to be high tech to cause serious damage.

    #Fake_news #Deep_fake #Cheap_fake #Nancy_Pelosi #Médias_sociaux

  • Deepfakes have got Congress panicking. This is what it needs to do. - MIT Technology Review
    https://www.technologyreview.com/s/613676/deepfakes-ai-congress-politics-election-facebook-social

    In response, the House of Representatives will hold its first dedicated hearing tomorrow on deepfakes, the class of synthetic media generated by AI. In parallel, Representative Yvette Clarke will introduce a bill on the same subject. A new research report released by a nonprofit this week also highlights a strategy for coping when deepfakes and other doctored media proliferate.

    The deepfake bill
    The draft bill, a product of several months of discussion with computer scientists, disinformation experts, and human rights advocates, will include three provisions. The first would require companies and researchers who create tools that can be used to make deepfakes to automatically add watermarks to forged creations.

    The second would require social-media companies to build better manipulation detection directly into their platforms. Finally, the third provision would create sanctions, like fines or even jail time, to punish offenders for creating malicious deepfakes that harm individuals or threaten national security. In particular, it would attempt to introduce a new mechanism for legal recourse if people’s reputations are damaged by synthetic media.

    “This issue doesn’t just affect politicians,” says Mutale Nkonde, a fellow at the Data & Society Research Institute and an advisor on the bill. “Deepfake videos are much more likely to be deployed against women, minorities, people from the LGBT community, poor people. And those people aren’t going to have the resources to fight back against reputational risks.”

    But the technology has advanced at a rapid pace, and the amount of data required to fake a video has dropped dramatically. Two weeks ago, Samsung demonstrated that it was possible to create an entire video out of a single photo; this week university and industry researchers demoed a new tool that allows users to edit someone’s words by typing what they want the subject to say.

    It’s thus only a matter of time before deepfakes proliferate, says Sam Gregory, the program director of Witness. “Many of the ways that people would consider using deepfakes—to attack journalists, to imply corruption by politicians, to manipulate evidence—are clearly evolutions of existing problems, so we should expect people to try on the latest ways to do those effectively,” he says.

    The report outlines a strategy for how to prepare for such an impending future. Many of the recommendations and much of the supporting evidence also aligns with the proposals that will appear in the House bill.

    The report found that current investments by researchers and tech companies into deepfake generation far outweigh those into deepfake detection. Adobe, for example, has produced many tools to make media alterations easier, including a recent feature for removing objects in videos; it has not, however, provided a foil to them.

    The result is a mismatch between the real-world nature of media manipulation and the tools available to fight it. “If you’re creating a tool for synthesis or forgery that is seamless to the human eye or the human ear, you should be creating tools that are specifically designed to detect that forgery,” says Gregory. The question is how to get toolmakers to redress that imbalance.

    #Deepfake #Fake_news #Synthetic_media #Médias_de_synthèse #Projet_loi

  • L’historien Guillaume Mazeau : « Les fausses nouvelles attestent d’une fracture sociale très forte »
    https://www.mediapart.fr/journal/culture-idees/120619/lhistorien-guillaume-mazeau-les-fausses-nouvelles-attestent-d-une-fracture

    Historien, spécialiste de la Révolution française, Guillaume Mazeau analyse l’explosion des rumeurs à la chute de l’Ancien Régime comme « le prix transitoire à payer de la démocratisation et de la libre expression ». Dans un entretien à Mediapart, il met en garde contre « les sorties du droit ordinaire » qui visent à réprimer la parole populaire.

    #Histoire #fake_news,_Internet,_Révolution_française,_Liberté_d’expression,_rumeurs,_infox

  • Avancées en machine learning vidéo

    Un nouvel algorithme permet de créer des vidéos de type « deepfake » simplement en saisissant du texte. À ne pas mettre entre toutes les mains.

    Ajouts notoires :
    – mouvement des mains
    – ajout / remplacement de mots
    – traduction en direct
    – compléments sonores non prononcés
    https://www.youtube.com/watch?v=0ybLCfVeFL4


    https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-deepfake-ce-nouvel-algorithme-cree-videos

  • #mythe #fakehistory #débarquement 6 juin 1944. L’invasion des USA e...
    https://diasp.eu/p/9164057

    #mythe #fakehistory #débarquement

    6 juin 1944. L’invasion des USA en France débute. Les dirigeants occidentaux (dont l’Allemagne !) se retrouvent en Normandie pour commémorer le « D-day ». Mais passer les premières semaines de joie pour la population d’être débarrassé des nazis, nos « libérateurs » Yankees ont plutôt tendance à se croire en pays conquis, comme à chaque fois qu’ils viennent nous apporter les joie de leur démocratie. Se croyant dans un bordel à ciel ouvert et considérant les Françaises comme des filles de joies, comme leurs descendantes l’étaient aux USA, les crimes et viols se multiplieront, en Normandie particulièrement. Comble de cynisme : le vaincu est invité aux cérémonies (l’Allemagne), mais le pays qui aura indirectement à la réussite de cette invasion, la (...)

  • #ZAD. Comment les gendarmes ont remporté la bataille de #NDDL - Bretagne
    #Paywall : https://www.letelegramme.fr/bretagne/zad-comment-les-gendarmes-ont-remporte-la-bataille-de-nddl-02-06-2019-1

    Libéré & archivé : https://web.archive.org/save/https://www.letelegramme.fr/bretagne/zad-comment-les-gendarmes-ont-remporte-la-bataille-de-nddl-02-06-2019-1

    //edit : J’ai donc pris le temps de le lire plusieurs fois : je voulais faire petite analyse rapide sauf que je ne peux m’empêcher de chercher textes et références, partant du principe que ce qui me semble évident ne l’est pas pour tout le monde.

    Un an de préparation : il est donc bien question d’une stratégie de guerre, envisagée avec tous les angles d’attaques possibles, de la négociation pseudo diplomatique et ses inévitables trahisons (https://seenthis.net/messages/783834) à l’opération militaire, du chantage (https://seenthis.net/messages/690816) aux fausses informations, dont une campagne de #fakenews distillée très à droite (Valeurs Actuelles puis JDD https://seenthis.net/messages/653494) et ampliié par sont plus grand représentant, Christophe Castaner... Bref, tout est permis ! Et il faut reconnaitre que la plupart des coups ont porté, au fur et à mesure que les #NIMB ont négocié, puis les paysans & historiques, puis certain-e-s zadistes désormais (et logiquement) plus attaché à leur lieu de vie qu’à une lutte présentée comme terminée et gagnée.

    La gendarmerie et seulement la gendarmerie. : décidément le torchon brûle sévère avec la police. #Maintien_de_l'ordre & désordres !

    Le test de la « route des Chicanes » : le coup du test, en vrai, JAMAIS il n’aurait dû fonctionner. Sauf qu’une grande partie des légalistes et des historiques ne rêvaient que d’une chose : le retour à "l’état de droit" et pouvoir reprendre leur vie comme "avant", refusant d’admettre publiquement que ça ne serait possible qu’au prix d’une trahison de la partie "Contre son monde" de la lutte. De la Zad (https://seenthis.net/messages/660245) jusqu’au Mexique (https://seenthis.net/messages/662829) énormément de voix se sont exprimées pour dénoncer le passage en force de la décision de lâcher la route #D281 (qui allait de facto devenir une voie royale pour les militaires) et les légitimes (et finalement lucides) craintes de #trahison. En six ans et plusieurs périodes de "calme" (relatif) l’ensemble du mouvement n’avait jamais trouvé de consensus quand à la remise "en l’état" de ce petit tronçon de route, devenu, qui plus est, le symbole absolu de la liberté frondeuse locale face à César et capable de le faire un peu plier. Non, le véritable test était : qui aura suffisamment peur de la guerre pour céder ? Et c’est bien la raison qui a fait qu’un des premiers lieux détruits était les Cent Noms, pourtant partie prenante des négociations. Dès ce jour là, tout le monde pouvait comprendre, à défaut de l’avoir fait avant, qu’il n’y avait aucune négociation qui tenait, juste le besoin d’une énorme opération de communication pour ne pas perdre la face face aux zadistes. Et plus il y aurait de souffrances et de pleurs, mieux ça serait !

    De 200 à plus de 500 éléments violents. : "à l’ouest, des agriculteurs (hostiles mais non violents) ; à l’est, des éleveurs jugés non dangereux et, au centre, les « irréductibles »."
    L’auto-censure m’empêche encore d’être précise et complète sur ce passage méga-caricatural et, par conséquent faux, même le passage "aucun renfort d’élus et d’agriculteurs" qui prouve cependant l’ampleur de la docilité ressentie lors les négociations. J’espère juste qu’au fur et à mesure, des témoignages diront enfin combien celles et ceux qui ont pensé sincèrement pouvoir réussir avec la stratégie des négociations ont été floués et manipulés.
    Je passe sur toute la logistique et le fric, ... j’arrive juste pas trop à comprendre par quel accord les militaires ont pu squatter un ancien centre de formation ERDF...

    Pas d’unités sur zone la nuit. : partiellement faux vu le nombre d’allées et venues militaires et de barbouzeries recensées sur les comptes-rendus de Radio Klaxon (ils sont tous à retrouver à la fin de celui-ci par exemple https://web.archive.org/save/https://nantes.indymedia.org/articles/41509) ... mais là dessus, je ne suis clairement pas la mieux placée pour en parler.

    Trois phases chaque jour. : on sent bien toute la jubilation du chef militaire qui explique doctement, au dessus d’une carte, l’habilité théorique attendue... et contredite, concernant le sens du vent, par beaucoup de vidéos d’Armelle que ça faisait bien marrer de voir les GM s’auto-gazer régulièrement (la plupart de ses lives facebook ont été libérés et sauvegardés par là : https://peertube.parleur.net/video-channels/46c997d4-5ab7-4891-b018-eea452b3d904/videos )

    La stratégie : casser le moral des zadistes. : l’art d’édulcorer et minorer pour se rendre supérieur : ce ne sont clairement pas les destructions de barricades qui ont "cassé le moral" mais bien plus la guerre, les grenades, les multiples blessures, la peur, les dissensions aussi...

    Un adversaire « grégaire », « peu offensif » et « peu organisé ». : dans ce cas, et puisque les militaires étaient tellement bien renseignés, et donc le savaient même lorsqu’ils faisaient croire à des zadistes sur-entrainé-e-s telles des Viet Cong, pourquoi utiliser des armes de guerre ?

    Beaucoup de femmes. : bon j’avoue on est plusieurs copines a avoir kiffé ce passage qui fait remonter plein de chouettes souvenirs tant du côté réseaux de communication que du côté terrain : koeurs koeurs sur vous les soeurs <3 (même si j’ai du mal à pas y voir un machisme qui accepterait de donner un petit peu d’importance aux meuf passque c’est moins dangereux... bref !)

    Catapulte géante et atelier de fabrication d’engins explosifs. / Guérilla Vietcong. / Blindé en feu. /Drone capturé. : bon alors là on est en plein dans le récit militaire... et toute son inventivité sur certains faits pour justifier tout et son contraire dans les exactions militaires.

    – La catapulte géante, par exemple, c’est sans doute pour faire penser à celle, reconstitution historique, que j’avais photographiée et qu’ils ont utilisée pour leur fakenews plus haut, alors que je pense qu’il s’agit plutôt du panier de basket "amélioré" façon lance-pierre (et très galère d’emploi comme de déplacement) qu’on voit ici https://web.archive.org/save/_embed/https://pbs.twimg.com/media/DabN7PrX0AAreNe.jpg et vu l’effort nécessaire pour son fonctionnement

    ... bref, ça leur évite de parler des #cacapultes pour mieux faire passer les #pipitov sous l’appellation d’"acide" contribuant à entretenir ce fumeux mythe. Parce que j’ai beau bien connaître les milieux militants nantais et zadistes, et malgré toutes nos embrouilles, je n’ai JAMAIS entendu la moindre personne se venter d’avoir balancé de l’acide, ni même avoir vu ça, et à chaque fois que des "preuves" sont montrées, il s’agit soit de bouteilles de maalox+eau, soit... d’urine !
    – Les "800 engins explosifs" sentent sérieusement le pétard tout aussi mouillé quand on sait que les récup de grenades servaient à prouver à quel point la zad était gazée. Mais la mythologie paranoïaque est tellement entretenue que lorsqu’une partie de ces grenades, vides et non dangereuses, ont été déposées devant la préfecture de Loire-Atlantique, il y a eut intervention du déminage et deux militantes ont été inculpées, puis relaxées... puis le procureur a fait appel : elles passaient ce matin devant la cours d’appel : https://zad.nadir.org/spip.php?article6539 ... et en fait j’ai même pas envie de commenter la suite tant ça sent la mythologie militaire... surtout si c’est pour en arriver à :

    Pas d’armes à feu. : "il n’y avait pas de volonté réelle de tuer" : BAH OUAI ! Et idem dans les manifs ! En fait, ce que les militaires comme les policiers ne veulent pas comprendre, en partie grâce à ces mythes entretenus, c’est que la population, même "zadiste", est dans sa très très très grande majorité pacifiste. Et que tout ce à quoi ils font face, c’est simplement de la défense, de l’auto-défense, de la légitime défense, qui les défonce parfois, très rarement, mais jamais pour les tuer (sinon y’aurait des morts depuis longtemps !).

    Etc, etc, etc, tout ça pour en venir à dire que finalement, au delà du coût de 700 000 € pour cette opération, "Ce chiffre de 16 000 grenades en quelques mois (près d’un millier par jour au début de l’évacuation d’avril) correspond à ce qui a été tiré… en une seule journée, lors de la manifestation des gilets jaunes du 1er décembre 2018 (14 500 grenades, 1 300 tirs de LBD) !" et un décompte qui met sur le même plan les blessés : "430 blessés. Du côté des forces de l’ordre, 130 gendarmes ont été blessés (dont 4 graves), contre 300 pour les adversaires (traumas sonores, polycriblage et une main arrachée)" quand on sait que la tendance est à compter le moindre ongle retourné quel que soit le contexte de leur côté, et à très fortement minorer de l’autre, les médics le rappellent à chaque fois. Voir parmi d’autres : https://zadresist.antirep.net/article79-Bilan-medic-Blessures-causees-par-les-armes-de-la-genda ...

    Mais peu de chance que toutes ces nuances plus réalistes soient enseignées lors des super formations qui seront désormais proposées aux militaires.

    Si, de votre côté, vous souhaitez vous remettre en tête ce qui se savait sur zone et ce qui était compréhensible dès ce moment là, y’a cet enregistrement d’habitant-e-s qui est assez super : https://seenthis.net/messages/676097

  • IS fight: US-led coalition says it killed 1,300 civilians in Syria and Iraq - BBC News
    https://www.bbc.com/news/world-middle-east-48473979

    Depuis 2014,

    A UK-based monitoring group says the true toll is much higher, estimating up to nearly 13,000 civilian fatalities.

    [...]

    Last month, an investigation by activists concluded that more than 1,600 civilians were killed in coalition attacks on the Syrian city of Raqqa alone during a five-month campaign to oust IS in 2017.

    #Etats-unis #crimes #mensonges #fake_news #civils #victimes_civiles #Irak #Syrie