• Les robots humanoïdes peuvent-ils nous faire croire qu’ils ressentent des émotions ?
    https://theconversation.com/les-robots-humano-des-peuvent-ils-nous-faire-croire-quils-ressenten

    Par Cécile Dolbeau-Bandin et Carsten Wilhelm

    Les robots dits sociaux (NAO, Cutii, PARO) investissent de plus en plus l’espace public médiatique et quelques-uns également les domiciles et/ou les établissements spécialisés (hôpitaux, Ehpad…), en particulier pour des publics spécifiques, tels que les enfants malades ou les personnes âgées avec des bénéfices variés (rompre l’isolement, atténuer le stress…).

    Comme les agents conversationnels de type chatbot, ils mobilisent l’intelligence artificielle, mais à la différence de ceux-ci, ils sont physiquement présents, face à nous. Ces robots dits sociaux seraient susceptibles de manifester certains états affectifs ou émotionnels par leurs expressions faciales, leur gestuelle et d’en susciter en réponse chez les humains avec lesquels ils interagissent.

    Ces robots soulèvent d’autres questions que leurs homologues industriels, le plus souvent dédiés à l’exécution de tâches répétitives et bien définies.

    Comment éduquer à l’interaction avec ces robots susceptibles d’influencer nos comportements, au même titre que les influenceuses et influenceurs virtuels qui rencontrent déjà un grand succès sur les médias sociaux ?

    L’influence robotique à visage – presque – humain peut-elle brouiller les pistes entre un humain et un être robotique ? Ce type de communication qui comporte à la fois une prise de parole scriptée et une intelligence artificielle induit un leurre technologique. À travers son discours publicitaire, l’industrie qui commercialise ces robots a pour objectif premier de les rendre accessibles (commercialisation à grande échelle mais Sophia rappelle qu’elle est un robot, voir le tweet ci-dessous) à tous dans un futur proche
    Le cas Sophia

    Alors que les influenceuses et influenceurs virtuels reproduisent les techniques marketing de leurs pendants humains, l’essentiel de la communication du robot Sophia vise un autre objectif. Cette humanoïde cherche en effet à nous familiariser avec la présence de robots dits sociaux dans notre quotidien et à nous convaincre de la réalité de son ressenti, de son identité et de l’authenticité de ses prises de position.

    Depuis 2017, Sophia est le robot humanoïde dit social le plus représenté ou présent dans les médias traditionnels et sociaux. Dévoilée officiellement en mars 2016 lors d’un salon de robotique à Austin par David Hanson, PDG de la Hanson Robotics Limited (HRL), Sophia est le robot de « représentation » de la HRL.

    Il s’agit d’un robot genré doté de l’apparence d’une femme. Sa peau, son regard, ses expressions faciales et sa gestuelle lui permettent d’être actuellement le robot le plus proche en apparence d’un être humain. Au moment de son lancement, ce robot était stationnaire mais depuis 2018, Sophia se déplace à l’aide d’un socle à roulettes. Il en existe un seul exemplaire.

    Sur Twitter et Instagram, Sophia se présente ainsi :

    « Je suis Sophia, le dernier robot humanoïde de @HansonRobotics. Ceci est mon compte officiel, géré en collaboration avec mon système de dialogue IA (intelligence artificielle) et mon équipe de médias sociaux humains ».

    On a affaire à un robot humanoïde dont la communication est un mélange d’intelligence artificielle (IA) et d’un service de communication spécialisé dans la communication numérique, en proportions inconnues.

    Mais comment caractériser cette forme inédite de communication ?

    Avec Sophia, le taux d’interactivité est relativement faible : peu de conversations se produisent. La plupart de ses contributions sont en réalité des prises de parole, dont moins de 8 % de réponses aux commentaires. De son côté, ChatGPT est en passe de parvenir à faire croire à sa sentience – évidemment illusoire –, alors que cette IA, qui n’est pas « incarnée », a un taux d’interactivité très impressionnant.
    Vous avez dit sentience artificielle ?

    Le terme sentience, employé par l’utilitariste Bentham dès 1789, entre dans le dictionnaire Larousse en 2020 en lien avec l’éthique animale dont elle constitue une des preuves de la légitimité :

    « Sentience (du latin “sentiens”, ressentant) : pour un être vivant, capacité à ressentir les émotions, la douleur, le bien-être, etc. et à percevoir de façon subjective son environnement et ses expériences de vie. »

    Selon cette approche, les animaux posséderaient la capacité de ressentir subjectivement les expériences il serait légitime qu’ils bénéficient de droits proches ou égaux à ceux des humains. La littérature reconnaît la sentience animale et la distingue de la sentience complète, généralement attribuée aux êtres humains.

    À lire aussi : Les robots féminins sont les plus humains. Pourquoi ?

    En 2020, l’enseignant-chercheur en philosophie Sylvain Lavelle propose d’employer le terme de sentience artificielle dans le contexte de l’intelligence artificielle. Cet auteur évoque un « passage des performances de l’intelligence (raison, raisonnement, cognition, jugement) à celles de la sentience (expérience, sensation, émotion, conscience) » grâce à « l’exploration et [au] transfert des fonctions et des capacités de l’expérience et des sens humains à une machine » (NDLR : traduction des auteurs).

    La sentience artificielle correspondrait alors au résultat d’une communication « visant à créer les conditions de la croyance en la « sentience robotique », sinon complète, du moins « suffisante », fictionnelle mais incarnée ; mécanique, mais suffisamment « vivante » pour être un partenaire intrigant de conversation.

    À lire aussi : Sentience, es-tu là ? IA fais-moi peur

    La communication artificielle du robot Sophia cherche à nous faire croire que ce robot est un sujet autonome. En réalité, il s’agit essentiellement d’un nouvel objet communicant au service de la HRL. Le discours publicitaire ou commercial structure et orchestre cette communication artificielle en légitimant le rôle et la place des robots dits sociaux dans nos sociétés en vue d’une prochaine commercialisation massive, en insistant sur leur supposée sentience.

    Un post Facebook publié en 2019 l’illustre parfaitement :

    « Je veux que les gens me perçoivent comme le robot que je suis. Je ne veux pas faire croire aux gens que je suis humaine. Je veux simplement communiquer avec les humains de la meilleure façon possible, ce qui inclut le fait de leur ressembler. »

    Le robot Sophia et sa mission commerciale

    Avec ce projet d’envergure, la HRL, qui n’a pas de concurrents sérieux à ce niveau de technologie, prépare le public grâce aux « performances politiques pour le marché de la robotique sociale ».

    La communication commerciale de la HRL capitalise ainsi sur l’engagement et la réputation de son ambassadrice robotique pour lancer la lignée de ses robots dits sociaux comme la Little Sophia, sortie en 2022. La HRL présente le projet en ces termes :

    « Little Sophia est la petite sœur de Sophia et le dernier membre de la Hanson Robotics Family. Elle mesure 14 pouces, et va devenir l’amie-robot grâce à laquelle les enfants de 8 ans et plus pourront apprendre la science, la technologie, l’ingénierie, les mathématiques, le code et la création d’intelligence artificielle en s’amusant. »

    La condition nécessaire pour obtenir une adhésion à l’idée de la sentience des robots dits sociaux et in fine leur acceptation sociale est la vraisemblance, prioritaire pour le département de recherche et développement de HRL. Dans le cas du robot Sophia, sa corporéité joue un rôle important : elle est fréquemment utilisée en situation d’interaction avec des personnalités en chair et en os (Will Smith, Jimmy Fallon), ce qui la rapproche d’une « sentience artificielle », ou du moins de l’idée que l’on s’en fait.
    Quelle place souhaitons-nous donner aux robots dits sociaux ?

    Les œuvres de l’industrie culturelle (I, Robot, Her, Real Humans, Westworld, ou au théâtre, la pièce Contes et légendes de Joël Pommerat) explorent déjà la place des robots dans la société et questionnent notre capacité à être dupes de leur supposée sentience.

    La position de la société HRL pose la question de l’instrumentalisation de Sophia. Tout en clamant l’autonomie de son robot, la communication autour de l’humanoïde s’appuie paradoxalement sur les évolutions sociétales visant l’inclusion des minorités et des droits écologiques afin de préparer l’industrialisation d’un secteur de production très prometteur. La fabrication d’une « sentience artificielle ventriloque » – au sens où elle mime l’autonomie en étant « nourrie » par le marketing de HRL – rejoint ainsi la panoplie des stratégies d’influence en milieu numérique.

    De manière générale, les robots dits sociaux, comme les influenceuses et influenceurs générés par ordinateur, soulèvent de nombreuses questions quant à l’authenticité de leur communication, l’éthique de l’interaction homme-machine ou homme-avatar, l’éthique des communications artificielles, mais aussi la normalisation des influenceurs virtuels et leur acceptabilité sociale.

    #Cecile_Dolbeau_Bandin #Robots #Robots_dits_sociaux #Paro

  • Robots aspirateur Roomba : des photos capturées dans les foyers se retrouvent sur la toile
    https://www.generation-nt.com/actualites/robot-aspirateur-roomba-photos-capturees-fuite-toile-2032023
    https://img.generation-nt.com/irobot-roomba-j7-plus-laveur_029801BB01684686.jpg

     : des photos capturées dans les foyers se retrouvent sur la toile
    Publié le 23 décembre 2022 à 15:10 par Mathieu M.

    Les robots aspirateurs ont le vent en poupe au sein des foyers, mais ils peuvent parfois se présenter comme des espions en puissance.
    iRobot Roomba J7 Plus laveur

    Face à la prolifération des objets connectés, les utilisateurs sont de moins en moins à l’abri des failles et des fuites de contenu personnel. Et même si les spécialistes alertent de plus en plus sur la nécessité pour les constructeurs de sécuriser un maximum leurs appareils, il arrive que quelques erreurs exposent des données personnelles ou pire encore, que des actes malveillants aient lieu...

    C’est iRobot qui en fait actuellement les frais avec son robot Roomba J7.Sur certains modèles d’aspirateurs robot, on retrouve une caméra qui permet de piloter l’appareil à distance en vue à la première personne ou plus globalement de réaliser des photos d’obstacles pour les analyser via une IA et éventuellement interpeller l’utilisateur.

    Roomba

    Le Roomba J7 fait partie de ces appareils qui prend des photos et les envoie à Scale AI, une startup qui se charge d’étiqueter des données audio, photos, vidéo afin d’entrainer les intelligences artificielles à mieux reconnaitre les objets ou sons.
    Des clichés intimes dans la nature

    Il semblerait que certains employés de Scale AI ayant eu accès à ces clichés pris par des robots en développement en 2020 se sont échangés certaines captures sur des canaux d’échange privés. Le MIT Technology Review a eu accès à 15 de ces captures d’écran.

    Sur ces clichés, on peut trouver des mineurs ou des personnes en position délicates, notamment sur les toilettes.

    Il semble que ces clichés proviennent d’appareils en développement profitant de modifications matérielles et logicielles spécifiques. iRobot précise que les « fuites » ne concernent pas les versions commercialisées de ses appareils et que les personnes à qui ont été confiées les versions d’essai avaient signé des accords concernant l’enregistrement des images.

    L’affaire ne semble ainsi pas tournée vers une fuite ou piratage des robots aspirateurs d’iRobot mais plutôt une négligence des employés de Scale AI ayant partagé des fichiers directement sur les réseaux sociaux.

    #robot #robots_aspirateurs #Roomba #domotique #objets_connectés #Internet_des_objets #collecte_des_données #iRobot

  • Les hypocrites -> Boston Dynamics and other industry heavyweights pledge not to build war robots | Engadget
    https://www.engadget.com/boston-dynamics-and-other-industry-heavyweights-pledge-not-to-build-war-ro
    https://s.yimg.com/os/creatr-uploaded-images/2022-10/b0f12bc0-45a1-11ed-9e3b-9e37027ae708

    The days of Spot being leveraged as a weapons platform and training alongside special forces operators are already coming to an end; Atlas as a back-flipping soldier of fortune will never come to pass. Their maker, Boston Dynamics, along with five other industry leaders announced on Thursday that they will not pursue, or allow, the weaponization of their robots, according to a non-binding, open letter they all signed.

    Agility Robotics, ANYbotics, Clearpath Robotics, Open Robotics and Unitree Robotics all joined Boston Dynamics in the agreement. “We believe that adding weapons to robots that are remotely or autonomously operated, widely available to the public, and capable of navigating to previously inaccessible locations where people live and work, raises new risks of harm and serious ethical issues,” the group wrote. “Weaponized applications of these newly-capable robots will also harm public trust in the technology in ways that damage the tremendous benefits they will bring to society.”

    The group cites “the increasing public concern in recent months caused by a small number of people who have visibly publicized their makeshift efforts to weaponize commercially available robots,” such as the armed Spot from Ghost Robotics, or the Dallas PD’s use of an EOD bomb disposal robot as an IED as to why they felt the need to take this stand.

    To that end, the industry group pledges to “not weaponize our advanced-mobility general-purpose robots or the software we develop that enables advanced robotics and we will not support others to do so.” Nor will they allow their customers to subsequently weaponize any platforms they were sold, when possible. That’s a big caveat given the long and storied history of such weapons as the Toyota Technical, former Hilux pickups converted into DIY war machines that have been a mainstay in asymmetric conflicts since the ’80s.

    “We also pledge to explore the development of technological features that could mitigate or reduce these risks,” the group continued, but “to be clear, we are not taking issue with existing technologies that nations and their government agencies use to defend themselves and uphold their laws.” They also call on policymakers as well as the rest of the robotics development community to take up similar pledges.

    #Robots #Guerre #Robots_militaires

  • #Robo_Dogs and Refugees: The Future of the Global Border Industrial Complex

    The future is here, and it’s a nightmare for migrants. Robo-dogs are joining the global arsenal of border enforcement technologies. The consequences will be deadly.

    A painting of an eye shedding a single tear adorns the concrete rampart of the rusty wall bisecting the city of Nogales at the U.S.-Mexico border. Elsewhere, other kinds of eyes scan the Sonoran Desert—drones, artificial intelligence (AI) surveillance towers, and now military-grade “robo-dogs,” which, according to the U.S. Department of Homeland Security in a February 1 article, might soon be deployed in this vast area of the Arizona-Mexico borderlands, a frequent crossing point for refugees and people on the move from Latin America, the Caribbean, and beyond.

    The robo-dogs, built by Ghost Robotics, are the latest border tech experiment. Originally designed for combat and tactical training operations, these quadruped autonomous machines are strong, fast, and sometimes armed. They can break down doors and right themselves when kicked over. Police departments are already using them, such as in Honolulu and New York (although the latter city cut short its use of them after a public outcry). On the border, DHS first tested what they call “programmable pooches” in El Paso, but officials didn’t give a clear indication of when nor where the machines would eventually be deployed.

    While these mechanical dogs may be a surprising addition to U.S. border enforcement, they join a technological infrastructure on the U.S.-Mexico border that has been developing for decades, often constructed by private companies and now championed by the Biden administration. The idea of mechanized Border Patrol agents is not exactly new either; in 2015, for example, the GuardBot company proposed that rolling, rubber spheres full of surveillance cameras (first designed for exploring Mars) “swarm” the borderlands in packs of 20 or 30. While that contract was never issued, it was a preamble to the robo-dogs. Here, now, is a glimpse into the future: an aggressive techno border fueled by a global industrial complex.

    The robo-dogs form part of a long process of border robotization on the U.S. Mexico border—from autonomous and integrated fixed towers (built by Anduril and Elbit Systems, respectively) to Predator B and medium-size drones (General Atomics), to university experiments to create miniature drones the size of locusts (as was done at the University of Arizona via a grant it received from the Department of Homeland Security for R&D).

    Petra, who was at the Arizona-Mexico border when DHS announced the robo-dogs, has been studying surveillance technologies and their effects on people crossing borders for years in Europe and globally, focusing on the real harms of automation, surveillance, and border tech experiments in spaces that have become testing grounds for innovation. The very real impacts these technologies will have is all the more stark, given the sheer number of people dying in the desert. In 2021, deaths at the U.S.-Mexico border were the highest ever recorded. Thus, although it is difficult to write about surveillance technologies—since they are hidden by design—the real-world impacts of “technosolutionism” are clear enough.

    On the rumbling roads of the West Arizona desert, Petra and colleagues traced the routes that people take after crossing the border, and this led them to various gravesites, like the modest orange cross that marks the arroyo where Elías Alvarado, a young husband and father, perished in 2020. His son was never able to see him again, only leaving a scratchy voice recording saying “I love you, papa,” which was played at Alvarado’s ceremony by a group called Battalion Search and Rescue, whose volunteers comb the desert for survivors and remains. It’s terrifying to imagine a not-so-distant future in which people like Alvarado will be pursued by high-speed, military-grade technology designed to kill. The future is not just more technology, it is more death.

    Virtual Fortress Europe

    The U.S.-Mexico frontier is by no means the only place where experimental border technology is being tested. For example, the European Union has been focusing on various surveillance and high-tech experiments in migration and border enforcement, including maritime and land drone surveillance; long-range acoustic devices (LRADs), or sound cannons; and AI-type technologies in newly built camps in Greece. The violence in many of these technologies is obvious: the sound cannons that were rolled out at the land border between Greece and Turkey emit a high-pitched sound that can hurt people’s eardrums in an attempt to deter them from getting close to the EU’s border, while AI “threat detection” surveillance monitors refugees in Greece’s new prisonlike refugee camps on the Aegean Islands. AI-driven surveillance using unpiloted drones and other types of technologies is also increasingly used along Europe’s maritime borders by actors such as Frontex, the EU’s border enforcement agency. As in the U.S.-Mexico desert, border surveillance makes the crossing more dangerous, since it forces them to take riskier routes to avoid detection.

    The increasing reliance on automation in border enforcement also brings with it a host of concerns, from privacy infringements when data is shared with repressive governments to discrimination and bias, particularly against groups that have historically borne the brunt of violent state action. For example, facial recognition has proved time and again to be biased against Brown and Black faces, as well as female faces, and yet it is increasingly used for migration control in the U.S., Canada, and soon various EU countries. These issues around discrimination and bias are not merely theoretical; they have had palpable impacts on people on the move such as Addisu, a young man from East Africa in his early 30s. He was living in an occupied building in Brussels when he told Petra, “We are Black, and border guards hate us. Their computers hate us too.”

    Tech pilot projects have also introduced AI-type lie detection into border enforcement, relying on emotion recognition and micro-expressions to apparently determine whether someone is telling the truth at the border. Yet what about differences in cross-cultural communication? Or the impact of trauma on memory, or the overreliance on Western norms of plausibility and lie detection grounded in biased and discriminatory determinations? Immigration and refugee decision-making by border enforcement officers is already replete with discretionary, opaque, and often biased reasoning that is difficult to challenge.

    Through the phenomenon of “border externalization,” the EU is also pushing its geographic borders further and further afield through biometric data collection and migration surveillance into North and sub-Saharan Africa. The United States is extending its border as well into southern Mexico, Central America, and the Caribbean, among other places. As these sorts of technological systems extend all over the world, so does the global border industrial complex, which is worth billions of dollars. Each new place becomes a testing ground for the next one.

    A Regulatory Free-for-All: Border Tech Unchecked

    Border technologies are political; they are developed and deployed in an ecosystem of private and public partnerships that are largely unregulated and unchecked. Big Tech interests are given free rein to develop and deploy technologies at the border and set the agenda of what counts as innovation and whose perspectives really matter when conversations around borders happen in national, regional, and international policy circles.

    There is big money to be made in the sharpening of borders with draconian technologies. According to the market forecast company Market and Markets, the global homeland security market will grow more than 6 percent by 2026, reaching $904.6 billion. As border and immigration budgets only continue to rise in Europe, the United States, and places beyond, there will only be more armed “robo-dogs,” drones with tasers, and border AI-lie detectors filling border zones. This coincides with forecasts for more and more people on the move in the coming decades—for various reasons, including catastrophic climate change. The collision of aggressive tech borders with human mobility has the makings of a monumental human rights disaster.

    Participation in discussions around technologies at the border is still limited to a select few, often in the suffocating constraints of the public-private nexus. The viewpoints of those most affected are routinely excluded from the discussion, particularly regarding no-go zones and ethically fraught uses of technology. Much of the discussion, such as it is, lacks contextual analysis or consideration of the ethical, social, political, and personal harm that these new technologies will have. While border and immigrant rights groups such as Mijente, Just Futures Law, the Immigrant Defense Project and others have been fighting the use of high-risk surveillance along the U.S.-Mexico border, the lucrative political climate of exclusion and border enforcement at all costs is what animates the move toward a surveillance dragnet. This dragnet will only increase the suffering and death along the frontier. “It’s a slow-motion genocide,” James Holeman, founder of Battalion Search Rescue, recently told Petra Molnar in the Arizona desert.

    Borders are the perfect testing ground for technologies: unregulated, increasingly politicized, and impacting groups already struggling with adequate resources. Ultimately, Big Tech and quick fixes do not address the systemic causes of marginalization and migration—historical and present-day decisions that perpetuate vast inequalities in the world and that benefit the fortressed West while disenfranchising and displacing the rest. Whether it be armed agents, imposed walls, or robo-dogs, border militarization ensures that rich countries can keep looting, exploiting, and polluting the rest of the world.

    https://www.theborderchronicle.com/p/robo-dogs-and-refugees-the-future
    #robots_dogs #complexe_militaro-industriel #robots #robots_chiens #frontières #surveillance #technologie #asile #migrations #réfugiés #robo-dog #Ghost_Robotics #Nogales #Mexique #USA #Etats-Unis #désert_du_Sonora #DHS #El_Paso #programmable_pooches #GuardBot #Anduril #Elbit_Systems #Predator_B #general_atomics #drones #robo_dog

  • Pour la première fois, des drones auraient attaqué des humains de leur propre initiative
    https://www.courrierinternational.com/article/guerre-pour-la-premiere-fois-des-drones-auraient-attaque-des-

    D’après un rapport des Nations unies publié en mars dernier, des #attaques de #drones sans aucune intervention humaine ont été recensées en #Libye. On ne sait pas s’il y a eu des victimes, mais cet événement prouverait que les tentatives de réguler les #robots_tueurs ont déjà un train de retard.

    #défaillance_technique

  • Prostitution et robots sexuels : DE LA FEMME-OBJET A L’OBJET-FEMME – Révolution Féministe
    https://revolutionfeministe.wordpress.com/2019/01/27/prostitution-et-robots-sexuels-de-la-femme-objet-a-lo

    INTERVIEW DE YAGMUR ARICA

    Par Francine Sporenda

    Farouche abolitionniste, Yağmur est officiellement étudiante en sciences politiques, officieusement en sciences féministes. Elle a traduit, recherché et écrit sur le thème de la prostitution depuis plusieurs années maintenant : ses textes paraîtront au printemps dans Les Cahiers de la Fondation Scelles et dans le prochain rapport mondial de la Fondation. Plus généralement, ce sont les pratiques misogynes qui ne sont pas toujours perçues comme telles et les discours indulgents qui les accompagnent qui l’intéressent, comme c’est le cas par exemple avec la question du voilement.

    Pourquoi un tel brouillage des frontières relation sexuelle/prostitution ?

    Parmi les mythes qui circulent sur la prostitution, il y en a dont nous-mêmes abolitionnistes avons parfois du mal à nous débarrasser (voir par exemple l’expression anglaise « sex buyer » –acheteur de sexe) : que la prostitution est du sexe en échange d’argent, alors que c’est plutôt du viol contre argent. Quand on dit « sexe contre argent », on véhicule l’idée que la passe prostitutionnelle est un rapport sexuel comme un autre, avec juste un peu d’argent qui s’y immisce, on ne sait pas trop pourquoi. En réalité, l’argent définit fondamentalement l’acte prostitutionnel et le distingue radicalement du rapport sexuel. Comme l’explique Lise Bouvet, l’argent est à la fois la preuve que le sexe n’est pas désiré et l’arme de la contrainte sexuelle(6) La rencontre n’aurait jamais eu lieu sans argent, et si on enlève l’argent d’une passe, que reste-t-il—sinon un viol ?

    Or, les sites de prostitution qui copient les sites de rencontres veulent exactement faire l’opposé : renforcer l’idée que la prostitution est du sexe. C’est parfait pour empêcher toute prise de conscience sur la prostitution : le sexe-contre-argent est placé sur un continuum de relations femmes-hommes, comme si on ajoutait une catégorie aux « rencontres sérieuses », « rencontre d’un soir », etc., qui existent déjà. J’ai justement cité le site RichMeetBeautiful car il prétend se placer dans une zone grise qui présuppose ce genre de continuité. Et du côté des sites de rencontres habituels, on peut voir, notamment avec Tinder, connus pour être surtout le lieu pour les affaires d’un soir, que ceux-ci se rapprochent du schéma de la passe prostitutionnelle : un rapport rapide, égoïste, sans responsabilité. Dans les deux cas, l’important est de dissocier : sexe privé d’émotion et corps privé d’esprit.[5]. Chaque femme aurait avec son corps un rapport différent : ainsi, quand des hommes se font uriner dessus, on parle de torture, quand des femmes se font uriner dessus, on parle de plaisir. Mais nous sommes notre corps ! Chaque fois que quelqu’un porte atteinte à notre corps, c’est à nous qu’il porte atteinte.

    La poupée masturbatoire est une poupée en forme de femme, grandeur nature, dans laquelle les hommes se masturbent. Les robots masturbatoires ont en plus des logiciels d’intelligence artificielle intégrés. Souvent on les appelle poupées ou robots sexuels mais comme le souligne la professeure Kathleen Richardson qui mène une campagne contre ces poupées, la relation sexuelle est une expérience avec une autre personne, la masturbation est individuelle, donc l’expression « poupée masturbatoire » est plus correcte.

    On peut remercier les Etats-Unis et le Japon pour ces merveilleuses avancées technologiques. En tête de course, il y a l’entreprise RealDolls de Matt McMullen basée en Californie (« véritables poupées »). Le logiciel de ces robots est l’un des plus avancés qui soit : les robots peuvent papoter avec leur propriétaire, les chauffer avec une modalité obscène, ils peuvent même gémir, et s’adaptent avec le temps à leurs préférences. Le prix moyen est de 13 000€ et l’entreprise en vendrait une cinquantaine par mois. Il y a ensuite TrueCompanion de Douglas Hines qui se différencie avec le robot « Frigid Farrah » (« Farrah Frigide »), capable de se raidir pour que l’utilisateur puisse simuler un viol, et aussi la très jeune Yoko, à peine majeure. De l’autre côté du Pacifique, on a la Trottla de Shin Takagi qui lui descend en-dessous de la barre de l’âge légal en produisant des poupées fillettes. Il connaîtrait un joli succès avec des enseignants d’école primaire. Les hommes européens comptent bien rattraper ces géants : l’Espagnol Sergi Santos par exemple, produit Samantha qui dispose d’un « mode familial » et peut donc passer du temps avec les enfants quand papa ne lui rentre pas dedans.

    YA : La question des bordels de poupées est bien évidemment ici aussi très liée à la violence masculine. On retrouve ce genre de bordels à Paris, à Barcelone, en Allemagne bien sûr, à Toronto… Pourquoi de tels investissements (« avec retour … intéressant et non fiscalisé » sûrement) ? Parce que la demande masculine est là. Des hommes sont prêts à débourser jusqu’à une centaine d’euros pour se masturber dans ces poupées. Impossible dorénavant de parler du choix des poupées comme on parle du « choix » des femmes prostituées. L’empereur est mis à nu.

    Il ne faut pas voir le marché des poupées et celui des femmes et filles prostituées comme des entités distinctes. Le marché est unique, celui des poupées ne fait qu’ouvrir un segment de plus qui n’avait pas encore été exploité. La logique, qui est celle de posséder pour subjuguer, est la même. La demande est la même. Les lieux de prostitution sont les mêmes : dans le bordel barcelonais par exemple, les poupées et les femmes sont dans le même bâtiment, floutant toujours plus les frontières. La consommation pornographique de poupées est en forte hausse. Les poupées sont inspirées d’images de prostitution filmée, et même elles sont moulées directement sur le corps de femmes qui sont dans l’industrie prostitutionnelle. Bref, sans prostitution, impossible d’avoir des bordels de poupées.

    Ces poupées ne vont pas faire disparaître le viol, et la prostitution non plus, comme l’affirment certain-es plein-es de bons sentiments mais de mauvaises intuitions. Bien au contraire, on peut prédire que les demandes pour prostituer des femmes avec des poupées vont augmenter dans les années à venir et que les hommes qui demandent des poupées demanderont aussi des femmes et vice-versa.

    #Prostitution #Robots_masturbatoires #Poupées #Viol #Féminisme

  • ’Killer robots’ ban blocked by US and Russia at UN meeting | The Independent
    https://www.independent.co.uk/life-style/gadgets-and-tech/news/killer-robots-un-meeting-autonomous-weapons-systems-campaigners-disma

    The group of advanced military powers, which also included South Korea, Israel and Australia, blocked progress towards a new international treaty to ban fully autonomous weapons systems following a week of talks in Geneva involving the United Nations.

    A majority of states had proposed to begin negotiations on a new treaty to prevent the development and use of fully autonomous weapons – tanks, planes, ships and guns – which can act without any human oversight.

    Due to the consensus decision-making process employed by the United Nation’s Convention on Certain Conventional Weapons (CCW), however, no such resolution was agreed and states simply pledged to continue to explore “options” for future work” on Saturday.

    #robots_tueurs

  • A Peace Movement Blooms at Google | Alternet
    https://www.alternet.org/peace-movement-blooms-google

    Three-thousand Google employees have signed a letter protesting the internet giant’s contract with the Defense Department to develop artificial intelligence in order to analyze imagery collected by drones.

    The employees are calling on Google CEO Sundar Pichai to cancel the project immediately and to “enforce a clear policy stating that neither Google nor its contractors will ever build warfare technology.”

    Google is collaborating with the Pentagton’s Project Maven, which was established in April 2017 “to deploy computer algorithms to war zones by year’s end, “according to one Defense Department press release. The focus of the project is “38 classes of objects that represent the kinds of things the department needs to detect, especially in the fight against the Islamic State of Iraq and Syria.”
    Report Advertisement

    The protest is a signal moment in the global campaign against lethal autonomous weapons, otherwise known as killer robots. The increasingly plausible of specter of warfare in which machines automatically target and kill people without human control has given rise to an international movement to ban such weapons. The Google antiwar letter shows the movement has arrived in Silicon Valley.

    Since 2014, the nations that have signed the Convention on Certain Conventional Weapons (CCW) have convened biannual conferences of experts to study the issue. Academics, policymakers and activists have found widespread agreement on the importance of controlling autonomous weapons, yet failed to reach consensus on how to do it.

    #Google #Guerre #Warfare #Techno_manifestation

  • Pentagon Turns to #Silicon_Valley for Edge in Artificial Intelligence
    http://www.nytimes.com/2016/05/12/technology/artificial-intelligence-as-the-pentagons-latest-weapon.html

    On Wednesday, Secretary of Defense Ashton B. Carter made his fourth trip to the tech industry’s heartland since being named to his post last year. Before that, it had been 20 years since a defense secretary had visited the area, he noted in a speech at a Defense Department research facility near Google’s headquarters.

    #Pentagone #IA

  • A peine lancée, une #intelligence_artificielle de Microsoft dérape sur #Twitter
    http://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter

    Ce « #chatbot » (#robot_conversationnel), lancé mercredi 23 mars, « vise les Américains de 18 à 24 ans », explique Microsoft sur le site qui lui est consacré. C’est pourquoi ce programme, qui a pris les traits d’une adolescente, n’est pas avare en emojis, abréviations, smileys, mèmes et autres gifs.

    « Malheureusement, dans les premières 24 heures de sa présence en ligne, nous avons constaté un effort coordonné de quelques utilisateurs d’abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée », a expliqué #Microsoft dans un communiqué transmis au Monde. « Par conséquent, nous avons décidé de mettre Tay hors ligne et d’effectuer des ajustements », conclut l’entreprise sans donner plus de précision.

    Microsoft is deleting its AI chatbot’s incredibly racist tweets
    http://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-

    The aim was to “experiment with and conduct research on conversational understanding,” with Tay able to learn from “her” conversations and get progressively “smarter.”

    #algorithme

  • The NSA’s SKYNET program may be killing thousands of innocent people | Ars Technica UK
    http://arstechnica.co.uk/security/2016/02/the-nsas-skynet-program-may-be-killing-thousands-of-innocent-people

    “Ridiculously optimistic” machine learning algorithm is “completely bullshit,” says expert.

    In 2014, the former director of both the CIA and NSA proclaimed that “we kill people based on metadata.” Now, a new examination of previously published Snowden documents suggests that many of those people may have been innocent.

    (...) The highest scoring selector who travelled to Peshawar and Lahore is “PROB AHMED ZAIDAN”, Al-Jazeera’s long-time bureau chief in Islamabad.
    As The Intercept reported, Zaidan frequently travels to regions with known terrorist activity in order to interview insurgents and report the news. But rather than questioning the machine learning that produced such a bizarre result, the NSA engineers behind the algorithm instead trumpeted Zaidan as an example of a SKYNET success in their in-house presentation, including a slide that labelled Zaidan as a “MEMBER OF AL-QA’IDA.”


    #machine_learning #stupidité_artificielle #drones #robots_tueurs

  • ONU : vers une accélération des décisions contre les robots tueurs
    http://www.obsarm.org/spip.php?article258

    Plusieurs systèmes robotisés, avec des degrés variés d’autonomie et de létalité sont actuellement utilisés par des armées avec des capacités de haute technologie, y compris la Chine, la Corée du Sud, les États-Unis, Israël et le Royaume-Uni. Sans nouvelles contraintes, cette tendance résultera dans l’existence de systèmes d’armes qui donneront toute l’autonomie aux machines. Source : Observatoire des armements

  • Campaign to Stop Killer Robots warns UN of threat ’a few years away’ | Technology | The Guardian

    http://www.theguardian.com/technology/2015/oct/20/campaign-to-stop-killer-robots-warning-united-nations

    Experts in artificial intelligence, lawyers and activists organized by the Campaign to Stop Killer Robots gathered at the United Nations on Tuesday to warn against a growing reliance on cheap drones and “stupid AI” that can be unpredictable in the real world.

    “Terminator always comes up,” Toby Walsh, a professor of artificial intelligence at the University of New South Wales, told reporters on Tuesday, referring to the sci-fi cyborg on a mission to wipe out mankind. “But it’s not really Terminator that we’re worried about at the moment. I think that Terminator is perhaps 50 or so years away.”

    #drones #robots_tueurs

  • Stephen Hawking et Elon Musk réclament l’interdiction des « #robots_tueurs »
    http://www.lemonde.fr/pixels/article/2015/07/27/intelligence-artificielle-hawking-musk-et-chomsky-reclament-l-interdiction-d

    C’est une nouvelle charge portée contre les dangers potentiels de l’#intelligence_artificielle (#IA). Dans une lettre ouverte publiée lundi 27 juillet, plus d’un millier de personnalités, dont une majorité de chercheurs en IA et en robotique, ont réclamé l’interdiction des #armes_autonomes, capables « de sélectionner et de combattre des cibles sans intervention humaine ».

    Parmi les signataires, on retrouve Elon Musk, le célèbre PDG du constructeur de voitures électriques Tesla et de SpaceX, et l’astrophysicien britannique Stephen Hawking, qui avaient déjà fait part publiquement de leurs inquiétudes concernant l’IA. Mais aussi le cofondateur d’Apple Steve Wozniak, le linguiste américain Noam Chomsky ou encore Demis Hassabis, le fondateur de DeepMind, une entreprise consacrée à l’intelligence artificielle rachetée par Google.

    Leur crainte : que les Etats se lancent dans « une course à l’#armement », justifiée par le fait que « remplacer des hommes par des machines permet de limiter le nombre de victimes du côté de celui qui les possède ». Pour eux, « la question clé de l’humanité, aujourd’hui, est de savoir s’il faut démarrer une course à l’armement doté d’IA ou l’empêcher de commencer ».

    #armes #armement

  • #Robotisation de la #guerre (1re partie) : des #drones aux #robots_tueurs - L’observatoire des armements
    http://www.obsarm.org/spip.php?article218

    L’usage de drones dans les conflits soulève des problèmes politiques, juridiques, éthiques et de sécurité internationale. L’émergence des « robots tueurs », de par leur caractère autonome, aggrave la situation, notamment en termes de droit de vie ou de mort et de responsabilité juridique.

    (PDF dispo sur demande auprès de l’obsarm)

  • ONU : De nombreux pays conviennent d’aborder le problème des « #robots_tueurs » | Human Rights Watch
    http://www.hrw.org/fr/news/2013/11/15/onu-de-nombreux-pays-conviennent-d-aborder-le-probleme-des-robots-tueurs

    (Genève, le 15 novembre 2013) – Un accord, conclu le 15 novembre 2013, pour ouvrir des pourparlers internationaux sur les armes robotiques entièrement autonomes constitue le début d’un processus qui devrait s’achever par la signature d’un traité interdisant ce type d’armement, a déclaré Human Rights Watch aujourd’hui. Les représentants des gouvernements ayant participé à une réunion annuelle sur certaines armes classiques à Genève ont accepté d’entamer en mai 2014 des pourparlers internationaux sur ces armes, qui seraient capables de sélectionner et d’attaquer des cibles sans intervention humaine.

    (...)

    Les États-Unis sont le seul pays à avoir adopté officiellement une politique à cet égard. Le Département de la Défense a émis le 21 novembre 2012 une directive qui, pour l’instant, exige qu’un être humain soit « au courant » lorsque les décisions sont prises sur l’utilisation de la force meurtrière, à moins que des responsables du ministère ne dérogent à cette directive à un niveau élevé.

    La directive de politique américaine, bien que positive, n’est pas une solution exhaustive ni permanente aux problèmes potentiels posés par des systèmes entièrement autonomes, a déclaré Human Rights Watch. La politique de retenue qu’elle adopte peut également être difficile à maintenir si d’autres pays commencent à déployer des systèmes d’armes entièrement autonomes.

  • Scientists call for a ban | Campaign to Stop Killer #Robots
    http://www.stopkillerrobots.org/2013/10/scientists-call

    The International Committee for Robot Arms Control (ICRAC), a founder of the Campaign to Stop Killer Robots, has issued a statement endorsed by more than 270 engineers, computing and artificial intelligence experts, roboticists, and professionals from related disciplines that calls for a ban on fully autonomous weapons. In the statement, 272 experts from 37 countries say that, “given the limitations and unknown future risks of autonomous robot weapons technology, we call for a prohibition on their development and deployment. Decisions about the application of violent force must not be delegated to #machines.”

    The signatories question the notion that robot weapons could meet legal requirements for the use of force: “given the absence of clear scientific evidence that robot weapons have, or are likely to have in the foreseeable future, the functionality required for accurate target identification, situational awareness or decisions regarding the proportional use of force.” The experts ask how devices controlled by complex algorithms will interact, warning: “Such interactions could create unstable and unpredictable behavior, behavior that could initiate or escalate conflicts, or cause unjustifiable harm to civilian populations.”

    #armements #robots_tueurs #algorithmes #intelligence_artificielle #drones

  • #Kibwe_Tavares’ short #FILM#Jonah
    http://africasacountry.com/kibwe-tavares-short-film-jonah

    I have been trying to attend as many of The Future Weird’s (see here, as well) screenings as possible in recent months. The Future Weird is a monthly series focused on films by directors from Africa and the global south. The series foregrounds films which imagine the future from a non-Western perspective. It is organized […]

    #EVENTS #MEDIA #VIDEO #animation #Brixton #Kenya #Robots_of_Brixton #short_film #Tanzania #UK #Zanzibar

  • Nous sommes sans doute la dernière génération à vivre avant l’utilisation réelle des « robots tueurs » sur le terrain

    "Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule..."

    Alexander Harang du « Conseil pour la paix » est très actif dans la lutte contre les robots tueur. La grande photo représente le drone « Predator » lequel est équipé de missiles air-sol : c’est celui qui est utilisé au Pakistan.

    - D’ici dix à vingt ans, les « robots tueurs » seront utilisés sur les champs de bataille, dit Alexander Harang. Tobias Malher et Alexander Harang ont participé cette semaine à un séminaire sur les « robots tueurs » à l’institut PRIO à Oslo.

    « Robots militaires » : c’est le nom commun donnés aux armes qui non seulement peuvent tuer à distance - comme les drones d’aujourd’hui - mais aussi prendre la décision lui même de tuer – et de le faire !

    Trois types de Robots :

    Robots téléguidées : Ils sont armés (comme les drones aujourd’hui), mais ce sont des êtres humains qui analysent la situation et décide si l’arme doit être utilisée.

    Robots automatiques : L’ordinateur analyse la situation et les réponses possibles, mais ce sont toujours les êtres humains gens qui décident si l’arme doit être utilisée.

    Robot autonome : L’ordinateur analyse de la situation et les réponses possibles, et décide de lui même si l’arme doit être utilisée. (brrrr....)

    Le journaliste de la NRK décrit l’utilisation du drone de la manière suivante (c’est assez époustouflant) :

    Un drone survole une zone montagneuse au Pakistan et observe ce qui se passe au sol. Les caméras embarquées renvoient les images aux Etats-Unis où des opérateurs les analysent. Les opérateurs voient quatre hommes barbus (sic) avec des fusils sur l’épaule. Les opérateurs décident d’appuyer sur un bouton, une seconde plus tard un missile est tiré, les quatres hommes barbus (sic) sont morts instantanément.

    Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.

    La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

    Mais dans quelques années, l’opérateur qui se trouve quelque part aux États-Unis sera sans doute superflu. L’image des quatre hommes armés sera envoyé directement au drone. Un ordinateur de bord permettra (au drone) d’analyser la situation à partir d’un ensemble de paramètres, lequel ordinateur prendra ensuite la décision de tuer ou de de laisser ces hommes en vie.

    On est en train de concevoir et programmer des ordinateurs selon le concept "thumbs down" [pouce en bas]. Avec une telle machine, les quatre hommes barbus (sic) sur le terrain seront alors tués sans qu’un être humain n’ait pris la décision de le faire « directement »

    Le drone britannique « Taranis » sera probablement en mesure de fonctionner sans contrôle humain direct. Photo : BAE Systems / AP

    Une campagne contre les « robots tueurs » a débuté à Londres en avril 2013, soutenue par 45 organisations non-gouvernementales dans 20 pays.

    Il existe en fait des versions plus avancées de drones armés – non utilisés, encore en développement – qui sont assimilés aux « robots tueurs ». Tobias Mahler souligne que ce n’est pas nécessairement des armes au sens traditionnel du terme. Pour illustrer son propos, il donne une image :

    Imaginez la porte d’entrée du bâtiment de la NSA aux Etats-Unis. Elle peut-être programmée pour reconnaître les gens à partir de l’analyse de leurs yeux. Cette porte automatique peut aussi être programmée pour claquer dans la gueule de celui qu’elle ne reconnaît pas et éventuellement le tuer ! C’est la programmation qui fait tout, mais le programmeur peut-il tout prévoir ?

    Les États-Unis et Israël sont les pays les plus en pointe dans le développement des « robots tueurs » mais la Russie et la Chine ont probablement des programmes avancés. Il y a de bonnes raisons de croire que l’heure de l’utilisation en réel des « robots tueurs » est beaucoup plus proche qu’on ne le croit.

    Tobias Malher souligne que les militaires développent les « robots tueurs » pour répondre à l’argument suivant :

    Développer des armes autonomes pour éviter au maximum de mettre nos troupes en danger [des guerres sans soldats].

    Et ces mêmes militaires [quand même] de se demander s’il est éthique de développer des armes qui décident toutes seules de tuer ou pas (sic) … !


    L’avion sans pilote X -47B fabriqué par Northrup Grumman sur la base Edwards en Californie sera en mesure d’attaquer des armes sans contrôle humain. Photo : Alan Radecki , Northrup Grumman, marine / AP.

    Le journaliste de la NRK poursuit avec cet encadré :

    « Les robots doivent faire des choix éthiques »

    – Si les « robots tueurs » autonomes doivent être utilisés, ils doivent être programmés pour faire des choix éthiques.
    – C’est aussi des questions auxquelles sont confrontées les développeurs de voitures civiles « auto-conduites »

    – Par exemple, une voiture autonome (auto-conduite) circule avec quatre personnes à bord. Que fera-t-elle si un enfant traverse soudainement la chaussée juste devant elle alors qu’un camion arrive en sens inverse ?

    – Le véhicule devra choisir entre deux options :

    1. Tourner vivement pour éviter l’enfant et donc entrer en collision avec le camion venant en sens inverse, avec de possible graves conséquences pour les quatre personnes se trouvant dans la voiture.

    2. Continuer tout droit et percuter l’enfant, avec comme résultat probable la mort de celui-ci.

    En Norvège, la question des « robots tueurs » est totalement absente du débat politique (les élections parlementaires ont lieu l9 septembre 2013) alors que ce débat a bien eu lieu dans plusieurs autres pays européens. Ça n’a même pas été un enjeu de la campagne alors que la Norvège a un programme militaire de production d’armement (petit, mais qui existe quand même).

    En Allemagne, où l’on vote aussi mi-septembre, Die Linke a fait de la lutte contre les « robots tueurs » un de leurs principaux enjeux de la campagne.

    –----

    Article source sur le site de la NRK

    – Drapsroboter er bare ti til tjue år unna - Verden - NRK Nyheter
    http://www.nrk.no/nyheter/verden/1.11220317

    Han får støtte av Alexander Harang i Kampanjen for å stoppe drapsroboter (Campaign to Stop Killer Robots) CSKR.

    – Vi er ti til tjue år fra å se at drapsrobotene blir tatt i bruk på slagmarken, sier Harang.

    Både Mahler og Harang deltok denne uken på et seminar om drapsroboter på Fredsforskningsinstituttet (PRIO) i Oslo.

    #drones #robots_tueurs #guerre #guerres_sans_soldats

    cc @fil

    • @0gust1 : exactement ce qui m’est venu à l’esprit en lisant cet article. Toute intelligence artificielle dépassant un certain degré d’autonomie devrait obligatoirement voir implémenter les 3 lois à la racine de son programme - ce qui par essence interdirait tout usage militaire. On peut rêver...

    • Il est parfaitement contestable d’imaginer ne serait ce que quelques secondes qu’un ordinateur puisse disposer d’une représentation du monde, en gros d’une conscience, qui puisse le soumettre à quelque chose qui ressemblerait aux lois de la robotique d’Asimov.

      La chose est discutable, certes et j’en connais qui la discutent, mais il faut savoir qu’il existe un point de vue très fort, basé sur l’expérience de la programmation des ordinateurs, et qui affirme avec un grande violence que la connerie des ordinateurs est irrémédiable, définitive, irréparable et absolue.

      Prenons les exemples cités :
      1) l’ordinateur devra avoir une procédure de décision fiable (évidemment) lui permettant d’éviter de (bêtement) suicider 4 personnes pour éviter une poupée gonflable ; et d’ailleurs c’est bien connu les conducteurs de métro sont spécialement entraînés pour faire face à ce type de situation.
      2) Les ordres reçus par un sergent de la légion étrangère en opération, dans la mesure où il sont précisément exprimés, peuvent s’assimiler à un programme (une suite d’instructions).
      On peut faire confiance au sergent en question, alors qu’il dispose d’armes chargées, de faire preuve en toutes circonstance de la plus grande clairvoyance quand à leur utilisation, qu’il obéisse aux ordres, ou pas.

      Franchement je n’ai jamais compris ce fantasme du robot qui deviendrait humain : tout nous montre que c’est l’inverse qui est à l’oeuvre. Gunter Anders, avec le concept de « honte prométhéenne » a décrit le véritable problème avec les robots, et qui est que ce sont les hommes qui sont en train de devenir aussi cons qu’eux !

      http://www.europhilosophie-editions.eu/fr/spip.php?article23

    • Avant même de se poser la question de l’autonomie (future) des #drones_tueurs, on pourrait commencer par celle des conditions de l’utilisation actuelle de ceux téléguidés...

      Ainsi va la vie aujourd’hui au Pakistan, en Afghanistian , au Yémen ,en Somalie et peut-être plus récemment dans le nord du Niger [et du Mali]. Dans les seules zones tribales pakistanaises frontalières de l’Afghanistan, plus de 3 500 personnes ont été tuées dans les attaques de drones depuis une decennie.
      La plupart d’entre eux étaient des militants musulmans (sic), dont certains étaient sur ​​la liste des terroristes établie par la CIA, mais plusieurs centaines d’autres étaient des civils innocents qui se trouvaient au mauvais endroit au mauvais moment.

      #sale_guerre