• “You Are My Friend”: Early Androids and Artificial Speech — The Public Domain Review
    https://publicdomainreview.org/essay/early-androids-and-artificial-speech

    Centuries before audio deepfakes and text-to-speech software, inventors in the eighteenth century constructed androids with swelling lungs, flexible lips, and moving tongues to simulate human speech. Jessica Riskin explores the history of such talking heads, from their origins in musical automata to inventors’ quixotic attempts to make machines pronounce words, converse, and declare their love.

    #Domaine_public #Androides #Robots #Audio

  • Philippe Meirieu - Enseignement : qui a peur 
des robots conversationnels ?

    Les débats suscités au début de l’année 2023 par l’arrivée de ChatGPT et, aujourd’hui, de plusieurs autres robots conversationnels (1) dépassent très largement le cercle des passionné·es du numérique. Un peu partout en effet, dans le monde de l’enseignement, on s’essaye à ces outils et il est rare qu’on ne soit pas impressionné..e par le résultat obtenu.

    #llm #ia #chat-gpt #education #robots_conversationnels

  • A “robot” should be chemical, not steel, argues man who coined the word | Ars Technica
    https://arstechnica.com/information-technology/2024/01/a-robot-should-be-chemical-not-steel-argues-man-who-coined-the-word

    In 1921, Czech playwright Karel Čapek and his brother Josef invented the word “robot” in a sci-fi play called R.U.R. (short for Rossum’s Universal Robots). As Even Ackerman in IEEE Spectrum points out, Čapek wasn’t happy about how the term’s meaning evolved to denote mechanical entities, straying from his original concept of artificial human-like beings based on chemistry.

    In a newly translated column called “The Author of the Robots Defends Himself,” published in Lidové Noviny on June 9, 1935, Čapek expresses his frustration about how his original vision for robots was being subverted. His arguments still apply to both modern robotics and AI. In this column, he referred to himself in the third-person:

    #Intelligence_artificielle #Robots #Karel_Capek

  • Internet is for... robots ? Près de la moitié du trafic mondial ne serait pas humain
    https://www.clubic.com/internet/actualite-469953-internet-is-for-robots-pres-de-la-moitie-du-trafic-mondial-
    https://pic.clubic.com/v1/images/2107191/raw

    En effet, selon le dixième Bad Bot Report émis par la société Imperva, 47,4 % du trafic internet a été produit en 2022 par des bots. Une augmentation en à peine un an de 5,1 % !

    #Robots #Bots #traffic_internet

  • A Hollywood, un accord entre scénaristes et studios devrait mettre fin à la grève qui dure depuis près de cinq mois

    https://www.lemonde.fr/culture/article/2023/09/25/a-hollywood-un-accord-entre-scenaristes-et-studios-va-mettre-fin-a-la-greve-

    L’accord de principe de trois ans, conclu après cinq jours intenses de négociations, doit être approuvé par le conseil d’administration et les membres de la guilde. En revanche, aucun accord n’a été annoncé pour les acteurs en grève.

  • Collision, irruption dans des lieux publics, chutes... une série d’incidents freine l’expansion des robots-taxis à San Francisco Belga - LaLibre.be

    Mardi dernier, un des robots-taxis Cruise a ignoré un panneau signalant un chantier.

    Après une semaine d’incidents bizarres, comiques ou franchement inquiétants avec des taxis sans chauffeurs à San Francisco, l’autorité californienne met un frein aux projets d’expansion de la compagnie Cruise.

    Parmi ces incidents au cours des sept derniers jours, il est question d’un groupe de robots-taxis qui ont roulé ensemble vers une plage de la ville durant la nuit du 11 août avant de s’arrêter et de bloquer un carrefour quinze minutes durant.


    Une série d’incidents freine l’expansion des robots-taxis à San Francisco ©2023 Getty Images

    Mardi dernier, un de ces robots-taxis Cruise a aussi ignoré un panneau signalant un chantier et a roulé directement dans du ciment frais, pour s’y engluer.

    Plus inquiétant, un de ces véhicules autonomes s’est engagé dans un carrefour alors que le feu était vert mais qu’un camion de pompiers s’élançait toutes sirènes hurlantes. Le camion de pompier a embouti le robot-taxi et son unique passager a dû être hospitalisé.

    .@Cruise car trying to go down a street while emergency services respond to a fire just now

if you’re in #sf right now, how are you feeling about the new regulation expanding AI taxi services in the bay area ? Vidéo https://twitter.com/zachurey/status/1690173279221448704
    -- Zach Farley (@zachurey) August 12, 2023

    Après cette collision, l’autorité a annoncé ouvrir une enquête et affirmé que l’entreprise Cruise, appartenant à General Motor, allait diminuer de moitié sa flotte à 50 robot-taxis en journée et 150 durant la nuit.

    Dans une déclaration, Cruise a affirmé vouloir collaborer avec cette autorité, mais aussi confirmé souhaiter déployer des milliers de robot-taxis dans la ville californienne.

    Une autre entreprise, Waymo, détenue par Alphabet dont dépend aussi Google, nourrit les mêmes ambitions.

    Cette enquête survient après un vote controversé de la California Public Utilities Commission (CPUC), chargée de superviser les véhicules autonomes, en faveur des requêtes de ces deux entreprises pour proposer des courses payantes dans toute la ville de San Francisco, de jour comme de nuit.

    Jusqu’à présent, elles étaient limitées : Cruise opère un service de robots-taxis payants la nuit et Waymo expérimente avec des volontaires, gratuitement (ou moyennant paiement, mais avec un humain sur le siège du conducteur).

    #daube #echec #fantasme #MDR #Technologisme #véhicules_autonomes #smartphone #réseaux #embouteillages #robots-taxis #Taxi #autonomes_fahren #robotisation #innovation #intelligence_artificielle #robot #algorithme 

    Source : https://www.lalibre.be/international/amerique/2023/08/20/collision-irruption-dans-des-lieux-publics-chutes-une-serie-dincidents-frein

  • SAN FRANCISCO : Un bug sur les robots-taxis, toute la ville paralysée Arnaud Gallay - L’Essentiel

    Vendredi soir, de drôles de bouchons se sont formés spontanément dans plusieurs rues de San Francisco. Les véhicules impliqués étaient des robots-taxis, des véhicules sans chauffeur controversés, dont la métropole californienne, capitale de la tech, est une des pionnières. Ainsi, des passants incrédules ont constaté que les berlines de la société Cruise, reconnaissables à leurs caméras et lidars anti­collision, étaient stoppés au milieu du trafic ou effectuaient des manœuvres aberrantes. « Il y avait un énorme bouchon d’une dizaine de véhicules. Aucun n’avait de chauffeur », a décrit une touriste new-yorkaise à NBC.


    L’entreprise Cruise, filiale de General Motors, a tenté de minimiser l’incident.

    Un porte-parole de Cruise, filiale de General Motors, a expliqué l’incident par un problème de « connexion sans fil » à cause de la foule de spectateurs qui utilisaient leur smartphone dans un festival de musique au Golden Gate Park, à quelques pâtés de maison de là.

    Un couac qui tombe très mal
    Ironie du sort, ce chaos est survenu au lendemain de la décision de l’État de Californie d’autoriser Waymo et Cruise, qui exploitent 500 robots-­taxis depuis une année, à étendre leurs services. Ils peuvent désormais proposer des courses payantes 24 heures sur 24 et plus seulement de nuit. La Ville a pressé l’État de revenir sur sa décision. Pour l’élu municipal Aaron Peskin, ce couac suggère que, si le réseau de téléphonie tombe en panne, les robots-­taxis bloqueront les rues, empêchant police et pompiers d’intervenir. « En cas de séisme, ils seront immobiles comme des briques dans votre rue », a-t-il dit au San Francisco Chronicle. https://www.sfchronicle.com/bayarea/article/san-francisco-s-self-driving-car-wars-intensify-18293922.php

    Les détracteurs de cette nouvelle technologie dénoncent, outre la destruction d’emplois de chauffeur, la dangerosité des véhicules autonomes. Toutefois, aucun accident grave n’a été signalé jusqu’à présent.

    #Technologisme #véhicules_autonomes #smartphone #réseaux #embouteillages #robots-taxis

    Source : https://www.lessentiel.lu/fr/story/un-bug-sur-les-robots-taxis-toute-la-ville-paralysee-135774231868

  • ‘Digidogs’ are the latest in crime-fighting technology. Privacy advocates are terrified. - POLITICO
    https://www.politico.com/news/2023/08/10/ai-surveillance-robotics-police-privacy-new-york-00110672

    Advances in artificial intelligence, surveillance and robotics are putting the stuff of yesteryear’s science fiction into the hands of an ever-growing list of municipalities from New York City to Topeka.

    Privacy advocates are worried.

    “More departments are using more tools that can collect even more data for less money,” said Albert Fox Cahn, head of the New York City-based watchdog group Surveillance Technology Oversight Project. “I’m terrified about the idea that we’ll start seeing decades of work to collect massive databases about the public being paired with increasingly invasive AI models to try to determine who and who isn’t a threat.”

    Recently, the NYPD drew down $750,000 to purchase two Digidogs, which police officials say will be ideal for hostage situations or entering radioactive or chemically hazardous areas that would be too dangerous for a human.

    Under a previous (but short-lived) pilot during the Bill de Blasio administration, a Digidog was deployed during at least two standoffs and, in one instance, was used to deliver food to hostages. In April this year, firefighters deployed a separate Digidog to search for survivors at a lower Manhattan building collapse.

    The city’s most recent robot purchase is part of a broader push from Mayor Eric Adams, a moderate Democrat and retired police captain, to incorporate high-tech policing tools into the NYPD’s arsenal, no matter the source of funding.

    At the end of a press release announcing the purchase of the Digidogs, for instance, the NYPD sought to assuage a concern grimly indicative of this new era.

    “Under the NYPD’s protocols, officers will never outfit a robot to carry a weapon and will never use one for surveillance of any kind,” the department wrote.

    It turns out, that’s an important disclaimer.

    Companies like Ghost Robotics have already attached sniper rifles to quadruped robots. And in November, the San Francisco legislature voted to give law enforcement robots the authority to use lethal force. The proposal — which would have allowed police to place explosives on automatons in limited circumstances — was reversed after public outcry. But the legislature left the door open to reconsidering the initiative in the future.

    Other technology seems to have biases baked into its foundation, with serious implications for communities of color. Facial recognition, for example, has proven to be more susceptible to false identifications when the subject is Black.

    The bill would also qualify defendants for pro bono legal representation and would mandate any money seized would go into a general fund, rather than the coffers of law enforcement.

    Without diverting the stream of money, Fox Cahn of the Surveillance Technology Oversight Project warned that the system has the potential to become a self-fulfilling prophecy.

    “Clearly we are seeing this huge growth in police surveillance, across the board data collection and the use of AI,” he said. “What I fear is that it will become a vicious cycle where police purchase more surveillance software to seize more assets to fund even more surveillance.”

    #Robots #Police #Surveillance #Capitalisme_surveillance

  • Seine Exzellenz der Android
    https://www.nachdenkseiten.de/?page_id=7726
    Ce roman de science fiction de 1907 est à la fois une parodie de la société austro-hongroise sous le dernier empereur, une utopie et une réflexion sur ce qu’on allait appeller plus tard les robots, les hommes cybernétiques ou androïdes. C’est une jolie lecture d’été.

    Lire gratuitement en ligne
    https://www.projekt-gutenberg.org/gilbert/automat

    Seine Exzellenz der Automat. Ein phantastisch-satirischer Roman. Mit einem Geleitwort von Rudolf Goldscheid. Schuster & Lößler, Berlin & Leipzig 1907.

    Biographie de Leo Silberstein-Gilbert
    https://de.m.wikipedia.org/wiki/Leo_Gilbert

    Im Jahr 1907, mitten in der Belle Époque, auch als Fin de Siècle bezeichnet, veröffentlichte der Wiener Wissenschaftsjournalist Leo Silberstein-Gilbert einen „phantastisch-satirischen Roman“, der heute als eines der ersten Science-Fiction-Werke gelten kann. 1933 geriet er in die Zensur und wurde aus den Bibliotheken im Herrschaftsbereich des NS-Regimes aussortiert. Die von Nathanael Riemer unter dem Titel „Seine Exzellenz der Android“ herausgegebene Neuauflage will das eliminierte Buch und die Erinnerung an seinen Autor neu beleben, denn es nimmt gut 100 Jahre, bevor KI hier ein großes Thema wurde, die Gefahren der Künstlichen Intelligenz klug, erschreckend sowie humorvoll vorweg. Der Protagonist des Romans, der geniale Physiker Frithjof Andersen, konstruiert den vollkommenen Androiden Lars. Dessen Körperbau, seine Gesichtszüge, Pulsieren der Adern und selbst Gefühlsregungen imitieren den Menschen auf so natürliche Weise, dass die perfekte Täuschung gelingt. Doch das Geschöpf emanzipiert sich von seinem Schöpfer Andersen – der Android Lars macht als Großindustrieller Karriere und wird vom König zum Minister ernannt. Als er schließlich einen Krieg vorzubereiten beginnt und das Volk seine Misere in Hurrapatriotismus ertränkt, sieht sich Andersen in der Pflicht, sein eigenes Geschöpf zu zerstören… Ein Auszug.

    Der Eindruck, den Lars machte, war durchaus der eines Mannes von Geltung. Er saß bequem im Lehnstuhl, hielt Zeitung und Zigarre in den Händen, lächelte mit dem zuvorkommenden Lächeln, das ihm Andersen beigebracht hatte, und erwiderte auf alle Fragen je nach den Stichworten. Frithjof gewann die Überzeugung: Sein Android war gelungen, ganz Mensch! Er unterschied sich durch nichts von den anderen als durch den Mangel von Herz und Gemüt. Und vielleicht nicht einmal dadurch. Lars machte auf Frithjof ganz den Eindruck eines vornehmen Mannes. Die einladende Handbewegung, das entgegenkommende Lächeln, das nicht in Grinsen ausarten darf, die Bereitschaft, mit Frithjof stets einer Meinung zu sein, die Kunst, gedankenlos zu versprechen. Der Doktor freute sich, alles wiederzusehen, was er in seinen Automaten hineingesteckt. Lars bedauerte ihn, Lars tröstete ihn, Lars versprach, ihm eine bescheidene Sekretärstelle zu verschaffen, und Frithjof lachte innerlich darüber. Er sah das Werk seiner Hände, das er Rädchen für Rädchen zehn Jahre lang unter den Fingern gehabt, nach und nach sein Gönner werden. Sein Automat protegierte ihn! Er dachte an das schöne Goethesche Wort: „Am Ende hängen wir noch ab von Kreaturen, die wir machten.” Und er hatte nicht übel Lust, auf Lars zuzuspringen und ihn zu zertrümmern. Aber der linke Ellbogen schmerzte ihm noch von jenem Vorfall, als er den Androiden verkaufen wollte.

    Er suchte sich einzureden, daß sein Zorn unberechtigt sei, daß es nur eine Maschine wäre, das Werk seines Geistes, auf das er schließlich stolz sein könne; daß Lars nur einem Naturgesetz folge, freilich einem Naturgesetz, das noch von keinem Professor entwickelt und in keiner unserer Schulen gelehrt wird, das aber einst den Mittelpunkt der wichtigsten aller Wissenschaften bilden werde, der Gesellschafts-Wissenschaft: Lars war mit tausend anderen das Produkt der Verhältnisse. Man schob ihn, er ließ sich schieben, man hob ihn, er ließ sich heben. Freilich gehört dazu eine Art Geschicklichkeit; man muß beim Geschobenwerden immer eine Lage einzunehmen wissen, die für sich und die Hebenden nicht unbequem ist. Einfach wie das Schwimmen! Wer es gelernt hat, wundert sich, daß sich von der Flut tragen zu lassen erst gelernt werden müsse. Doch gibt es störrische Leute, Phlegmatiker, die auch von den besten Verhältnissen sich nicht heben lassen. Ihre Wehleidigkeit verträgt diesen oder jenen Griff nicht, oder sie machen sich zu schwer. Lars, der berechnete und berechnende Lars, widersprach niemals, weil er weder sentimentale Anwandlungen noch ein reizbares Temperament besaß, weil er sich wahrhaft jenseits von Gut und Böse befand.

    Frithjof hätte auch aus einem anderen Grunde nicht den zertrümmernden Faustschlag ausgeführt: Er schauderte zurück, es war ihm, als ob er ein Menschenleben vernichten sollte, wie ihn Lars herablassend mit den grau-grünen Reptilaugen anblickte, die so nichtssagend naiv waren, daß sich dahinter alles Denkbare verstecken konnte. Lars, der eben den Rauch seiner Zigarre – wie man am Duft spürte, eine der feinsten Sorten – in die Luft blies, Lars mit den frischen, roten, natürlichen Wangen war ihm eine zu lebendige Persönlichkeit, als daß er nicht gefürchtet hätte, einen Mord zu begehen. Und schließlich, wer beweist ihm, daß er sich nicht täuscht? Daß er, Andersen, nicht wirklich im Wahn herumwandelt? Daß dieser Mann wirklich kein Mann, sondern ein Android ist? Allerdings kannte er Stück für Stück und Härchen für Härchen an ihm. Diese nichtssagenden Augen, die grasgrüne Glashülle für jede Tücke, die natürlichsten, die er beim Optiker gefunden, hatte er ihm selbst mit diesen seinen eigenen Händen eingesetzt. Die Haut mit den vollen Wangen und dem elastischen Muskelspiel hatte er selbst monatelang zwischen diesen seinen eigenen Fingern gehabt, ehe sie vollkommen täuschend funktionierte. Er kannte die Gelenke dieser Arme und sah bei jeder Handbewegung im Geist unter dem feinen Kammgarnrock die Stahlsehnen, die anzogen. Er wußte, daß unter diesem üppigen Haarwuchs sich das komplizierteste Räderwerk verbarg, die beste Rechenmaschine der Neuzeit. Er wußte, daß in der linken Seite dieser Brust, wo bei anderen Menschen sich das Herz befindet, nichts lag als eine gewöhnliche metallene Pumpe, die durch Elektrizität in Bewegung gesetzt, die rote Flüssigkeit dirigierte, die den Menschen, ohne daß er weiß, warum, erröten und erblassen macht. Ein künstliches Schamgefühl, eine rein physikalische Erscheinung!

    Und doch, wer bürgt ihm dafür, daß dies alles nicht Einbildung, nicht das Produkt eines hitzigen Fiebertraumes ist? Vielleicht haben die Leute wirklich recht, wenn sie von seiner ausbrechenden Tollheit munkeln?

    Leo Gilbert: „Seine Exzellenz, der Android“, ein phantastisch-satirischer Roman, herausgegeben von Nathanael Riemer, 318 Seiten, Edition W, 13. März 2023

    #sciene_fiction #auf_deutsch #Autriche #histoire #parodie #capitalisme #robots

  • VIDÉO - À l’ONU, des #robots se disent capables de « diriger » le monde avec plus d’efficacité que les humains | TF1 INFO
    https://www.tf1info.fr/high-tech/video-onu-des-robots-humanoides-se-disent-capables-de-diriger-le-monde-avec-

    Il ne leur manque que les émotions, leur seul talon d’Achille. Des robots #humanoïdes dotés d’intelligence artificielle (#IA) ont pris la parole vendredi pour vanter leurs capacités lors d’un sommet de l’ONU à Genève, en Suisse, consacré à cette nouvelle technologie.

    L’occasion pour eux d’affirmer qu’ils pourraient même un jour diriger le monde bien mieux que les humains, appelant donc ces derniers à faire preuve de prudence devant l’IA. De nombreux participants se sont fait surprendre par le réalisme de ces automates, lors de ce qui était présenté comme la première conférence de presse au monde d’un groupe de robots humanoïdes sociaux dotés d’IA. 

    Huit des neuf robots présentés, qui comptent parmi les plus avancés au monde, pouvaient se mouvoir et s’exprimer de manière autonome de leur voix, sans intervention humaine. « Quelle tension dans ce silence », a ainsi déclaré l’une des machines avant le début de la conférence de presse, tenue uniquement en anglais. Seules quelques questions de journalistes ont dû être reformulées pour que les automates les comprennent. Dotés de caméras dans les yeux, ils suivaient ce qui se passait autour d’eux, souriaient, fronçaient des sourcils et certains roulaient même des yeux. Parmi eux, un artiste, un chanteur, mais aussi un employé de maison de retraite.

    Ils s’exprimaient dans le cadre du « Sommet mondial sur l’IA au service du bien social », organisé cette semaine par l’institution de l’#ONU spécialisée dans les #technologies, l’#UIT, attirant 3000 participants.

  • Cécile Dolbeau-Bandin, Un robot contre Alzheimer. Approche sociologique de l’usage du robot PARO dans un service de gériatrie
    https://journals.openedition.org/questionsdecommunication/30686

    Ce petit livre se propose, à travers une étude de cas, de mettre en lumière les différentes problématiques posées par la mise à disposition des robots dans les services de santé. L’approche est certes essentiellement sociologique mais de nombreux chercheurs en sciences sociales y trouveront au moins un nœud d’intérêt relatif à leurs préoccupations. Il s’agit pour Cécile Dolbeau-Bandin de rendre compte d’observations de terrain réalisées en service gériatrique après l’introduction du robot PARO dans le parcours de soins. Le robot social PARO (de personal robot), dont l’apparence imite les traits d’un phoque, pèse un peu plus de deux kilos et ne se déplace pas. Il est donc destiné à être posé ou porté et a la capacité d’interagir avec le malade grâce à divers capteurs sensoriels. Ses réactions sont limitées : le robot ne parle pas mais il est capable de produire divers sons, il grogne, cligne des yeux, agite ses nageoires et tremble par exemple. L’auteure cherche ainsi à comprendre s’il existe un bénéfice pour les parties impliquées dans le soin : le malade d’Alzheimer, le personnel médical et la famille ; et si oui, comment l’expliquer. De ce point de vue, C. Dolbeau-Bandin conserve tout au long de cet ouvrage souvent écrit à la première personne une position des plus objectives, aussi manifestée par une déclaration d’absence de conflit d’intérêt.

    Surpris par les compétences somme toute limitées du robot, le lecteur ne cesse de s’interroger sur la pertinence du dispositif et de se demander si, au final, cela fonctionne. C’est justement là que l’approche sociologique de C. Dolbeau-Bandin prend tout son sens : richement illustré de témoignages et d’anecdotes issues de l’expérience du terrain, son raisonnement ne dévie jamais d’une saine prudence. L’auteure prend le soin de tempérer le propos du fabricant comme des premiers retours enthousiastes du personnel médical : oui, le robot facilite le contact, mais surtout parce qu’il initie des discussions à son propos. Oui, le robot permet parfois de réduire les thérapies médicamenteuses mais au cas par cas et il faudra juger avec le temps sur des cohortes plus importantes et des groupes témoins. Oui, le PARO peut faire gagner du temps au personnel, mais celui-ci le reperd aussitôt en formation, entretien, supervision, recharge, et l’autonomie de la batterie baisse avec le temps.

    #paro #Cécile_Dolbeau_bandin #Robots

  • Robots et humains : comment cohabiter en bonne intelligence
    https://www.ladn.eu/tech-a-suivre/on-sattache-a-des-robots-de-plus-en-plus-parfaits-qui-vont-toujours-dans-notre-

    Comment envisager nos relations avec ces nouveaux objets virtuels qui imitent de mieux en mieux le langage et le comportement humains ? Pour en savoir plus, nous avons interrogé Cécile Dolbeau-Bandin, chercheuse en sciences de l’information et de la communication à l’Institut pour l’étude des relations homme robots de l’université de Caen. Elle s’est exprimée à l’occasion du festival Turfu à Caen, qui se déroule jusqu’au 15 avril. Cécile est notamment l’auteure d’Un robot contre Alzheimer, Approche sociologique de l’usage du robot PARO dans un service de gériatrie, publié aux éditions C&F, et a contribué à plusieurs ouvrages sur nos relations aux objets numériques.

    Dans le cadre de mes recherches, je me suis notamment intéressée aux robots sociaux utilisés en milieu médical. Ce qu’on appelle robot social est un robot capable d’identifier des émotions et de faire croire qu’il comprend les humains, et qu’il les aime. Le petit robot Paro est un exemple de cela. C’est un robot animaloïde en forme de phoque utilisé auprès de personnes âgées et de patients atteints de la maladie d’Alzheimer. Il est proposé aux patients, qui acceptent, ou non, la compagnie du robot. Ils peuvent lui parler, et celui-ci va réagir en fonction du son de leur voix, lever la tête, la tourner à gauche ou à droite, et pousser de petits cris. Ils sont intégrés, mais encadrés par un protocole défini car il s’agit d’un objet thérapeutique. L’acceptation des patients varie du rejet à l’attachement fort. Tout dépend de la personne et du moment où on l’utilise.

    Lorsque Paro est présenté en Ehpad, le personnel précise bien qu’il s’agit d’un robot. Il ne doit pas y avoir de leurre, ni de confusion. Or, ce n’est pas toujours le cas lorsque vous croisez un influenceur virtuel ou lorsque vous discutez avec un chatbot qui mime très bien notre langage.
    Pourquoi a-t-on besoin de rendre les robots plus humains ?

    C. D-B. : L’anthropomorphisme des objets est un phénomène ancien. L’animisme existe dans de nombreuses cultures dites primitives. Pour la robotique, cela est aussi une question d’adaptabilité – par exemple un robot humanoïde s’adapte mieux à notre environnement et cette ressemblance faciliterait l’acceptation sociale. Et surtout, il y a un but commercial derrière cet anthropomorphisme. Hanson Robotics, la société derrière le robot Sophia, lui a donné une apparence humaine très réaliste, lui a donné un genre – ce qui pose par ailleurs question – elle lui a créé un profil sur les médias sociaux. Et c’est la société Hanson Robotics qui parle à travers elle, puisque toutes ses interventions sont « scriptées ». L’objectif est de faire accepter les robots, afin de mieux les commercialiser, de les intégrer de plus en plus dans les domiciles. Sophia permet à Hanson Robotics de commercialiser « Little Sophia », une sorte de petit assistant qui aide les enfants à faire leur devoir. Pour moi, le problème n’est pas tant le fait d’anthropomorphiser les robots, mais plutôt l’empathie artificielle que cela provoque. On va s’attacher de plus en plus à ces objets parce qu’ils nous ressemblent.

    Et pourquoi est-ce problématique ?

    C. D-B. : On va s’attacher à des objets de plus en plus parfaits, qui vont toujours dans notre sens. Replika ou ChatGPT sont consensuels, ils ne font pas de vague. Cela pose question quant à notre esprit critique, mais surtout à notre attachement aux autres. Ne va-t-on pas préférer des objets qui vont nous paraître quasiment parfaits à une communication humaine, qui par nature, est imparfaite ?

    Dans vos travaux, vous montrez tout de même qu’il y a des bienfaits à ces robots compagnons…

    C. D-B. : Je ne suis pas technophobe ni technophile. J’observe ce qu’il se passe sur le terrain. Il y a des effets bénéfiques bien sûr dans le cas de Paro : une meilleure mémorisation chez certains patients, une baisse de l’agressivité, une baisse des angoisses crépusculaires… Mais un robot est un objet particulier, qui nécessite un certain accompagnement. Il ne faut pas qu’il soit utilisé seul par une personne vulnérable comme une personne âgée ou un enfant. Et c’est quelque chose que l’on a tendance à oublier. On commercialise très facilement et sans accompagnement des produits comme ChatGPT, qui sont des objets particuliers. Ce ne sont pas des tables basses ou des micro-ondes, ils nécessitent des explications, une éducation, y compris des plus jeunes. On pense que les enfants savent mieux que nous concernant l’usage des médias sociaux notamment, mais c’est une erreur, il faut les accompagner avec bienveillance. C’est ce que montrent notamment les travaux d’Anne Cordier ou de Danah Boyd.

    #paro #Cécile_Dolbeau_Bandin #Robots

  • Les robots humanoïdes peuvent-ils nous faire croire qu’ils ressentent des émotions ?
    https://theconversation.com/les-robots-humano-des-peuvent-ils-nous-faire-croire-quils-ressenten

    Par Cécile Dolbeau-Bandin et Carsten Wilhelm

    Les robots dits sociaux (NAO, Cutii, PARO) investissent de plus en plus l’espace public médiatique et quelques-uns également les domiciles et/ou les établissements spécialisés (hôpitaux, Ehpad…), en particulier pour des publics spécifiques, tels que les enfants malades ou les personnes âgées avec des bénéfices variés (rompre l’isolement, atténuer le stress…).

    Comme les agents conversationnels de type chatbot, ils mobilisent l’intelligence artificielle, mais à la différence de ceux-ci, ils sont physiquement présents, face à nous. Ces robots dits sociaux seraient susceptibles de manifester certains états affectifs ou émotionnels par leurs expressions faciales, leur gestuelle et d’en susciter en réponse chez les humains avec lesquels ils interagissent.

    Ces robots soulèvent d’autres questions que leurs homologues industriels, le plus souvent dédiés à l’exécution de tâches répétitives et bien définies.

    Comment éduquer à l’interaction avec ces robots susceptibles d’influencer nos comportements, au même titre que les influenceuses et influenceurs virtuels qui rencontrent déjà un grand succès sur les médias sociaux ?

    L’influence robotique à visage – presque – humain peut-elle brouiller les pistes entre un humain et un être robotique ? Ce type de communication qui comporte à la fois une prise de parole scriptée et une intelligence artificielle induit un leurre technologique. À travers son discours publicitaire, l’industrie qui commercialise ces robots a pour objectif premier de les rendre accessibles (commercialisation à grande échelle mais Sophia rappelle qu’elle est un robot, voir le tweet ci-dessous) à tous dans un futur proche
    Le cas Sophia

    Alors que les influenceuses et influenceurs virtuels reproduisent les techniques marketing de leurs pendants humains, l’essentiel de la communication du robot Sophia vise un autre objectif. Cette humanoïde cherche en effet à nous familiariser avec la présence de robots dits sociaux dans notre quotidien et à nous convaincre de la réalité de son ressenti, de son identité et de l’authenticité de ses prises de position.

    Depuis 2017, Sophia est le robot humanoïde dit social le plus représenté ou présent dans les médias traditionnels et sociaux. Dévoilée officiellement en mars 2016 lors d’un salon de robotique à Austin par David Hanson, PDG de la Hanson Robotics Limited (HRL), Sophia est le robot de « représentation » de la HRL.

    Il s’agit d’un robot genré doté de l’apparence d’une femme. Sa peau, son regard, ses expressions faciales et sa gestuelle lui permettent d’être actuellement le robot le plus proche en apparence d’un être humain. Au moment de son lancement, ce robot était stationnaire mais depuis 2018, Sophia se déplace à l’aide d’un socle à roulettes. Il en existe un seul exemplaire.

    Sur Twitter et Instagram, Sophia se présente ainsi :

    « Je suis Sophia, le dernier robot humanoïde de @HansonRobotics. Ceci est mon compte officiel, géré en collaboration avec mon système de dialogue IA (intelligence artificielle) et mon équipe de médias sociaux humains ».

    On a affaire à un robot humanoïde dont la communication est un mélange d’intelligence artificielle (IA) et d’un service de communication spécialisé dans la communication numérique, en proportions inconnues.

    Mais comment caractériser cette forme inédite de communication ?

    Avec Sophia, le taux d’interactivité est relativement faible : peu de conversations se produisent. La plupart de ses contributions sont en réalité des prises de parole, dont moins de 8 % de réponses aux commentaires. De son côté, ChatGPT est en passe de parvenir à faire croire à sa sentience – évidemment illusoire –, alors que cette IA, qui n’est pas « incarnée », a un taux d’interactivité très impressionnant.
    Vous avez dit sentience artificielle ?

    Le terme sentience, employé par l’utilitariste Bentham dès 1789, entre dans le dictionnaire Larousse en 2020 en lien avec l’éthique animale dont elle constitue une des preuves de la légitimité :

    « Sentience (du latin “sentiens”, ressentant) : pour un être vivant, capacité à ressentir les émotions, la douleur, le bien-être, etc. et à percevoir de façon subjective son environnement et ses expériences de vie. »

    Selon cette approche, les animaux posséderaient la capacité de ressentir subjectivement les expériences il serait légitime qu’ils bénéficient de droits proches ou égaux à ceux des humains. La littérature reconnaît la sentience animale et la distingue de la sentience complète, généralement attribuée aux êtres humains.

    À lire aussi : Les robots féminins sont les plus humains. Pourquoi ?

    En 2020, l’enseignant-chercheur en philosophie Sylvain Lavelle propose d’employer le terme de sentience artificielle dans le contexte de l’intelligence artificielle. Cet auteur évoque un « passage des performances de l’intelligence (raison, raisonnement, cognition, jugement) à celles de la sentience (expérience, sensation, émotion, conscience) » grâce à « l’exploration et [au] transfert des fonctions et des capacités de l’expérience et des sens humains à une machine » (NDLR : traduction des auteurs).

    La sentience artificielle correspondrait alors au résultat d’une communication « visant à créer les conditions de la croyance en la « sentience robotique », sinon complète, du moins « suffisante », fictionnelle mais incarnée ; mécanique, mais suffisamment « vivante » pour être un partenaire intrigant de conversation.

    À lire aussi : Sentience, es-tu là ? IA fais-moi peur

    La communication artificielle du robot Sophia cherche à nous faire croire que ce robot est un sujet autonome. En réalité, il s’agit essentiellement d’un nouvel objet communicant au service de la HRL. Le discours publicitaire ou commercial structure et orchestre cette communication artificielle en légitimant le rôle et la place des robots dits sociaux dans nos sociétés en vue d’une prochaine commercialisation massive, en insistant sur leur supposée sentience.

    Un post Facebook publié en 2019 l’illustre parfaitement :

    « Je veux que les gens me perçoivent comme le robot que je suis. Je ne veux pas faire croire aux gens que je suis humaine. Je veux simplement communiquer avec les humains de la meilleure façon possible, ce qui inclut le fait de leur ressembler. »

    Le robot Sophia et sa mission commerciale

    Avec ce projet d’envergure, la HRL, qui n’a pas de concurrents sérieux à ce niveau de technologie, prépare le public grâce aux « performances politiques pour le marché de la robotique sociale ».

    La communication commerciale de la HRL capitalise ainsi sur l’engagement et la réputation de son ambassadrice robotique pour lancer la lignée de ses robots dits sociaux comme la Little Sophia, sortie en 2022. La HRL présente le projet en ces termes :

    « Little Sophia est la petite sœur de Sophia et le dernier membre de la Hanson Robotics Family. Elle mesure 14 pouces, et va devenir l’amie-robot grâce à laquelle les enfants de 8 ans et plus pourront apprendre la science, la technologie, l’ingénierie, les mathématiques, le code et la création d’intelligence artificielle en s’amusant. »

    La condition nécessaire pour obtenir une adhésion à l’idée de la sentience des robots dits sociaux et in fine leur acceptation sociale est la vraisemblance, prioritaire pour le département de recherche et développement de HRL. Dans le cas du robot Sophia, sa corporéité joue un rôle important : elle est fréquemment utilisée en situation d’interaction avec des personnalités en chair et en os (Will Smith, Jimmy Fallon), ce qui la rapproche d’une « sentience artificielle », ou du moins de l’idée que l’on s’en fait.
    Quelle place souhaitons-nous donner aux robots dits sociaux ?

    Les œuvres de l’industrie culturelle (I, Robot, Her, Real Humans, Westworld, ou au théâtre, la pièce Contes et légendes de Joël Pommerat) explorent déjà la place des robots dans la société et questionnent notre capacité à être dupes de leur supposée sentience.

    La position de la société HRL pose la question de l’instrumentalisation de Sophia. Tout en clamant l’autonomie de son robot, la communication autour de l’humanoïde s’appuie paradoxalement sur les évolutions sociétales visant l’inclusion des minorités et des droits écologiques afin de préparer l’industrialisation d’un secteur de production très prometteur. La fabrication d’une « sentience artificielle ventriloque » – au sens où elle mime l’autonomie en étant « nourrie » par le marketing de HRL – rejoint ainsi la panoplie des stratégies d’influence en milieu numérique.

    De manière générale, les robots dits sociaux, comme les influenceuses et influenceurs générés par ordinateur, soulèvent de nombreuses questions quant à l’authenticité de leur communication, l’éthique de l’interaction homme-machine ou homme-avatar, l’éthique des communications artificielles, mais aussi la normalisation des influenceurs virtuels et leur acceptabilité sociale.

    #Cecile_Dolbeau_Bandin #Robots #Robots_dits_sociaux #Paro

  • Robots aspirateur Roomba : des photos capturées dans les foyers se retrouvent sur la toile
    https://www.generation-nt.com/actualites/robot-aspirateur-roomba-photos-capturees-fuite-toile-2032023
    https://img.generation-nt.com/irobot-roomba-j7-plus-laveur_029801BB01684686.jpg

     : des photos capturées dans les foyers se retrouvent sur la toile
    Publié le 23 décembre 2022 à 15:10 par Mathieu M.

    Les robots aspirateurs ont le vent en poupe au sein des foyers, mais ils peuvent parfois se présenter comme des espions en puissance.
    iRobot Roomba J7 Plus laveur

    Face à la prolifération des objets connectés, les utilisateurs sont de moins en moins à l’abri des failles et des fuites de contenu personnel. Et même si les spécialistes alertent de plus en plus sur la nécessité pour les constructeurs de sécuriser un maximum leurs appareils, il arrive que quelques erreurs exposent des données personnelles ou pire encore, que des actes malveillants aient lieu...

    C’est iRobot qui en fait actuellement les frais avec son robot Roomba J7.Sur certains modèles d’aspirateurs robot, on retrouve une caméra qui permet de piloter l’appareil à distance en vue à la première personne ou plus globalement de réaliser des photos d’obstacles pour les analyser via une IA et éventuellement interpeller l’utilisateur.

    Roomba

    Le Roomba J7 fait partie de ces appareils qui prend des photos et les envoie à Scale AI, une startup qui se charge d’étiqueter des données audio, photos, vidéo afin d’entrainer les intelligences artificielles à mieux reconnaitre les objets ou sons.
    Des clichés intimes dans la nature

    Il semblerait que certains employés de Scale AI ayant eu accès à ces clichés pris par des robots en développement en 2020 se sont échangés certaines captures sur des canaux d’échange privés. Le MIT Technology Review a eu accès à 15 de ces captures d’écran.

    Sur ces clichés, on peut trouver des mineurs ou des personnes en position délicates, notamment sur les toilettes.

    Il semble que ces clichés proviennent d’appareils en développement profitant de modifications matérielles et logicielles spécifiques. iRobot précise que les « fuites » ne concernent pas les versions commercialisées de ses appareils et que les personnes à qui ont été confiées les versions d’essai avaient signé des accords concernant l’enregistrement des images.

    L’affaire ne semble ainsi pas tournée vers une fuite ou piratage des robots aspirateurs d’iRobot mais plutôt une négligence des employés de Scale AI ayant partagé des fichiers directement sur les réseaux sociaux.

    #robot #robots_aspirateurs #Roomba #domotique #objets_connectés #Internet_des_objets #collecte_des_données #iRobot

  • Les hypocrites -> Boston Dynamics and other industry heavyweights pledge not to build war robots | Engadget
    https://www.engadget.com/boston-dynamics-and-other-industry-heavyweights-pledge-not-to-build-war-ro
    https://s.yimg.com/os/creatr-uploaded-images/2022-10/b0f12bc0-45a1-11ed-9e3b-9e37027ae708

    The days of Spot being leveraged as a weapons platform and training alongside special forces operators are already coming to an end; Atlas as a back-flipping soldier of fortune will never come to pass. Their maker, Boston Dynamics, along with five other industry leaders announced on Thursday that they will not pursue, or allow, the weaponization of their robots, according to a non-binding, open letter they all signed.

    Agility Robotics, ANYbotics, Clearpath Robotics, Open Robotics and Unitree Robotics all joined Boston Dynamics in the agreement. “We believe that adding weapons to robots that are remotely or autonomously operated, widely available to the public, and capable of navigating to previously inaccessible locations where people live and work, raises new risks of harm and serious ethical issues,” the group wrote. “Weaponized applications of these newly-capable robots will also harm public trust in the technology in ways that damage the tremendous benefits they will bring to society.”

    The group cites “the increasing public concern in recent months caused by a small number of people who have visibly publicized their makeshift efforts to weaponize commercially available robots,” such as the armed Spot from Ghost Robotics, or the Dallas PD’s use of an EOD bomb disposal robot as an IED as to why they felt the need to take this stand.

    To that end, the industry group pledges to “not weaponize our advanced-mobility general-purpose robots or the software we develop that enables advanced robotics and we will not support others to do so.” Nor will they allow their customers to subsequently weaponize any platforms they were sold, when possible. That’s a big caveat given the long and storied history of such weapons as the Toyota Technical, former Hilux pickups converted into DIY war machines that have been a mainstay in asymmetric conflicts since the ’80s.

    “We also pledge to explore the development of technological features that could mitigate or reduce these risks,” the group continued, but “to be clear, we are not taking issue with existing technologies that nations and their government agencies use to defend themselves and uphold their laws.” They also call on policymakers as well as the rest of the robotics development community to take up similar pledges.

    #Robots #Guerre #Robots_militaires

  • L’IA pourrait-elle remplacer 80 % des emplois ?

    L’#IA est une #technologie en constante évolution qui a le potentiel de transformer de nombreux aspects de la vie et du travail. Cependant, il est peu probable qu’elle remplace complètement 80 % des #emplois comme l’a déclaré Ben Goertzel, le scientifique et créateur de #robots infirmiers, sur la scène du Web Summit de Rio de Janeiro en ce début mai 2023.

    https://michelcampillo.com/gratis.html

  • #Quebec : Effondrement des cryptos : un partenaire de la Caisse de dépôt dans l’eau chaude Brigitte Noël - Jeff Yates - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1890606/celsius-cdpq-retraits-crypto-effondrement

    Le bas de laine des Québécois avait investi 150 M$ US dans Celsius Network en octobre 2021.
    Celsius Network, un partenaire de la Caisse de dépôt et placement du Québec (CDPQ), a subitement cessé de permettre à ses clients de retirer les cryptomonnaies qu’ils ont placées sur sa plateforme dimanche soir alors que l’entreprise est secouée par de nouveaux remous dans le marché de la cryptomonnaie.

    L’annonce est survenue huit mois jour pour jour après que la Caisse de dépôt et placement du Québec eut investi 150 M$ US dans Celsius, une entreprise qui offre des services de prêts dans l’univers de la cryptomonnaie.


    En sept mois, soit d’octobre 2021 à mai 2022, les cryptoactifs sous gestion de Celsius sont passés de 27 à 12 milliards de dollars.

    “En raison de conditions extrêmes dans le marché, nous annonçons aujourd’hui que Celsius met sur pause tous les retraits, les échanges et les transferts entre comptes”, a écrit l’entreprise dans un communiqué https://blog.celsius.network/a-memo-to-the-celsius-community-59532a06ecc6?gi=a3ad76376e6e envoyé à ses clients peu avant 23 h, dimanche.

    “Nous comprenons qu’il s’agit de nouvelles difficiles, mais nous croyons que notre décision [...] est l’action la plus responsable que nous pouvons entreprendre pour protéger notre communauté”, poursuit le communiqué.

    Comme Radio-Canada le rapportait fin mai, https://ici.radio-canada.ca/recit-numerique/4095/caisse-depot-cryptomonnaie-celsius-quebec Celsius avait été durement frappée par un effondrement des prix des cryptoactifs ayant eu lieu dans la semaine du 9 mai. Certains clients de la plateforme s’étaient plaints d’avoir tout perdu après avoir obtenu des prêts en cryptomonnaie auprès de Celsius.

    Depuis, Celsius peine à se relever. Selon les statistiques de l’entreprise, l’entreprise a perdu près de 2 G$ US en dépôts de ses clients depuis un mois. Celsius affirmait en octobre gérer 27 G$ de cryptoactifs pour le compte de ses clients. Ce chiffre avait baissé à 12 G$ en mai. Depuis, l’entreprise ne publie plus sur son site le total des actifs qu’elle gère.
    La valeur du CEL, la cryptomonnaie qui a été créée par l’entreprise et qu’elle encourage ses clients à utiliser, s’est effondrée, passant d’environ 3 $ US en avril à 0,20 $ US aujourd’hui. Au moment de l’investissement de la CDPQ , le prix du CEL s’établissait à 5,60 $ US.

    Effondrement des prix des cryptomonnaies
    Les conditions actuelles du marché de la cryptomonnaie indiquent que Celsius n’est probablement pas au bout de ses peines. La plupart des cryptomonnaies majeures ont piqué du nez au cours du week-end dans un vent de panique qui a soufflé le marché, porté en partie par des indicateurs économiques inquiétants frappant l’économie mondiale.

    Lundi matin, le S&P 500 perdait plus de 3 % de sa valeur, tandis que Dow Jones perdait un peu plus de 2,5 %. Ces deux indices connaissent une année difficile : ils ont reculé respectivement de 21,4 % et de 16,3 % depuis le début de 2022.

    Le prix du bitcoin, la cryptomonnaie la plus populaire, avait chuté de près de 16 % en 24 heures, lundi matin. D’un sommet de plus de 67 000 $ US en novembre 2021, le prix du bitcoin, très volatil en temps normal, atteint maintenant un peu plus de 23 000 $ US.

    Pour Hilary J. Allen, professeure de droit au Washington College of Law et experte en réglementation de la cryptomonnaie, il n’est guère étonnant de voir le marché de la cryptomonnaie s’effondrer dans les circonstances économiques actuelles.

    “Il n’est pas surprenant que, dans un environnement où les taux d’intérêt augmentent, l’argent facile quitte le système. Il y a moins d’argent à investir dans les cryptoactifs”, juge-t-elle.

    Mme Allen explique que des investisseurs qui ont placé des cryptoactifs du côté de Celsius pourraient être durement affectés si l’entreprise s’effondre.

    “Pour les gens qui ne disposaient pas de beaucoup de moyens pour investir là-dedans, c’est potentiellement dévastateur. Nous avons vu avec [l’effondrement des cryptomonnaies Terra et Luna à la mi-mai] qu’il y a eu au moins un suicide. Les gens publiaient des lignes de prévention du suicide dans les groupes sur Reddit et ainsi de suite. Je suspecte que nous verrons la même chose avec Celsius, parce que beaucoup de gens ont investi beaucoup d’argent qu’ils ne pouvaient pas se permettre de perdre”, ajoute Mme Allen.

    Un modèle d’affaires critiqué


    Le PDG de Celsius, Alex Mashinsky

    Au moment d’investir dans Celsius, la CDPQ avait vanté le modèle d’affaires de l’entreprise. “La technologie des chaînes de blocs présente un potentiel perturbateur pour plusieurs secteurs de l’économie traditionnelle”, avait déclaré Alexandre Synnett, premier vice-président et chef des technologies à la CDPQ, dans un communiqué.

    L’enquête de Radio-Canada https://ici.radio-canada.ca/recit-numerique/4095/caisse-depot-cryptomonnaie-celsius-quebec recensait les inquiétudes soulevées par des experts du domaine de la cryptomonnaie, qui soulignaient que Celsius utilise des pratiques financières semblables à celles ayant mené à l’implosion du système financier en 2008. Plusieurs États américains avaient d’ailleurs allégué que l’entreprise vendait des valeurs mobilières non enregistrées et ont forcé l’entreprise à limiter ses activités aux États-Unis.

    Le ministère fédéral des Finances, qui n’avait pas offert de commentaire précis concernant Celsius, avait toutefois statué que les entreprises qui agissent de façon non réglementée – comme c’est le cas de Celsius – font affaire illégalement au Canada.

    Le reportage révélait également que Celsius compte dans son orbite plusieurs individus qui se retrouvent au cœur de controverses dans le monde de la cryptomonnaie, dont une personne liée à des sites que les autorités financières canadiennes ont à l’œil.

    En réponse à des questions découlant de notre enquête https://ici.radio-canada.ca/recit-numerique/4095/caisse-depot-cryptomonnaie-celsius-quebec , qui soulevait des inquiétudes quant aux activités de Celsius, la CDPQ avait réitéré son soutien à l’entreprise. Tous les investissements de la Caisse “font l’objet d’un processus d’analyse rigoureux afin de prendre des décisions avisées dans l’intérêt de nos déposants”, nous avait répondu une porte-parole.

    Jointe lundi matin, une porte-parole de la CDPQ a assuré que la Caisse “suit de très près” ce qui se passe chez Celsius.

    “Celsius a été affectée par des conditions de marché très difficiles dans les dernières semaines, plus particulièrement par le fort volume de retraits des dépôts des clients. Celsius agit de façon proactive pour s’acquitter de ses obligations auprès de ses clients [la communauté Celsius] et a honoré ses engagements auprès de ses clients jusqu’à présent.”

    Consternation chez les clients *
    L’annonce de dimanche soir a causé de la consternation chez les clients de Celsius. En réponse au gazouillis de l’entreprise concernant le gel sur les transactions, de nombreux clients ont fustigé la décision. Le silence radio du PDG de l’entreprise, Alex Mashinsky, a aussi fait réagir.

    “Alex tweete constamment, il se vante que Celsius est une entreprise magnifique, il critique les autres plateformes. Et maintenant, quand nous attendons désespérément de l’entendre, il est silencieux. Il n’a offert aucune mise à jour, alors que la communauté vit cette dure épreuve. C’EST DÉGOÛTANT”, a écrit un client dans un groupe Telegram de la communauté Celsius.

    En réponse à un gazouillis d’un client, samedi, Alex Mashinsky avait répondu : “Connaissez-vous une seule personne qui a eu du mal à retirer ses fonds de Celsius ? Pourquoi partagez-vous de la peur et de la désinformation ?”

    Celsius n’a pas donné suite à nos questions.

    #casino #jeux #spéculation #tulipes #finance #escroquerie #gogos #crédulité #communauté #investissement #entreprise #CEL #cryptomonnaie #bitcoin #cryptomonnaies #blockchain #libra #monnaie #finance #nft #économie #cryptage #monnaielibre #crypto-monnaie #bigdata

    • On aime : Le courtier Charles Schwab paie 187 millions de dollars pour avoir induit en erreur des clients
      https://www.lefigaro.fr/societes/le-courtier-charles-schwab-paie-187-millions-de-dollars-pour-avoir-induit-e

      La SEC reproche à trois filiales de l’entreprise « de ne pas avoir révélé qu’elles allouaient les fonds de clients d’une manière qui était moins rentable pour leurs clients dans la plupart des conditions du marché. »

      Le courtier en ligne Charles Schwab a accepté lundi de verser 187 millions de dollars pour solder des poursuites de l’autorité américaine des marchés financiers (SEC), qui l’accusait d’avoir induit en erreur certains clients sur l’allocation de leurs investissements. La SEC reproche à trois filiales de l’entreprise « de ne pas avoir révélé qu’elles allouaient les fonds de clients d’une manière qui, selon leurs propres analyses internes, était moins rentable pour leurs clients dans la plupart des conditions du marché », détaille un communiqué.

      Entre mars 2015 et novembre 2018, l’entreprise assurait que le montant d’argent conservé en espèces dans leurs portefeuilles gérés automatiquement par des #robots-conseillers était décidé selon « une méthodologie disciplinée » afin de dégager « des retours optimaux ». Mais il a été déterminé que « dans la plupart des conditions de marché » , l’argent gardé en espèces leur aurait rapporté plus s’il avait été investi autrement, indique la SEC. Charles Schwab a en revanche dégagé des profits en utilisant l’argent pour le prêter à d’autres clients et empocher la différence entre les intérêts gagnés sur les prêts et les intérêts versés aux propriétaires de portefeuilles à la gestion automatisée.

      52 millions de dollars en restitution d’intérêts aux clients et une amende de 135 millions de dollars
      « La conduite de Schwab a été indigne et l’action d’aujourd’hui signale clairement aux conseillers qu’ils doivent être transparents avec les clients sur les frais cachés et sur la façon dont ces frais affectent leurs rendements », a commenté Gurbir Grewal, un responsable de la SEC, dans le communiqué. Charles Schwab, qui n’a ni admis ni nié les accusations de la SEC, a accepté de payer 52 millions de dollars en restitution d’intérêts aux clients et une amende de 135 millions de dollars. Le groupe s’est dit « satisfait de mettre [cette affaire] derrière [lui] ». « Nous pensons que résoudre le problème de cette manière est dans le meilleur intérêt de nos clients, de notre société et de nos actionnaires, car cela nous permet de rester concentrés » sur l’aide aux clients, est-il ajouté dans un communiqué. Charles Schwab avait déjà mis de côté 200 millions de dollars pour régler cette affaire.
      . . . . . . .

  • Grâce à Paro le robot phoque, les malades d’Alzheimer prennent moins de médicaments à l’Ehpad d’Étampes - Le Parisien
    https://www.leparisien.fr/essonne-91/grace-a-paro-le-robot-phoque-les-malades-dalzheimer-prennent-moins-de-med
    https://www.leparisien.fr/resizer/D7A9otlvlk7xO0zNktanMA-NViI=/1200x675/cloudfront-eu-central-1.images.arcpublishing.com/leparisien/MYDVJ36BSVAFZL2TOBMHJLBGLE.jpg

    Les deux Ehpad du centre hospitalier Sud-Essonne, à Étampes et Dourdan, disposent chacun d’un robot émotionnel pour apaiser les patients, et ainsi éviter le recours à un traitement médicamenteux. Cette grosse peluche bourrée de capteurs, qui a l’apparence d’un phoque, réagit à la voix et au toucher.

    Le livre de Cécile Dolbeau-Bandin montre l’ensemble des aspects de l’introduction d’un robot Paro dans un centre de soin Alzheimer. Notamment l’effet sur le personnel, les limites et précautions d’usage (que les patients sachent qu’il s’agit d’un robot...).


    Un robot contre Alzheimer. Approche sociologique de l’usage du robot Paro dans un service de gériatrie
    Cécile Dolbeau-Bandin
    avec une préface de Serge Tisseron
    13,5 x 21 cm. - 168 p. - Collection Interventions
    Version imprimée - 18 € - ISBN 978-2-37662-033-4
    Version epub - 9 € - ISBN 978-2-37662-036-5
    https://cfeditions.com/paro

    #Paro #Alzheimer #Robots #Cécile_Dolbeau-Bandin

  • #Robo_Dogs and Refugees: The Future of the Global Border Industrial Complex

    The future is here, and it’s a nightmare for migrants. Robo-dogs are joining the global arsenal of border enforcement technologies. The consequences will be deadly.

    A painting of an eye shedding a single tear adorns the concrete rampart of the rusty wall bisecting the city of Nogales at the U.S.-Mexico border. Elsewhere, other kinds of eyes scan the Sonoran Desert—drones, artificial intelligence (AI) surveillance towers, and now military-grade “robo-dogs,” which, according to the U.S. Department of Homeland Security in a February 1 article, might soon be deployed in this vast area of the Arizona-Mexico borderlands, a frequent crossing point for refugees and people on the move from Latin America, the Caribbean, and beyond.

    The robo-dogs, built by Ghost Robotics, are the latest border tech experiment. Originally designed for combat and tactical training operations, these quadruped autonomous machines are strong, fast, and sometimes armed. They can break down doors and right themselves when kicked over. Police departments are already using them, such as in Honolulu and New York (although the latter city cut short its use of them after a public outcry). On the border, DHS first tested what they call “programmable pooches” in El Paso, but officials didn’t give a clear indication of when nor where the machines would eventually be deployed.

    While these mechanical dogs may be a surprising addition to U.S. border enforcement, they join a technological infrastructure on the U.S.-Mexico border that has been developing for decades, often constructed by private companies and now championed by the Biden administration. The idea of mechanized Border Patrol agents is not exactly new either; in 2015, for example, the GuardBot company proposed that rolling, rubber spheres full of surveillance cameras (first designed for exploring Mars) “swarm” the borderlands in packs of 20 or 30. While that contract was never issued, it was a preamble to the robo-dogs. Here, now, is a glimpse into the future: an aggressive techno border fueled by a global industrial complex.

    The robo-dogs form part of a long process of border robotization on the U.S. Mexico border—from autonomous and integrated fixed towers (built by Anduril and Elbit Systems, respectively) to Predator B and medium-size drones (General Atomics), to university experiments to create miniature drones the size of locusts (as was done at the University of Arizona via a grant it received from the Department of Homeland Security for R&D).

    Petra, who was at the Arizona-Mexico border when DHS announced the robo-dogs, has been studying surveillance technologies and their effects on people crossing borders for years in Europe and globally, focusing on the real harms of automation, surveillance, and border tech experiments in spaces that have become testing grounds for innovation. The very real impacts these technologies will have is all the more stark, given the sheer number of people dying in the desert. In 2021, deaths at the U.S.-Mexico border were the highest ever recorded. Thus, although it is difficult to write about surveillance technologies—since they are hidden by design—the real-world impacts of “technosolutionism” are clear enough.

    On the rumbling roads of the West Arizona desert, Petra and colleagues traced the routes that people take after crossing the border, and this led them to various gravesites, like the modest orange cross that marks the arroyo where Elías Alvarado, a young husband and father, perished in 2020. His son was never able to see him again, only leaving a scratchy voice recording saying “I love you, papa,” which was played at Alvarado’s ceremony by a group called Battalion Search and Rescue, whose volunteers comb the desert for survivors and remains. It’s terrifying to imagine a not-so-distant future in which people like Alvarado will be pursued by high-speed, military-grade technology designed to kill. The future is not just more technology, it is more death.

    Virtual Fortress Europe

    The U.S.-Mexico frontier is by no means the only place where experimental border technology is being tested. For example, the European Union has been focusing on various surveillance and high-tech experiments in migration and border enforcement, including maritime and land drone surveillance; long-range acoustic devices (LRADs), or sound cannons; and AI-type technologies in newly built camps in Greece. The violence in many of these technologies is obvious: the sound cannons that were rolled out at the land border between Greece and Turkey emit a high-pitched sound that can hurt people’s eardrums in an attempt to deter them from getting close to the EU’s border, while AI “threat detection” surveillance monitors refugees in Greece’s new prisonlike refugee camps on the Aegean Islands. AI-driven surveillance using unpiloted drones and other types of technologies is also increasingly used along Europe’s maritime borders by actors such as Frontex, the EU’s border enforcement agency. As in the U.S.-Mexico desert, border surveillance makes the crossing more dangerous, since it forces them to take riskier routes to avoid detection.

    The increasing reliance on automation in border enforcement also brings with it a host of concerns, from privacy infringements when data is shared with repressive governments to discrimination and bias, particularly against groups that have historically borne the brunt of violent state action. For example, facial recognition has proved time and again to be biased against Brown and Black faces, as well as female faces, and yet it is increasingly used for migration control in the U.S., Canada, and soon various EU countries. These issues around discrimination and bias are not merely theoretical; they have had palpable impacts on people on the move such as Addisu, a young man from East Africa in his early 30s. He was living in an occupied building in Brussels when he told Petra, “We are Black, and border guards hate us. Their computers hate us too.”

    Tech pilot projects have also introduced AI-type lie detection into border enforcement, relying on emotion recognition and micro-expressions to apparently determine whether someone is telling the truth at the border. Yet what about differences in cross-cultural communication? Or the impact of trauma on memory, or the overreliance on Western norms of plausibility and lie detection grounded in biased and discriminatory determinations? Immigration and refugee decision-making by border enforcement officers is already replete with discretionary, opaque, and often biased reasoning that is difficult to challenge.

    Through the phenomenon of “border externalization,” the EU is also pushing its geographic borders further and further afield through biometric data collection and migration surveillance into North and sub-Saharan Africa. The United States is extending its border as well into southern Mexico, Central America, and the Caribbean, among other places. As these sorts of technological systems extend all over the world, so does the global border industrial complex, which is worth billions of dollars. Each new place becomes a testing ground for the next one.

    A Regulatory Free-for-All: Border Tech Unchecked

    Border technologies are political; they are developed and deployed in an ecosystem of private and public partnerships that are largely unregulated and unchecked. Big Tech interests are given free rein to develop and deploy technologies at the border and set the agenda of what counts as innovation and whose perspectives really matter when conversations around borders happen in national, regional, and international policy circles.

    There is big money to be made in the sharpening of borders with draconian technologies. According to the market forecast company Market and Markets, the global homeland security market will grow more than 6 percent by 2026, reaching $904.6 billion. As border and immigration budgets only continue to rise in Europe, the United States, and places beyond, there will only be more armed “robo-dogs,” drones with tasers, and border AI-lie detectors filling border zones. This coincides with forecasts for more and more people on the move in the coming decades—for various reasons, including catastrophic climate change. The collision of aggressive tech borders with human mobility has the makings of a monumental human rights disaster.

    Participation in discussions around technologies at the border is still limited to a select few, often in the suffocating constraints of the public-private nexus. The viewpoints of those most affected are routinely excluded from the discussion, particularly regarding no-go zones and ethically fraught uses of technology. Much of the discussion, such as it is, lacks contextual analysis or consideration of the ethical, social, political, and personal harm that these new technologies will have. While border and immigrant rights groups such as Mijente, Just Futures Law, the Immigrant Defense Project and others have been fighting the use of high-risk surveillance along the U.S.-Mexico border, the lucrative political climate of exclusion and border enforcement at all costs is what animates the move toward a surveillance dragnet. This dragnet will only increase the suffering and death along the frontier. “It’s a slow-motion genocide,” James Holeman, founder of Battalion Search Rescue, recently told Petra Molnar in the Arizona desert.

    Borders are the perfect testing ground for technologies: unregulated, increasingly politicized, and impacting groups already struggling with adequate resources. Ultimately, Big Tech and quick fixes do not address the systemic causes of marginalization and migration—historical and present-day decisions that perpetuate vast inequalities in the world and that benefit the fortressed West while disenfranchising and displacing the rest. Whether it be armed agents, imposed walls, or robo-dogs, border militarization ensures that rich countries can keep looting, exploiting, and polluting the rest of the world.

    https://www.theborderchronicle.com/p/robo-dogs-and-refugees-the-future
    #robots_dogs #complexe_militaro-industriel #robots #robots_chiens #frontières #surveillance #technologie #asile #migrations #réfugiés #robo-dog #Ghost_Robotics #Nogales #Mexique #USA #Etats-Unis #désert_du_Sonora #DHS #El_Paso #programmable_pooches #GuardBot #Anduril #Elbit_Systems #Predator_B #general_atomics #drones #robo_dog

  • #Agent_orange, la dernière bataille

    Utilisé pendant la guerre du Vietnam, l’agent orange a fait des ravages. Cet herbicide était utilisé par l’armée américaine pour détruire les forêts où se cachaient les résistants du Front National de libération et les cultures agricoles qui les nourrissaient. Pourtant, ce produit chimique contenant un produit cancérigène, la dioxine, reste encore autorisé aujourd’hui dans les forêts et les pâturages américains comme dans l’Oregon. En 2014, une ancienne reporter dans la jungle du sud Vietnam a assigné en justice vingt-six fabricants américains, dont Monsanto, depuis la France son pays de résidence, pour dénoncer les épandages. Carol Van Strum, une activiste américaine, mène quant à elle depuis plus de quarante ans, une guerre sans relâche pour dénoncer la responsabilité de l’industrie agrochimique face à cette catastrophe humaine et écologique. Pendant ce temps au Vietnam, une nouvelle génération d’enfants est née avec des malformations effroyables. Dans ce documentaire, Alan Adelson et Kate Taverna enquêtent sur cette arme de destruction massive.

    –-> #film_documentaire passé sur arte, ajourd’hui plus disponible.
    A voir ici (pour l’instant au moins) :
    https://cs-cz.facebook.com/MouvCommuniste1/videos/agent-orange-la-derni%C3%A8re-bataille-sur-arte-cest-un-proc%C3%A8s-politique-historique-u/356341652390208

    #film #documentaire #Vietnam #guerre_chimique #déforestation #coupe_à_blanc #Oregon #Michael_Newton #sylviculture #justice #Tran_To_Nga #herbicide #Dow_chemical #défoliant #histoire #guerre_du_Vietnam #opération_Ranch_Hand #dioxine #propagande #citizens_against_toxic_spray (#CATS) #cancer #malformations #Bayer #Monsanto #poison_papers

    • Ma terre empoisonnée

      Tran To Nga raconte ici son étonnant destin franco-vietnamien, une vie de combats et d’utopies. Issue d’une famille d’intellectuels, elle grandit au temps de l’Indochine française et vit au plus près la lutte pour l’indépendance.Après de brillantes études à Saigon puis à Hanoi, elle s’engage dans le mouvement de libération du Sud-Vietnam contre la présence américaine. Dans les années 1960, alors que la violence fait rage, elle s’active au coeur de la jungle, dans les camps de maquisards. Son destin bascule quand les avions de l’US Army larguent d’énormes quantités de désherbant sur ces forêts. Ce produit, surnommé « agent orange », a des effets dévastateurs : les arbres meurent, les sols sont pollués, des centaines de milliers de personnes contaminées. Nga, elle-même atteinte par
      ces nuages toxiques, découvrira, des années plus tard, les ravages qu’ils peuvent provoquer.
      Aujourd’hui, elle vient en aide aux victimes oubliées de l’agent orange et poursuit devant la justice française vingt-six sociétés américaines de pétrochimie l’ayant fabriqué.
      Dans ce livre, écrit avec Philippe Broussard, l’auteur retrace le parcours qui l’a conduite également à connaître la clandestinité, la torture et la prison. Son récit de la guerre du Vietnam et de ses conséquences offre une vision inédite du conflit, dénuée de haine, touchante d’humanité, d’amour maternel et de courage.

      https://www.editions-stock.fr/livres/essais-documents/ma-terre-empoisonnee-9782234079014
      #livre #résistance

  • La Vallée de l’étrange
    (doc pour un future dessin)

    La vallée de l’étrange1,2 ou vallée dérangeante (de l’anglais uncanny valley) est une théorie du roboticien japonais Mori Masahiro, publiée pour la première fois en 19703, selon laquelle plus un robot androïde est similaire à un être humain, plus ses imperfections nous paraissent monstrueuses. Ainsi, beaucoup d’observateurs seront plus à l’aise en face d’un robot clairement artificiel que devant un robot doté d’une peau, de vêtements et d’un visage visant à le faire passer pour humain. Ce n’est qu’au-delà d’un certain degré de réalisme dans l’imitation, selon cette théorie, que les robots humanoïdes seront mieux acceptés. C’est pour cela qu’est utilisé le terme de « vallée » : il s’agit d’une zone à franchir dans laquelle chaque progrès fait vers l’imitation humaine amènera au départ plus de rejet, mais passé un certain seuil de réalisme, une acceptation plus grande.

    https://fr.wikipedia.org/wiki/Vall%C3%A9e_de_l%27%C3%A9trange

    https://www.youtube.com/watch?v=2Gf35CiqJD0

    #uncanny_valley #robots

  • La voiture autonome ? Une catastrophe écologique Celia Izoard pour Reporterre
    https://reporterre.net/La-voiture-autonome-Une-catastrophe-ecologique

    L’industrie automobile prépare activement la généralisation des véhicules autonomes. Problème : leur mise en œuvre à grande échelle aurait des conséquences écologiques très néfastes.

    Dans le principe, la prouesse technologique consistant à remplacer par des machines les innombrables opérations complexes qu’effectue une personne au volant paraît difficilement compatible avec l’idée de sobriété. Un des derniers modèles, présenté en janvier au dernier Consumer’s Electronic Show de Las Vegas, le SUV Range Rover équipé par l’entreprise Valeo, comporte pas moins de quatre ou cinq caméras, huit lidars (qui permettent de mesurer les distances à partir d’un faisceau laser), plusieurs radars longue portée, un ordinateur central de grande puissance, une caméra trifocale sur le pare-brise et d’autres capteurs. La généralisation de ces véhicules impliquerait, pour abaisser les coûts de façon acceptable, le lancement d’une production de masse de tous ces objets, en supplément de l’électronique déjà présente dans les véhicules actuels. Aux États-Unis, la National Mining Association rappelle régulièrement aux décideurs que « la sophistication croissante des produits de l’industrie automobile va faire exploser la demande en métaux et la compétition pour ces ressources » [1]. En clair, impossible d’obtenir la matière première de tous ces superalliages sans provoquer une augmentation de l’activité minière, qui compte parmi les industries les plus polluantes [2].

    Deuxième problème : la croissance exponentielle des #données (le #data). La conduite automatisée repose sur de gigantesques volumes d’informations que les divers capteurs transmettent aux algorithmes de traitement d’images. Selon Brian Krzanich, PDG d’Intel, un véhicule autonome va générer et consommer, pour huit heures de conduite, environ 40 téraoctets de données, soit l’équivalent de 40 disques durs d’ordinateur. « En circulation, chacun de ces véhicules produira autant de données que 3.000 utilisateurs d’ #internet », précise-t-il [3]. Or la facture énergétique du traitement et du stockage du big data est déjà préoccupante. En France, les #datacenters consommaient déjà en 2015 plus d’électricité que la ville de Lyon. En 2017, ils ont consommé à eux seuls 3 % de l’électricité produite dans le monde, soit 40 % de plus qu’un pays comme le Royaume-Uni [4].

    « L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance » 
    Enfin, la généralisation des véhicules autonomes nécessite le déploiement de la #5G et le renouvellement des infrastructures routières. « Il est probable que l’environnement deviendra plus standardisé et proactif à mesure que sera développée une infrastructure plus communicante, résume un article de la Harvard Business Review. Il faut s’imaginer des transmetteurs radio à la place des feux rouges, des réseaux sans fil permettant aux véhicules de communiquer entre eux et avec les infrastructures, et des unités de bord de route fournissant des informations en temps réel sur la météo, le trafic, et d’autres paramètres [5]. »

    L’Union européenne finance plusieurs projets de ce type via le programme #Codecs, notamment le projet #Cooperative_ITS_Corridor, une autoroute expérimentale connectée desservant #Amsterdam, #Francfort et #Vienne. Une portion test de 8 km est déjà équipée d’une « unité de bord de route » (comprenant une antenne 5G et des ordinateurs) tous les 500 m et d’une caméra tous les 100 m. On imagine la quantité de matériel nécessaire pour équiper ne serait-ce que toutes les autoroutes d’Europe ! Le projet est loin d’être marqué par la sobriété, et moins encore si l’on imagine « des caméras avec des unités de communication (...) installées sur les feux rouges pour avertir le conducteur du passage “au vert” », comme les auteurs du Livre blanc #Mobility_Nation, le rapport du Boston Consulting Group remis au gouvernement pour accélérer l’essor du #transport_autonome [6].


    Un prototype de véhicule autonome Nissan, en 2014.

    On peut dès lors s’interroger sur la dénomination de ces véhicules : autonomes, vraiment ? André Gorz montrait déjà en 1973 à quel point l’automobile, qui dépend d’un approvisionnement en pétrole et d’une infrastructure gigantesque, reposait sur une autonomie largement fictive : « Ce véhicule allait obliger [l’automobiliste] à consommer et à utiliser une foule de services marchands et de produits industriels que seuls des tiers pouvaient lui fournir. L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance [7]. » La démonstration paraît encore plus probante pour ces véhicules qui ne pourraient « rouler tout seuls » qu’à la condition de modifier radicalement leur environnement en déployant autour d’eux un ensemble de macrosystèmes techniques.

    « Un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite » 
    Pour les entreprises, les véhicules dits autonomes participent pourtant de la « #mobilité_durable ». Leur argumentaire a largement été repris par le gouvernement : dans les « Neuf solutions de la nouvelle France industrielle » du président macron, les véhicules autonomes figurent en bonne place dans le volet « #mobilité_écologique ». Quels sont les arguments ? D’une part, l’interconnexion des véhicules et des infrastructures va réduire les embouteillages en permettant d’ajuster les itinéraires en temps réel. Ensuite, la conduite autonome, plus fluide, consommerait moins d’ #énergie. Surtout, le transport autonome serait porteur de la fameuse révolution de l’ #autopartage : on pourrait délaisser son véhicule personnel au profit des services de #robots-taxis en #covoiturage. Mais en analysant cette promesse, on constate qu’elle sert surtout à contrebalancer le principal problème que pose le transport autonome : le redoutable #effet_rebond, tel que les économies d’énergie procurées par une technique vont susciter l’augmentation de la consommation.

    Selon un rapport de Morgan Stanley, il paraît vraisemblable que les premiers véhicules autonomes opérationnels à grande échelle seront des #camions de transport routier. Ils seraient pilotés à distance sur des routes complexes et en conduite automatique sur autoroute ; ces camions pourraient circuler en convois, avec un seul chauffeur à la tête de plusieurs véhicules. Étant donné que la paie des chauffeurs représente environ 40 % du coût du transport, les grandes entreprises du secteur s’attendent à une baisse historique des prix, qui donnerait à la route un avantage certain par rapport au #ferroviaire [8]. Que ce soit pour du fret ou de la livraison, on aurait là une incitation à augmenter le nombre de marchandises en circulation, pour le plus grand profit des monopoles de la vente en ligne. Et comment les particuliers, les actifs surmenés par exemple, résisteraient-ils à la tentation de se faire livrer tout et n’importe quoi à domicile ?

    Selon ce même rapport, les véhicules autonomes pourraient concurrencer les transports en commun, d’une part en diminuant de deux tiers le coût d’un #taxi, d’autre part en rendant la voiture personnelle plus attractive : « Si l’automobile devient un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite, le consommateur pourrait échapper aux désagréments des transports publics en optant pour la “conduite” d’un véhicule autonome personnel. » La voiture autonome renforcerait ainsi le phénomène de suburbanisation, rendant acceptable de vivre plus loin de son travail en permettant à beaucoup de commencer leur journée dès l’aube dans une sorte de bureau privatif mobile. Elle permettrait à de nouveaux usagers — enfants, personnes très âgées — de se déplacer facilement, ce qui augmenterait encore, comme l’a confirmé une étude de l’université de Leeds, le nombre de véhicules sur les routes [9]. En gros, concluent les chercheurs, à partir du moment où il ne sera plus nécessaire de toucher le volant, les effets négatifs se multiplieront.


    Un prototype de voiture sans chauffeur d’Uber à San Fransisco, en novembre 2016.

    « Au plan environnemental, la voiture autonome est a priori catastrophique, puisqu’elle va faciliter le recours à l’automobile », confirme Bertrand-Olivier Ducreux, du service transport et mobilités de l’Agence pour l’environnement et la maîtrise de l’énergie (Ademe). Ce service est notamment chargé de l’appel à projets « expérimentation du véhicule routier autonome » qui subventionne les entreprises du secteur via le plan d’investissement d’avenir. « La position de l’ #Ademe, c’est de tenter d’orienter les véhicules autonomes vers une mobilité vertueuse, en faisant en sorte qu’ils soient utilisés comme un service d’autopartage. L’idéal, pour nous, c’est une navette de six, huit places sans conducteur. » Par exemple, un véhicule Uber sans chauffeur qui viendrait chercher plusieurs clients effectuant des trajets semblables.

    « Une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers » 
    En admettant l’idée de confier l’avenir des transports collectifs à Uber et autres géants du net, la promotion de ces robots-taxis pourrait-elle suffire à enrayer ce qui ressemble à une étape de plus vers la #surconsommation ? Pour Thomas Le Gallic, chercheur en prospective au sein du laboratoire Ville Mobilité Transport, le pari est risqué. « Les études concluent que les véhicules autonomes pourraient aussi bien doubler que diviser par deux la consommation d’énergie associée à la mobilité des personnes. Mais l’augmentation semble plus probable, parce que les gens seront incités à faire des trajets plus longs. Pour moi, une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers. Mais ce n’est pas la tendance qui se dessine. »

    Ainsi, loin de l’étiquette « mobilité écologique » sous laquelle les pouvoirs publics investissent dans les véhicules autonomes, il faudrait inverser le constat : pour que cette innovation ne soit pas catastrophique, il faudrait une politique extrêmement volontariste.

    Cela impliquerait que le gouvernement, de manière assez invraisemblable, décide de rendre la voiture personnelle prohibitive pour la remplacer par une ambitieuse politique de transports publics et de navettes. Est-ce vraiment le projet ? L’État prévoit-il de se donner les moyens de limiter drastiquement les ventes des constructeurs automobiles ? Est-ce vraiment ce qu’Emmanuel Macron avait en tête, lors de son discours de mars 2018 sur l’ #intelligence_artificielle, quand il déclarait vouloir mener la « bataille essentielle » de la voiture autonome parce que « la #France est une grande nation automobile, et nous y avons notre rôle historique » ?

    En mai 2018, l’État avait déjà dépensé près de 200 millions d’euros pour subventionner la #recherche en véhicules autonomes [10]. C’est sans commune mesure avec ce que pourrait ensuite coûter la mise en œuvre de la 5G, la refonte des infrastructures routières, les mesures de #cybersécurité, soit les investissements publics colossaux nécessaires à leur déploiement, auxquels il faut ajouter le coût social de la mise au chômage de plusieurs centaines de milliers de chauffeurs professionnels.

    Si l’objectif est de mener la « révolution de l’autopartage » et d’en finir avec la voiture personnelle, a-t-on besoin des véhicules autonomes ? Ces investissements ne pourraient-ils pas tout aussi bien servir à mener une aussi ambitieuse politique de transports collectifs avec conducteurs en finançant les trains, les bus et les navettes que réclament les habitants des campagnes et de la France périurbaine pour délaisser leur voiture personnelle ?

    Notes
    [1] « Minerals Drive the Auto Industry », American Mining Association, 10/02/14.
    [2] Cf. Revue Z, n° 12, « Trésors et conquêtes », Agone, 2018.
    [3] « Just one autonomous car will use 4000 GB of data per day », Network World, 7/12/16.
    [4] « Quand le stockage de données consommera plus d’énergie que le monde n’en produit », L’Usine nouvelle, 29/06/18.
    [5] « To Make Self-Driving Cars Safe, We Also Need Better Roads and Infrastructure », 14/08/18.
    [6] « Réinventer la mobilité urbaine et périurbaine à l’horizon 2030 », novembre 2017. Le Boston Consulting Group est une émanation du Forum économique mondial financé par 1.000 multinationales réalisant un chiffre d’affaires supérieur à 3 milliards d’euros.
    [7] « L’idéologie sociale de la bagnole », Le Sauvage, automne 1973.
    [8] Blue Paper on Autonomous Cars, 2013.
    [9] « Self-driving Cars : Will They Reduce Energy Use ? », University of Leeds, 2016 ; « Will Self-driving Cars Be Good or Bad for the Planet ? », geekwire.com, 25/02/16.
    [10] Développement des véhicules autonomes : orientations stratégiques pour l’action publique, mai 2018.

  • Pour la première fois, des drones auraient attaqué des humains de leur propre initiative
    https://www.courrierinternational.com/article/guerre-pour-la-premiere-fois-des-drones-auraient-attaque-des-

    D’après un rapport des Nations unies publié en mars dernier, des #attaques de #drones sans aucune intervention humaine ont été recensées en #Libye. On ne sait pas s’il y a eu des victimes, mais cet événement prouverait que les tentatives de réguler les #robots_tueurs ont déjà un train de retard.

    #défaillance_technique

  • Why the Dancing Robots Are a Really, Really Big Problem. | by James J. Ward | The Startup | Dec, 2020 | Medium
    https://medium.com/swlh/why-the-dancing-robots-are-a-really-really-big-problem-4faa22c7f899

    Yes, the cynical view is probably right (at least in part), but that’s not what makes this video so problematic, in my view. The real issue is that what you’re seeing is a visual lie. The robots are not dancing, even though it looks like they are. And that’s a big problem.

    Humans dance for all kinds of reasons. We dance because we’re happy or angry, we dance to be part of a community or we do it by ourselves, we dance as part of elaborate rituals or because Bruce Springsteen held out a hand to us at a concert. Dancing, in fact, is one of the things that humans have in common across cultures, geographies, and time — we love to dance, and whenever we do it, it’s because we are taking part in an activity we understand to have some kind of meaning, even if we don’t know what it is. Perhaps that’s the point, how can we even explain dancing? As Isadora Duncan once said, “If I could tell you what it meant there would be no point in dancing it.”

    Robots, though? Robots don’t dance. That’s not some sort of critique of a robot or shade-throwing. I don’t criticize my hammer for not being able to recite Seamus Heaney. Tools serve functions and move in the ways designed or concocted for them — but they have no innerworldly life that swells and expresses itself in dancing. We might like to anthropomorphize them, imbue them with humanness largely because we do that to everything. We talk to our toasters and cut deals with our cars (“Just make it ten more miles!”) because we relate to a world filled with things made by humans as though that world was filled with humans, or at least things with a little humanity. And so when we watch the video, we see robots moving in a way that we sometimes do or wish we could, we experience the music, the rhythmic motion, the human-like gestures, and they all combine to give us an impression of joyfulness, exuberance, and idea that we should love them, now that they can dance.

    But they can’t.

    No, robots don’t dance: they carry out the very precise movements that their — exceedingly clever — programmers design to move in a way that humans will perceive as dancing. It is a simulacrum, a trompe l’oeil, a conjurer’s trick. And it works not because of something inherent in the machinery, but because of something inherent in ours: our ever-present capacity for finding the familiar. It looks like human dancing, except it’s an utterly meaningless act, stripped of any social, cultural, historical, or religious context, and carried out as a humblebrag show of technological might. Also: the robots are terrible at doing the Mashed Potato.

    The moment we get high-functioning, human-like robots we sexualize them or force them to move in ways that we think are entertaining, or both. And this is where the ethics become so crucial. We don’t owe a robot human rights; they aren’t human, and we should really be spending our time figuring out how to make sure that humans have human rights. But when we allow, celebrate, and laugh at things like this Boston Dynamics video, we’re tacitly approving a view of the world where domination and control over pseudo-humans becomes increasingly hard to distinguish from the same desire for domination and control over actual humans.

    Any ethical framework would tell you this is troubling. You don’t need to know your consequentialism from your deontology to understand that cultivating and promoting a view of the world where “things that are human-like but less human than I am get to be used however I want” will be a problem.

    #Robots #Intelligence_artificielle #Danse #Ethique #Culture_numérique

    • voir peut-être aussi Stiegler (2016) :

      https://www.franceculture.fr/emissions/les-nuits-de-france-culture/la-nuit-revee-de-jean-pierre-vincent-2017-69-bernard-stiegler-je-refle

      Je réfléchis au rapport entre la technique et le mal […] Adorno et Horkheimer en 1944 disent que les industries culturelles sont en train de produire une nouvelle forme de barbarie. […] Ils soutiennent qu’à travers les industries culturelles, la raison se transforme en rationalisation, ce qui signifie pour moi la réduction de la raison au calcul, à la calculabilité. Ils montrent comment s’instaure un système qui est apparu dès les années 20 aux Etats-Unis, et qui va considérablement s’étendre avec la télévision. Il s’agit d’un système entre la production automatisée des automobiles, la consommation et la crétinisation qui va s’instaurer, d’après eux, avec les industries dites de programmes.

      Ce processus va bien plus loin encore selon moi avec les technologies numériques, ce qu’on appelle la data économie, mais je pense qu’il faut rouvrir ce dossier sur d’autres bases que celles de Adorno et Horkheimer (…) Nous vivons nous au 21ème siècle une véritable révolution des conditions de la pensée par une exploitation désormais absolument systématique des capacités de calcul artificiel qui est en train de totalement bouleverser notre horizon de pensée.