• Amazon scrapped a secret AI recruitment tool that showed bias against women | VentureBeat
    https://venturebeat.com/2018/10/10/amazon-scrapped-a-secret-ai-recruitment-tool-that-showed-bias-against-w

    Everyone wanted this holy grail,” one of the people said. “They literally wanted it to be an engine where I’m going to give you 100 resumes, it will spit out the top five, and we’ll hire those.”

    But by 2015, the company realized its new system was not rating candidates for software developer jobs and other technical posts in a gender-neutral way.

    That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry.

    In effect, Amazon’s system taught itself that male candidates were preferable. It penalized resumes that included the word “women’s,” as in “women’s chess club captain.” And it downgraded graduates of two all-women’s colleges, according to people familiar with the matter. They did not specify the names of the schools.

    Amazon edited the programs to make them neutral to these particular terms. But that was no guarantee that the machines would not devise other ways of sorting candidates that could prove discriminatory, the people said.

    The Seattle company ultimately disbanded the team by the start of last year because executives lost hope for the project, according to the people, who spoke on condition of anonymity. Amazon’s recruiters looked at the recommendations generated by the tool when searching for new hires, but never relied solely on those rankings, they said.

    Their goal was to develop AI that could rapidly crawl the web and spot candidates worth recruiting, the people familiar with the matter said.

    The group created 500 computer models focused on specific job functions and locations. They taught each to recognize some 50,000 terms that showed up on past candidates’ resumes. The algorithms learned to assign little significance to skills that were common across IT applicants, such as the ability to write various computer codes, the people said.

    Instead, the technology favored candidates who described themselves using verbs more commonly found on male engineers’ resumes, such as “executed” and “captured,” one person said.

    Gender bias was not the only issue. Problems with the data that underpinned the models’ judgments meant that unqualified candidates were often recommended for all manner of jobs, the people said. With the technology returning results almost at random, Amazon shut down the project, they said.

    Some activists say they are concerned about transparency in AI. The American Civil Liberties Union is currently challenging a law that allows criminal prosecution of researchers and journalists who test hiring websites’ algorithms for discrimination.

    “We are increasingly focusing on algorithmic fairness as an issue,” said Rachel Goodman, a staff attorney with the Racial Justice Program at the ACLU.

    Still, Goodman and other critics of AI acknowledged it could be exceedingly difficult to sue an employer over automated hiring: Job candidates might never know it was being used.

    #Intelligence_artificielle #Amazon #Ressources_humaines #Recrutement #Gender_bias #Discrimination



  • Un accident suspend la circulation des navettes autonomes à Sion ats/spe - 20 Septembre 2019 - RTS
    https://www.rts.ch/info/regions/valais/9858744-un-accident-suspend-la-circulation-des-navettes-autonomes-a-sion-.html

    Une légère collision entre une voiture et une navette autonome s’est produite jeudi matin à Sion (VS). CarPostal a retiré ses deux navettes de la circulation, le temps de comprendre les causes de l’incident.
    La voiture bifurquait lentement sur la place de la gare de Sion lorsqu’elle a heurté l’aile avant gauche de la navette. « Aucun voyageur ne se trouvait à l’intérieur et personne n’a été blessé » a précisé CarPostal dans un communiqué.

    CarPostal espère remettre le plus vite possible les navettes en circulation mais ne le fera que lorsque les causes de l’incident seront élucidées. « Le constructeur analyse en ce moment les boîtes noires du véhicule », a précisé Valérie Gerl, porte-parole de CarPostal.


    Intégration au trafic urbain
    C’est la deuxième fois que les tests doivent être temporairement suspendus. En septembre 2016, un incident avait provoqué la suspension de l’exploitation durant deux semaines.

    Cantonnées jusqu’à fin 2017 dans les rues à faible trafic de la vieille-ville de Sion, les navettes autonomes peuvent depuis mai 2018 traverser les carrefours à grande circulation sans assistance manuelle et ainsi s’intégrer davantage au trafic urbain.

    #navette_autonome #transport #accident #poubelles #daube #echec #fantasme #Suisse #voiture #algorithme #robotisation #innovation #intelligence_artificielle 


  • Yuval Noah Harari : « On dispose des technologies pour pirater les êtres humains »
    https://www.lemonde.fr/long-format/article/2018/09/19/yuval-noah-harari-on-dispose-des-technologies-pour-pirater-les-etres-humains

    La démocratie libérale part du principe que notre cerveau est une boîte noire qui est remplie de nos désirs et de nos pensées et à laquelle nous seuls avons accès. C’est un régime qui postule que l’électeur sait ce qu’il fait. On décide du Brexit parce qu’on accorde la plus haute valeur au sentiment de l’électeur britannique. Et personne ne conteste la véracité de ce sentiment. Or, la crise actuelle naît du fait qu’on dispose des technologies pour pirater les êtres humains, et pas seulement les portables ou les ordinateurs. La révolution, c’est qu’on peut comprendre vos désirs, vos sentiments, vos pensées, et vous contrôler.

    Les « fake news » n’ont rien de nouveau, mais maintenant on peut en nourrir les individus en les ciblant. Si quelqu’un hait les migrants, on lui montre une histoire de migrants violant des Françaises, il va facilement y croire, même si elle n’est pas vraie. Les fausses nouvelles sont fabriquées pour provoquer un effondrement du discours public, pour emmener les gens vers les extrêmes.

    Venant d’un israélien, ce paragraphe fait plaisir à entendre. Un peu de réalisme...

    Il existe un paradoxe israélien. Le pays est au sommet de l’innovation mais, en même temps, il semble s’avancer vers un tribalisme sans précédent. Pourquoi ?

    Ce n’est pas un paradoxe. On sait, grâce à l’histoire, que le fanatisme religieux, le nationalisme et le tribalisme peuvent coexister avec les innovations technologiques. Il est courant de mettre les technologies les plus avancées au service d’idées mythologiques et de passions tribales. Ce qui rend en partie Israël si innovant est son sentiment de crise existentielle permanente – cette idée que, si on n’innove plus, on sera détruit. Ce processus renforce aussi les sentiments tribaux.

    Prenons l’intelligence artificielle. L’un des laboratoires les plus importants, dans le domaine de la formation d’une dictature numérique, se trouve en Cisjordanie occupée. Là, se rencontrent les pires aspects du tribalisme israélien et juif – le fanatisme religieux – et les technologies les plus avancées. Comment contrôler de façon efficace, une population de 2,5 millions de personnes en utilisant l’intelligence artificielle, le big data, les drones et les caméras ? Israël est leader en matière de surveillance : le pays fait des expériences puis les exporte dans le monde entier.

    Ce que vivent les Palestiniens en Cisjordanie est peut-être le préambule de ce que vivront des milliards de personnes dans le monde : on sera constamment sous l’œil d’un régime de surveillance extrême. En Cisjordanie, on peut déjà difficilement passer un coup de fil, se retrouver entre amis, aller d’Hébron à Ramallah, sans être filmé et repéré. Toutes ces données sont intégrées dans des flux, des algorithmes, des ordinateurs dits intelligents qui possèdent d’innombrables informations sur vous et déterminent des modèles. On apprend à reconnaître des schémas types de comportement humain. Pas besoin d’attendre que quelqu’un écrive sur Facebook : « Je veux tuer un Israélien. »

    C’est l’une des raisons pour lesquelles l’occupation israélienne est si sophistiquée et efficace. On a besoin de beaucoup moins de soldats sur le terrain. Il y a un aspect positif : on peut lutter plus facilement contre le terrorisme et éviter la brutalité extrême que représente un flot de soldats déployés sur le territoire. Mais il y a aussi un aspect négatif : les Israéliens développent des méthodes de plus en plus complexes pour contrôler des millions de personnes, puis les exportent dans le monde entier. Toutes sortes de régimes savent qu’Israël est en pointe dans ce domaine.

    #Intelligence_artificielle #Israel #Surveillance


  • Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération
    https://www.liberation.fr/debats/2018/09/17/aucun-algorithme-jamais-ne-pourra-defendre-la-democratie_1679311

    Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif.

    Corps social

    L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la « désintermédiation » des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.

    Hors l’ensemble de ces conditions, nous allons offrir aux générations futures un monde dans lequel le principal problème ne sera pas que Mark Zuckerberg et quelques autres patrons d’industrie se piquent d’être les gardiens protecteurs de nos démocraties mais qu’ils soient effectivement les seuls encore en position de l’être, tout en n’ayant eux-mêmes qu’une idée très vague et très approximative de la manière de s’y prendre et des chances d’y parvenir.

    Il ne s’agit pas simplement de fake news et de libre arbitre. Il ne s’agit pas simplement de la liberté de l’information ou de la liberté de la presse. Il ne s’agit pas simplement d’algorithmes, de plateformes, d’Etats et de nations. Il ne s’agit pas simplement d’intelligences humaines et d’autres « artificielles ». Il s’agit de la liberté des peuples. Il s’agit de la liberté tout court.

    (1) le projet Solid porté par Tim Berners Lee pourrait en être une première approche.

    Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions).

    #Olivier_Ertzscheid #Intelligence_artificielle #Algorithmes #Démocratie


  • De l’imbrication algorithmique
    http://www.internetactu.net/a-lire-ailleurs/de-limbrication-algorithmique

    On se souvient de la mort d’Elaine Herzberg, première humaine tuée par une voiture autonome en mars 2018 (voir l’enquête qu’en dressait l’écrivain Thierry Crouzet). Pour le Guardian, le journaliste Andrew Smith (@wiresmith) revient sur les hésitations de l’algorithme de la voiture à reconnaître ce qu’il se passait. Pour la (...)

    #A_lire_ailleurs #Enjeux #Recherches #algorithme #intelligence_artificielle #programmation


  • Vers une science de la causalité
    http://www.internetactu.net/2018/09/11/vers-une-science-de-la-causalite

    Depuis l’invention des statistiques, la science ne cherche plus à se prononcer sur la notion de causalité. Corrélation n’étant pas causalité, les statisticiens se refusent à porter un jugement sur quel phénomène « cause » tel autre. La causalité n’est que la forme extrême de la corrélation, autrement dit, ce qui se (...)

    #Articles #Débats #Recherches #intelligence_artificielle


  • What worries me about AI – François Chollet – Medium
    https://medium.com/@francois.chollet/what-worries-me-about-ai-ed9df072b704

    This data, in theory, allows the entities that collect it to build extremely accurate psychological profiles of both individuals and groups. Your opinions and behavior can be cross-correlated with that of thousands of similar people, achieving an uncanny understanding of what makes you tick — probably more predictive than what yourself could achieve through mere introspection (for instance, Facebook “likes” enable algorithms to better assess your personality that your own friends could). This data makes it possible to predict a few days in advance when you will start a new relationship (and with whom), and when you will end your current one. Or who is at risk of suicide. Or which side you will ultimately vote for in an election, even while you’re still feeling undecided. And it’s not just individual-level profiling power — large groups can be even more predictable, as aggregating data points erases randomness and individual outliers.
    Digital information consumption as a psychological control vector

    Passive data collection is not where it ends. Increasingly, social network services are in control of what information we consume. What see in our newsfeeds has become algorithmically “curated”. Opaque social media algorithms get to decide, to an ever-increasing extent, which political articles we read, which movie trailers we see, who we keep in touch with, whose feedback we receive on the opinions we express.

    In short, social network companies can simultaneously measure everything about us, and control the information we consume. And that’s an accelerating trend. When you have access to both perception and action, you’re looking at an AI problem. You can start establishing an optimization loop for human behavior, in which you observe the current state of your targets and keep tuning what information you feed them, until you start observing the opinions and behaviors you wanted to see. A large subset of the field of AI — in particular “reinforcement learning” — is about developing algorithms to solve such optimization problems as efficiently as possible, to close the loop and achieve full control of the target at hand — in this case, us. By moving our lives to the digital realm, we become vulnerable to that which rules it — AI algorithms.

    From an information security perspective, you would call these vulnerabilities: known exploits that can be used to take over a system. In the case of the human minds, these vulnerabilities never get patched, they are just the way we work. They’re in our DNA. The human mind is a static, vulnerable system that will come increasingly under attack from ever-smarter AI algorithms that will simultaneously have a complete view of everything we do and believe, and complete control of the information we consume.

    The issue is not AI itself. The issue is control.

    Instead of letting newsfeed algorithms manipulate the user to achieve opaque goals, such as swaying their political opinions, or maximally wasting their time, we should put the user in charge of the goals that the algorithms optimize for. We are talking, after all, about your news, your worldview, your friends, your life — the impact that technology has on you should naturally be placed under your own control. Information management algorithms should not be a mysterious force inflicted on us to serve ends that run opposite to our own interests; instead, they should be a tool in our hand. A tool that we can use for our own purposes, say, for education and personal instead of entertainment.

    Here’s an idea — any algorithmic newsfeed with significant adoption should:

    Transparently convey what objectives the feed algorithm is currently optimizing for, and how these objectives are affecting your information diet.
    Give you intuitive tools to set these goals yourself. For instance, it should be possible for you to configure your newsfeed to maximize learning and personal growth — in specific directions.
    Feature an always-visible measure of how much time you are spending on the feed.
    Feature tools to stay control of how much time you’re spending on the feed — such as a daily time target, past which the algorithm will seek to get you off the feed.

    Augmenting ourselves with AI while retaining control

    We should build AI to serve humans, not to manipulate them for profit or political gain.

    You may be thinking, since a search engine is still an AI layer between us and the information we consume, could it bias its results to attempt to manipulate us? Yes, that risk is latent in every information-management algorithm. But in stark contrast with social networks, market incentives in this case are actually aligned with users needs, pushing search engines to be as relevant and objective as possible. If they fail to be maximally useful, there’s essentially no friction for users to move to a competing product. And importantly, a search engine would have a considerably smaller psychological attack surface than a social newsfeed. The threat we’ve profiled in this post requires most of the following to be present in a product:

    Both perception and action: not only should the product be in control of the information it shows you (news and social updates), it should also be able to “perceive” your current mental states via “likes”, chat messages, and status updates. Without both perception and action, no reinforcement learning loop can be established. A read-only feed would only be dangerous as a potential avenue for classical propaganda.
    Centrality to our lives: the product should be a major source of information for at least a subset of its users, and typical users should be spending several hours per day on it. A feed that is auxiliary and specialized (such as Amazon’s product recommendations) would not be a serious threat.
    A social component, enabling a far broader and more effective array of psychological control vectors (in particular social reinforcement). An impersonal newsfeed has only a fraction of the leverage over our minds.
    Business incentives set towards manipulating users and making users spend more time on the product.

    Most AI-driven information-management products don’t meet these requirements. Social networks, on the other hand, are a frightening combination of risk factors.

    #Intelligence_artificielle #Manipulation #Médias_sociaux

    • This is made all the easier by the fact that the human mind is highly vulnerable to simple patterns of social manipulation. Consider, for instance, the following vectors of attack:

      Identity reinforcement: this is an old trick that has been leveraged since the first very ads in history, and still works just as well as it did the first time, consisting of associating a given view with markers that you identify with (or wish you did), thus making you automatically siding with the target view. In the context of AI-optimized social media consumption, a control algorithm could make sure that you only see content (whether news stories or posts from your friends) where the views it wants you to hold co-occur with your own identity markers, and inversely for views the algorithm wants you to move away from.
      Negative social reinforcement: if you make a post expressing a view that the control algorithm doesn’t want you to hold, the system can choose to only show your post to people who hold the opposite view (maybe acquaintances, maybe strangers, maybe bots), and who will harshly criticize it. Repeated many times, such social backlash is likely to make you move away from your initial views.
      Positive social reinforcement: if you make a post expressing a view that the control algorithm wants to spread, it can choose to only show it to people who will “like” it (it could even be bots). This will reinforce your belief and put you under the impression that you are part of a supportive majority.
      Sampling bias: the algorithm may also be more likely to show you posts from your friends (or the media at large) that support the views it wants you to hold. Placed in such an information bubble, you will be under the impression that these views have much broader support than they do in reality.
      Argument personalization: the algorithm may observe that exposure to certain pieces of content, among people with a psychological profile close to yours, has resulted in the sort of view shift it seeks. It may then serve you with content that is expected to be maximally effective for someone with your particular views and life experience. In the long run, the algorithm may even be able to generate such maximally-effective content from scratch, specifically for you.

      From an information security perspective, you would call these vulnerabilities: known exploits that can be used to take over a system. In the case of the human minds, these vulnerabilities never get patched, they are just the way we work. They’re in our DNA. The human mind is a static, vulnerable system that will come increasingly under attack from ever-smarter AI algorithms that will simultaneously have a complete view of everything we do and believe, and complete control of the information we consume.


  • Detecting ’deepfake’ videos in the blink of an eye
    https://theconversation.com/detecting-deepfake-videos-in-the-blink-of-an-eye-101072

    What’s a ‘deepfake,’ anyway?

    Making a deepfake video is a lot like translating between languages. Services like Google Translate use machine learning – computer analysis of tens of thousands of texts in multiple languages – to detect word-use patterns that they use to create the translation.

    Deepfake algorithms work the same way: They use a type of machine learning system called a deep neural network to examine the facial movements of one person. Then they synthesize images of another person’s face making analogous movements. Doing so effectively creates a video of the target person appearing to do or say the things the source person did.
    How deepfake videos are made.

    Before they can work properly, deep neural networks need a lot of source information, such as photos of the persons being the source or target of impersonation. The more images used to train a deepfake algorithm, the more realistic the digital impersonation will be.
    Detecting blinking

    There are still flaws in this new type of algorithm. One of them has to do with how the simulated faces blink – or don’t. Healthy adult humans blink somewhere between every 2 and 10 seconds, and a single blink takes between one-tenth and four-tenths of a second. That’s what would be normal to see in a video of a person talking. But it’s not what happens in many deepfake videos.
    A real person blinks while talking.
    A simulated face doesn’t blink the way a real person does.

    When a deepfake algorithm is trained on face images of a person, it’s dependent on the photos that are available on the internet that can be used as training data. Even for people who are photographed often, few images are available online showing their eyes closed. Not only are photos like that rare – because people’s eyes are open most of the time – but photographers don’t usually publish images where the main subjects’ eyes are shut.

    Without training images of people blinking, deepfake algorithms are less likely to create faces that blink normally. When we calculate the overall rate of blinking, and compares that with the natural range, we found that characters in deepfake videos blink a lot less frequent in comparison with real people. Our research uses machine learning to examine eye opening and closing in videos.

    This gives us an inspiration to detect deepfake videos. Subsequently, we develop a method to detect when the person in the video blinks. To be more specific, it scans each frame of a video in question, detects the faces in it and then locates the eyes automatically. It then utilizes another deep neural network to determine if the detected eye is open or close, using the eye’ appearance, geometric features and movement.

    We know that our work is taking advantage of a flaw in the sort of data available to train deepfake algorithms. To avoid falling prey to a similar flaw, we have trained our system on a large library of images of both open and closed eyes. This method seems to work well, and as a result, we’ve achieved an over 95 percent detection rate.

    This isn’t the final word on detecting deepfakes, of course. The technology is improving rapidly, and the competition between generating and detecting fake videos is analogous to a chess game. In particular, blinking can be added to deepfake videos by including face images with closed eyes or using video sequences for training. People who want to confuse the public will get better at making false videos – and we and others in the technology community will need to continue to find ways to detect them.

    #Fake_news #Fake_videos #Intelligence_artificielle #Deep_learning


  • Can the Manufacturer of Tasers Provide the Answer to Police Abuse ? | The New Yorker
    https://www.newyorker.com/magazine/2018/08/27/can-the-manufacturer-of-tasers-provide-the-answer-to-police-abuse

    Tasers are carried by some six hundred thousand law-enforcement officers around the world—a kind of market saturation that also presents a problem. “One of the challenges with Taser is: where do you go next, what’s Act II?” Smith said. “For us, luckily, Act II is cameras.” He began adding cameras to his company’s weapons in 2006, to defend against allegations of abuse, and in the process inadvertently opened a business line that may soon overshadow the Taser. In recent years, body cameras—the officer’s answer to bystander cell-phone video—have become ubiquitous, and Smith’s company, now worth four billion dollars, is their largest manufacturer, holding contracts with more than half the major police departments in the country.

    The cameras have little intrinsic value, but the information they collect is worth a fortune to whoever can organize and safeguard it. Smith has what he calls an iPod/iTunes opportunity—a chance to pair a hardware business with an endlessly recurring and expanding data-storage subscription plan. In service of an intensifying surveillance state and the objectives of police as they battle the public for control of the story, Smith is building a network of electrical weapons, cameras, drones, and someday, possibly, robots, connected by a software platform called Evidence.com. In the process, he is trying to reposition his company in the public imagination, not as a dubious purveyor of stun guns but as a heroic seeker of truth.

    A year ago, Smith changed Taser’s name to Axon Enterprise, referring to the conductive fibre of a nerve cell. Taser was founded in Scottsdale, Arizona, where Smith lives; to transform into Axon, he opened an office in Seattle, hiring designers and engineers from Uber, Google, and Apple. When I met him at the Seattle office this spring, he wore a company T-shirt that read “Expect Candor” and a pair of leather sneakers in caution yellow, the same color as Axon’s logo: a delta symbol—for change—which also resembles the lens of a surveillance camera.

    Already, Axon’s servers, at Microsoft, store nearly thirty petabytes of video—a quarter-million DVDs’ worth—and add approximately two petabytes each month. When body-camera footage is released—say, in the case of Stephon Clark, an unarmed black man killed by police in Sacramento, or of the mass shooting in Las Vegas, this past fall—Axon’s logo is often visible in the upper-right corner of the screen. The company’s stock is up a hundred and thirty per cent since January.

    The original Taser was the invention of an aerospace engineer named Jack Cover, inspired by the sci-fi story “Tom Swift and His Electric Rifle,” about a boy inventor whose long gun fires a five-thousand-volt charge. Early experiments were comical: Cover wired the family couch to shock his sister and her boyfriend as they were on the brink of making out. Later, he discovered that he could fell buffalo when he hit them with electrified darts. In 1974, Cover got a patent and began to manufacture an electric gun. That weapon was similar to today’s Taser: a Glock-shaped object that sends out two live wires, loaded with fifty thousand volts of electricity and ending in barbed darts that attach to a target. When the hooks connect, they create a charged circuit, which causes muscles to contract painfully, rendering the subject temporarily incapacitated. More inventor than entrepreneur, Cover designed the Taser to propel its darts with an explosive, leading the Bureau of Alcohol, Tobacco and Firearms to classify it a Title II weapon (a category that also includes sawed-off shotguns), which required an arduous registration process and narrowed its appeal.

    A few years after Tasers went on the market, Rick Smith added a data port to track each trigger pull. The idea, he told me, came from the Baltimore Police Department, which was resisting Tasers out of a concern that officers would abuse people with them. In theory, with a data port, cops would use their Tasers more conscientiously, knowing that each deployment would be recorded and subject to review. But in Baltimore it didn’t work out that way. Recent reports in the Sun revealed that nearly sixty per cent of people Tased by police in Maryland between 2012 and 2014—primarily black and living in low-income neighborhoods—were “non-compliant and non-threatening.”

    Act II begins in the nauseous summer of 2014, when Eric Garner died after being put in a choke hold by police in Staten Island and Michael Brown was shot by Darren Wilson, of the Ferguson Police. After a grand jury decided not to indict Wilson—witness statements differed wildly, and no footage of the shooting came to light—Brown’s family released a statement calling on the public to “join with us in our campaign to ensure that every police officer working the streets in this country wears a body camera.”

    In the fall of 2014, Taser débuted the Officer Safety Plan, which now costs a hundred and nine dollars a month and includes Tasers, cameras, and a sensor that wirelessly activates all the cameras in its range whenever a cop draws his sidearm. This feature is described on the Web site as a prudent hedge in chaotic times: “In today’s online culture where videos go viral in an instant, officers must capture the truth of a critical event. But the intensity of the moment can mean that hitting ‘record’ is an afterthought. Both officers and communities facing confusion and unrest have asked for a solution that turns cameras on reliably, leaving no room for dispute.” According to White’s review of current literature, half of the randomized controlled studies show a substantial or statistically significant reduction in use of force following the introduction of body cameras. The research into citizen complaints is more definitive: cameras clearly reduce the number of complaints from the public.

    The practice of “testi-lying”—officers lying under oath—is made much more difficult by the presence of video.

    Even without flagrant dissimulation, body-camera footage is often highly contentious. Michael White said, “The technology is the easy part. The human use of the technology really is making things very complex.” Policies on how and when cameras should be used, and how and when and by whom footage can be accessed, vary widely from region to region. Jay Stanley, who researches technology for the American Civil Liberties Union, said that the value of a body camera to support democracy depends on those details. “When is it activated? When is it turned off? How vigorously are those rules enforced? What happens to the video footage, how long is it retained, is it released to the public?” he said. “These are the questions that shape the nature of the technology and decide whether it just furthers the police state.”

    Increasingly, civil-liberties groups fear that body cameras will do more to amplify police officers’ power than to restrain their behavior. Black Lives Matter activists view body-camera programs with suspicion, arguing that communities of color need better educational and employment opportunities, environmental justice, and adequate housing, rather than souped-up robo-cops. They also argue that video has been ineffectual: many times, the public has watched the police abuse and kill black men without facing conviction. Melina Abdullah, a professor of Pan-African studies at Cal State Los Angeles, who is active in Black Lives Matter, told me, “Video surveillance, including body cameras, are being used to bolster police claims, to hide what police are doing, and engage in what we call the double murder of our people. They kill the body and use the footage to increase accusations around the character of the person they just killed.” In her view, police use video as a weapon: a black man shown in a liquor store in a rough neighborhood becomes a suspect in the public mind. Video generated by civilians, on the other hand, she sees as a potential check on abuses. She stops to record with her cell phone almost every time she witnesses a law-enforcement interaction with a civilian.

    Bringing in talented engineers is crucial to Smith’s vision. The public-safety nervous system that he is building runs on artificial intelligence, software that can process and analyze an ever-expanding trove of video evidence. The L.A.P.D. alone has already made some five million videos, and adds more than eleven thousand every day. At the moment, A.I. is used for redaction, and Axon technicians at a special facility in Scottsdale are using data from police departments to train the software to detect and blur license plates and faces.

    Facial recognition, which techno-pessimists see as the advent of the Orwellian state, is not far behind. Recently, Smith assembled an A.I. Ethics Board, to help steer Axon’s decisions. (His lead A.I. researcher, recruited from Uber, told him that he wouldn’t be able to hire the best engineers without an ethics board.) Smith told me, “I don’t want to wake up like the guy Nobel, who spent his life making things that kill people, and then, at the end of his life, it’s, like, ‘O.K., I have to buy my way out of this.’ ”

    #Taser #Intelligence_artificielle #Caméras #Police #Stockage_données


  • Crise au sein du projet européen sur le cerveau coordonné par l’EPFL Lucia Sillig/oang - 21 Aout 2018 - RTS

    http://www.rts.ch/info/sciences-tech/medecine/9789362-crise-au-sein-du-projet-europeen-sur-le-cerveau-coordonne-par-l-epfl.htm

    Le directeur exécutif du Human Brain Project, le vaste projet européen de recherche sur le cerveau, démissionne. La décision de Chris Ebell est liée à des divergences de point de vue avec l’EPFL.
    Le scientifique avait été nommé à la tête du Human Brain Project (HBP) en 2015, après une précédente crise de gouvernance au sein de ce projet visant à simuler le cerveau humain par ordinateur et doté d’un milliard d’euros sur dix ans. Sa démission a été annoncée via un communiqué de quelques lignes sur le site du HBP. https://www.humanbrainproject.eu/en/follow-hbp/news/information-concerning-the-human-brain-projects-coordination-offic

    Chris Ebell et l’EPFL disent se séparer d’un commun accord, à la suite d’un changement de leadership universitaire - vraisemblablement le changement de direction à la tête de l’EPFL - et compte tenu de divergences d’opinion sur la gouvernance et sur les orientations stratégiques du projet.

    L’intérim sera assuré par l’actuel vice-directeur Christian Fauteux. L’EPFL se refuse à tout commentaire supplémentaire.

    De précédentes turbulences
    Gigantesque projet de recherche scientifique, le Human Brain Project réunit une centaine d’universités, avec l’EPFL comme institution de coordination. Il a déjà vécu diverses turbulences avec notamment le déménagement d’une grosse partie du projet de Lausanne à Genève en 2014. Son installation sur le Campus Biotech avait fait grincer quelques dents.

    La même année, des centaines de scientifiques avaient signé une lettre ouverte pour dénoncer une structure trop compliquée, trop centralisée et pas assez transparente. Ils reprochaient aussi à la direction de trop se concentrer sur le volet informatique et de négliger les neurosciences.

    Après un processus de médiation, le comité directeur de trois personnes avait été dissous. Il avait été remplacé par un conseil de 22 personnes, dirigé par Chris Ebell.

    Intérêt scientifique incertain
    Sur le plan purement scientifique, il est encore difficile de dire aujourd’hui si HBP tient ses promesses. Les intérêts en jeu sont nombreux et les avis très tranchés. Une partie de la communauté scientifique estime que c’est un gros soufflé qui va finir par retomber, tandis que d’autres y croient dur comme fer.

    Pour l’instant, les chercheurs ont réussi à simuler une partie du cerveau d’un rat - un échantillon de 30’000 neurones. Or c’est un cerveau humain, avec ses 87 milliards de neurones, qu’ils ambitionnent de mettre en boîte d’ici à 2024. Le pari est immense.

    #Human_Brain_Project #cerveau #recherche #neurosciences #brain #transhumanisme #intelligence_artificielle


  • Facebook Aims To Make MRI Scans 10x Faster With NYU
    https://www.forbes.com/sites/samshead/2018/08/20/facebook-aims-to-make-mri-scans-10x-faster-with-nyu/#2b6219047a04

    Si même l’Université de New York a besoin de Facebook pour faire des recherches... mais tout est clean hein, peut être même open source.

    Zitnick added that partnering with NYU could help the social media giant get the technology into practice if it proves to be successful. “If we do show success, we have an avenue to get this out into clinical practice, test it out, put it in front of real radiologists, and make sure that what we’re doing is actually going to be impactful,” he said.

    But when asked if Facebook plans to release and build medical products in the future, Zitnick didn’t give much away. Instead, he said that “FAIR’s mission is to push the science of AI forward,” before going on to say that FAIR is looking for problems where AI can have a positive impact on the world.

    Facebook and NYU have a long-standing relationship, with several people working for both organizations including Yann LeCun, who was the director of FAIR before he became Facebook’s chief AI scientist. “This all got started with a connection by someone working both for NYU and in collaboration with FAIR. They suggested it’d be good for us to start talking, which we did,” said Sodickson.

    Facebook and NYU plan to open source their work so that other researchers can build on their developments. As the project unfolds, Facebook said it will publish AI models, baselines, and evaluation metrics associated with the research, while NYU will open source the image dataset.

    Facebook isn’t the only tech company exploring how AI can be used to assist radiologists. For example, DeepMind, an AI lab owned by Google, has developed deep learning software that can detect over 50 eye diseases from scans.

    DeepMind has a number of other healthcare projects but Facebook (who was reportedly interested in buying DeepMind at one stage) claims this project is the first of its kind, as it aims to change the way medical images are created in the first place, as opposed to using existing medical images to see what can be achieved.

    #Facebook #Résonance_magnétique #Neuromarketing #Intelligence_artificielle #Université #Partenariats


  • Facebook and NYU School of Medicine launch research collaboration to improve MRI – Facebook Code
    https://code.fb.com/ai-research/facebook-and-nyu-school-of-medicine-launch-research-collaboration-to-improv

    C’est bô le langage fleuri des experts en public relation...

    Using AI, it may be possible to capture less data and therefore scan faster, while preserving or even enhancing the rich information content of magnetic resonance images. The key is to train artificial neural networks to recognize the underlying structure of the images in order to fill in views omitted from the accelerated scan. This approach is similar to how humans process sensory information. When we experience the world, our brains often receive an incomplete picture — as in the case of obscured or dimly lit objects — that we need to turn into actionable information. Early work performed at NYU School of Medicine shows that artificial neural networks can accomplish a similar task, generating high-quality images from far less data than was previously thought to be necessary.

    In practice, reconstructing images from partial information poses an exceedingly hard problem. Neural networks must be able to effectively bridge the gaps in scanning data without sacrificing accuracy. A few missing or incorrectly modeled pixels could mean the difference between an all-clear scan and one in which radiologists find a torn ligament or a possible tumor. Conversely, capturing previously inaccessible information in an image can quite literally save lives.

    Advancing the AI and medical communities
    Unlike other AI-related projects, which use medical images as a starting point and then attempt to derive anatomical or diagnostic information from them (in emulation of human observers), this collaboration focuses on applying the strengths of machine learning to reconstruct the most high-value images in entirely new ways. With the goal of radically changing the way medical images are acquired in the first place, our aim is not simply enhanced data mining with AI, but rather the generation of fundamentally new capabilities for medical visualization to benefit human health.

    In the interest of advancing the state of the art in medical imaging as quickly as possible, we plan to open-source this work to allow the wider research community to build on our developments. As the project progresses, Facebook will share the AI models, baselines, and evaluation metrics associated with this research, and NYU School of Medicine will open-source the image data set. This will help ensure the work’s reproducibility and accelerate adoption of resulting methods in clinical practice.

    What’s next
    Though this project will initially focus on MRI technology, its long-term impact could extend to many other medical imaging applications. For example, the improvements afforded by AI have the potential to revolutionize CT scans as well. Advanced image reconstruction might enable ultra-low-dose CT scans suitable for vulnerable populations, such as pediatric patients. Such improvements would not only help transform the experience and effectiveness of medical imaging, but they’d also help equalize access to an indispensable element of medical care.

    We believe the fastMRI project will demonstrate how domain-specific experts from different fields and industries can work together to produce the kind of open research that will make a far-reaching and lasting positive impact in the world.

    #Resonance_magnetique #Intelligence_artificielle #Facebook #Neuromarketing


  • Doug Casey est-il un visionnaire ?
    https://www.caseyresearch.com/doug-casey-on-virtual-girlfriends
    Cette semaine, il se penche sur la manière dont la réalité augmentée (AR) et l’intelligence artificielle (IA) pourraient profondément modifier les relations amoureuses, le mariage et même la société elle-même.
    La plupart des gens n’ont même pas pensé à ce sujet. Mais, comme l’explique Doug, ces technologies vont bientôt changer le monde de manière inimaginable.

    Justin : Doug, j’ai récemment lu un article sur une entreprise américaine qui propose une « expérience de petite amie » numérique. http://www.3dhologirlfriend.com/Default
    3D Hologroup a créé une application qui vous permet de télécharger des petites amies virtuelles. Et vous pouvez interagir avec ces filles si vous possédez un appareil de réalité augmentée.

    Doug : Le monde se transforme en quelque chose de presque méconnaissable du passé.
    Si vous êtes attirés par quelqu’un ces jours-ci, vous avez essentiellement besoin d’eux pour signer un papier avant d’oser vous embrasser ou même de les toucher. Je ne plaisante pas. C’est la politique de nombreuses universités et entreprises. Beaucoup d’hommes normaux et en bonne santé aux États-Unis et en Europe, et pas seulement au Japon. Les risques l’emportent sur les récompenses. Le mouvement #MeToo et ses clones ont un effet subtil sur le type moyen. Et les femmes ont peur que les hommes ne soient que Harvey Weinstein en attente.
    Cela se produit parce que le politiquement correct a imprégné la société. Il a atteint le point où il détruit la civilisation occidentale. Il transforme les hommes en petits garçons de soja et les femmes en harridans.
    L’une des conséquences est que les Américains et les Européens considèrent de plus en plus les Américains et les Européens comme faibles et méprisables, voire pitoyables.
    C’est presque une situation nietzschéenne dans laquelle ce qui est sur le point de tomber mérite d’être poussé.
    Ainsi, il semble que la technologie, qui a été notre amie à travers l’histoire, se retourne contre nous de manière inattendue.

    #relations_amoureuses #intelligence_artificielle #technologie #Doug Casey


  • Grande traversée : l’énigmatique Alan Turing : podcast et réécoute sur France Culture - Par Amaury Chardeau
    https://www.franceculture.fr/emissions/grande-traversee-lenigmatique-alan-turing/saison-02-07-2018-26-08-2018

    D’Alan Mathison Turing (23/6/1912- 7/6/1954), le grand public n’a longtemps rien su. En quelques années, Turing est devenu la figure rêvée du génie scientifique maltraité par les conventions morales d’une époque.


    Enigma, la guerre du code
    13/08/2018
    https://www.franceculture.fr/emissions/grande-traversee-lenigmatique-alan-turing/enigma-la-guerre-du-code

    Des marguerites à l’ordinateur
    14/08/2018
    https://www.franceculture.fr/emissions/grande-traversee-lenigmatique-alan-turing/des-marguerites-a-lordinateur

    Le bug
    16/08/2018
    https://www.franceculture.fr/emissions/grande-traversee-lenigmatique-alan-turing/le-bug

    Les mythologies d’Alan Turing
    17/08/2018
    https://www.franceculture.fr/emissions/grande-traversee-lenigmatique-alan-turing/les-mythologies-dalan-turing

    #Alan_Turing #mathématicien #enigma #Cryptographie #cryptologie #cryptage #informatique, #numérique #intelligence_artificielle #homosexualité
    #7654


  • Google a « fait travailler » gratuitement les visiteurs d’un musée, et c’est ce que l’on appelle du « digital labor »

    Début juillet, à Paris, le Grand Palais accueillait un événement monté en partenariat avec le ministère de la Culture et Google. À cette occasion, les visiteurs ont "mis la main à la pâte" gratuitement pour le géant de la tech.

    La manifestation gratuite s’intitulait Art#Connexion. Du 7 au 9 juillet, elle réunissait 15 expériences autour de l’intelligence artificielle (IA) et de l’art. Parmi elles, le dispositif #DrawToArt invitant les visiteurs à gribouiller un dessin afin que l’IA de Google identifie l’œuvre lui ressemblant le plus.

    Comment nous sommes-nous retrouvés à travailler gratuitement pour les géants de la tech, sans vraiment nous en rendre compte ? Alors que le fait de naviguer sur Internet nous semble la plupart du temps guidé par le plaisir et la découverte, il est important de rappeler que cette activité n’est en aucun cas rendue possible grâce à la générosité et l’ergonomie des plateformes en ligne. Au contraire, c’est bien grâce aux internautes et à leur utilisation d’Internet que les acteurs du numérique sont capables d’optimiser leurs services et de générer du profit.

    Cette forme d’exploitation peut sembler difficile à caractériser à partir du moment où elle ne ressemble pas à du travail conventionnel (comme celui qui peut vous mobiliser plusieurs heures par jour, concentré à réaliser des tâches précises pour lesquelles un employeur vous rémunère). Poster une photo sur Facebook, partager une pensée sur Twitter, jouer avec l’Autodraw de Google, cliquer sur un résultat de moteur de recherche ou même discuter sur Skype avec un cousin qui habite à l’autre bout du monde... Ces différentes actions sont plutôt associées à une libre gestion de son temps, et non à une mission qu’on nous aurait assignée.

    Pourtant, toutes produisent bien de la valeur à partir du moment où elles génèrent des métadonnées, et donc des métriques sur le comportement en ligne, exploitables par les « capitalistes du numérique » comme les appelle Antonio Casilli. Souvenez-vous de Captcha, ces petits tests d’identification que l’on retrouvait sur bon nombre de sites lors de l’inscription. En participant à ce petit exercice permettant aux sites de repérer les bots, les internautes travaillaient pour Google, qui cherchait dans le même temps à numériser sans frais des livres. C’est finalement exactement ce qui s’est à nouveau produit au Grand Palais, lorsque la firme de Mountain View a mobilisé des visiteurs en les laissant dessiner pour alimenter le machine learning et entraîner son intelligence artificielle.

    Avoir conscience de l’existence d’un digital labor est essentiel pour comprendre l’économie numérique de notre époque. Pour Antonio Casilli, c’est aussi un moyen de discuter ensemble de l’idée d’un revenu inconditionnel universel des internautes, qui pourrait éventuellement passer par le revenu de base inconditionnel tel qu’envisagé ces dernières années. Celui-ci serait une façon de récompenser les citoyens pour la nature collective de ce travail invisible, disséminé en un nombre incalculables de petits gestes qui font leur présence numérique quotidienne.

    #digital_labor #travail_immatériel #subjectivités_productives #intelligence_artificielle #GAFA #Google



  • Navettes autonomes disparues de la circulation DOE - 13 Juillet 2018 - 20min.ch
    http://www.20min.ch/ro/news/vaud/story/Des-navettes-autonomes-30679750

    A Cossonay (VD), les voyageurs devront encore patienter pour tester les véhicules intelligents.

    Une faute ?
    Les bus du futur ont pris du retard à Cossonay. Alors qu’ils auraient dû circuler depuis le début de l’été, les deux navettes autonomes limitées à 25km/h ne font plus partie du paysage. Des soucis techniques ont repoussé leur mise en service à cet automne au plus tôt, relate La Côte. Après une phase-test, les parcours ont été en partie revus, explique Mauro Pascale, sous-directeur des transports de la région (MBC).
    Prévu initialement le 10 décembre 2017, leur départ avait été repoussé une première fois. Le personnel de bord ayant déjà été formé, il ne manque plus que l’autorisation des l’Office fédéral des routes pour que les bus verts s’aventurent sur les routes.


    #daube #echec #fantasme #Suisse #voiture #algorithme #voiture_autonome #voitures_autonomes #voiture #transport #automobile #robotisation #innovation #intelligence_artificielle #robot

    • Voitures autonomes : pas pour demain Joan Plancade - 16 Mars 2018 - bilan.ch/techno-plus
      http://www.bilan.ch/techno-plus-de-redaction/voitures-autonomes-demain

      Intempéries qui brouillent les capteurs, limites de l’intelligence artificielle, méfiance des passagers... Les défis sont nombreux pour les véhicules sans chauffeur, malgré des progrès constants.

      La décennie à venir verra-t-elle l’avènement du véhicule autonome ? La succession des annonces semble plaider en ce sens. Alors que Ford le promet pour 2021, General Motors surenchérit en janvier en affirmant qu’elle lancera la production en série d’une voiture sans pédale ni volant dès 2019. Pour Raphaël Gindrat, cofondateur de la startup lausannoise BestMile, qui développe une solution de gestion de flottes de véhicules autonomes, la révolution est imminente : « Il y a deux ans, on parlait de 2020 pour le véhicule autonome, parce que ça sonnait bien, un chiffre rond, qui correspondait en plus aux JO au Japon et à l’Expo universelle à Dubai. Mais avec les investissements des grands constructeurs, à l’image de General Motors qui a racheté Cruise Automation, des géants de l’informatique Google et Apple, même des fournisseurs de processeurs comme Nvidia, on devrait voir les premiers taxis robots commerciaux sur certaines zones dans ces délais. » 

      Perception et intelligence limitées
      Pour autant, certaines limites techniques invitent à douter d’une généralisation rapide de la conduite autonome sur les routes. En Suisse, les navettes produites par la société Navya, introduites à Sion
il y a déjà trois ans pour CarPostal, sont désormais testées par les TPG (Genève) ou encore le MBC à Cossonay (VD). En termes de performance, on reste encore loin de la prestation d’un chauffeur humain. Les navettes évoluent à une vitesse comprise entre 20 et 30 kilomètres par heure, s’arrêtent très fréquemment, ne discernent pas toujours la nature d’un obstacle et n’évoluent que sur une ligne préalablement cartographiée, sans possibilité de s’en écarter. 

      Des limites qu’explique Diego Isaac, responsable communication de la société Navya à Lyon : « Bien sûr, les véhicules sont équipés de caméras et d’une batterie de capteurs. Mais la technologie est basée avant tout sur la #cartographie précise du trajet et le Lidar, une sorte de « sonar laser ». Que ce soit un piéton assis ou un bout de carton, le véhicule s’arrêtera, car il perçoit une différence entre la carte enregistrée en système et ce qu’il rencontre dans la réalité. Au fur et à mesure des trajets, le système améliore sa compréhension via les informations recueillies, par autoapprentissage. »

      Des véhicules autonomes au comportement routier plus fluide sont en test, notamment par Waymo (Google) ou General Motors, parmi les plus avancés de l’industrie, mais toujours sur la base de la cartographie et du deep learning. Une approche potentiellement insuffisante, selon Hervé Bourlard, directeur de l’institut de recherche sur l’intelligence artificielle Idiap, basé à Martigny (VS) : « Reconnaître n’est pas comprendre.

      Tout ce que peut faire un véhicule autonome aujourd’hui, c’est généraliser des modèles, c’est-à-dire apprendre à partir d’exemples. Or, il reste impossible de couvrir l’ensemble des cas possibles, ce qui est préoccupant sachant que la machine ne dispose pas du « bon sens commun » humain pour faire face aux situations inconnues. »

      i un listing plus exhaustif des types d’obstacles peut s’envisager dans un délai de trois à quatre ans, le scientifique considère qu’un début de basculement vers une compréhension plus fine de l’environnement n’interviendra probablement pas avant une décennie : « La conduite est un #acte_social. Chercher le regard de l’autre à une intersection, comprendre qu’une manifestation a lieu ce jour-là en ville, qu’on est à proximité d’une école, anticiper la réaction d’un piéton sont des interactions très complexes. On en est encore loin en termes d’intelligence artificielle. »

      La barrière météorologique
      Autre défi technique majeur, les difficultés des capteurs en cas d’intempérie. Problème d’identification d’objets, de lecture de marquage au sol et de signalisation, plus encore par temps de neige, les systèmes opèrent très péniblement loin de la douceur californienne (première zone mondiale pour les tests de véhicules autonomes, avec près de 800  000 km effectués en 2017). L’industrie a créé la ville artificielle de #Mcity dans le Michigan, pour essayer les systèmes notamment sous la pluie, la neige ou le givre. En Suisse, en attendant, un test réalisé sur route mouillée en juin  2017 par le TCS, concernant l’assistance au freinage d’un véhicule Volkswagen Up ! équipé d’un Lidar, a abouti à une nouvelle #collision.

      Lever ces obstacles techniques reste nécessaire pour envisager l’évolution d’une régulation, particulièrement défavorable à l’industrie. Selon la Convention de Vienne de 1968, signée notamment par tous les pays européens, « tout véhicule en mouvement (...) doit avoir un conducteur ». Un premier amendement de 2016 autorise désormais l’utilisation de systèmes automatisés, mais toujours sous contrôle d’un conducteur. Certains Etats ont signé des dérogations afin de permettre des tests.

      Reste que la présence du « safety driver » est le plus souvent requise, ce qui limite l’intérêt commercial de la solution, comme le relève Diego Isaac de Navya : « Il n’y a pas de chauffeur dans nos navettes, mais les sociétés de transport doivent quand même payer un opérateur pour les trajets. Sans le coût lié à cet opérateur, les transporteurs publics pourraient repenser leur organisation avec beaucoup plus de rotations, des endroits éloignés desservis, et un service continu. »

      Un point de vue partagé par Raphaël Gindrat de la startup romande BestMile, qui édite un logiciel de gestion de flotte de bus autonome : « Faire un véhicule autonome, si une personne doit surveiller en continu la route, n’a pratiquement aucun intérêt. La législation doit nécessairement évoluer si on veut passer de la phase des tests à des flottes de 20  000 ou 25  000 véhicules, pour des opérateurs comme Uber par exemple. Mais on peut craindre que si les constructeurs allemands ou français restent en retard sur les Américains, les pouvoirs publics européens freinent l’évolution jusqu’à ce qu’ils soient prêts. » 

      Et en cas d’accident ?
      D’autant plus qu’avant d’autoriser le véhicule sans conducteur, le régulateur doit se pencher sur la responsabilité en cas d’accident, afin de déterminer qui paiera le cas échéant. Constructeurs ? Sociétés de mapping ? Réseaux de communication ? Concepteurs d’algorithmes ? La commission des Nations Unies pour l’Europe travaille sur l’Automated data driver recorder, pour permettre d’évaluer les causes et parties impliquées lors d’un accident. Un tout premier pas vers une redéfinition des responsabilités qui pourrait susciter un long débat.

      Derniers à convaincre et non des moindres, les #automobilistes eux-mêmes. Selon une étude menée conjointement par le TCS et l’Office fédéral des routes, seuls 25% des Suisses feraient confiance à un véhicule complètement autonome. Parmi les principaux facteurs d’inquiétude, le hacking et le détournement des systèmes de conduite, pour 66% d’entre eux, qui pourraient notamment aboutir à des crashs. 

      Au-delà des questions techniques, l’automobiliste devra accepter un changement de paradigme. Les prix élevés des technologies de véhicules sans chauffeur et la nécessaire coordination des flottes laissent envisager une transition depuis l’automobile individuelle vers une prestation de mobilité, par navette ou taxi autonome. Une idée qui doit encore faire son chemin, estime Yves Gerber, responsable communication TCS Group : « Les mentalités évoluent petit à petit vers le véhicule partagé, et des études montrent que les gens font d’avantage confiance à une navette sans chauffeur qu’à un véhicule individuel sans chauffeur. Mais il faudra du temps. Il y a, et il y aura encore longtemps, toute une frange de la population attachée à « piloter » sa propre voiture. »


  • The rise of ’pseudo-AI’ : how tech firms quietly use humans to do bots’ work
    https://www.theguardian.com/technology/2018/jul/06/artificial-intelligence-ai-humans-bots-tech-companies

    Using what one expert calls a ‘Wizard of Oz technique’, some companies keep their reliance on humans a secret from investors It’s hard to build a service powered by artificial intelligence. So hard, in fact, that some startups have worked out it’s cheaper and easier to get humans to behave like robots than it is to get machines to behave like humans. “Using a human to do the job lets you skip over a load of technical and business development challenges. It doesn’t scale, obviously, but it (...)

    #Google #Amazon #AmazonMechanicalTurk #Facebook #algorithme #bot #manipulation #terms (...)

    ##travail


  • Facebook finds Independence document ’racist’ - BBC News
    https://www.bbc.com/news/technology-44722728

    Facebook’s algorithms have ruled that parts of the US Declaration of Independence are hate speech and removed excerpts of them posted to the platform.

    In the run-up to Independence Day, a US community paper based in Texas had been posting small daily chunks of the historic document on its Facebook page.

    At issue was a part of it that referred to “merciless Indian savages”.

    Facebook later apologised and allowed the posting.

    The Liberty County Vindicator had been sharing excerpts from America’s founding document to its Facebook page in an attempt to encourage historical literacy among its readers.

    Part 10 did not appear, with the paper receiving a notice from Facebook saying the post went against its standards on hate speech.

    Editor Casey Stinnett wrote afterwards of the offending paragraph: "Perhaps had Thomas Jefferson written it as ’Native Americans at a challenging stage of cultural development’ that would have been better.

    “Unfortunately, Jefferson, like most British colonists of his day, did not hold an entirely friendly view of Native Americans.”

    The newspaper later confirmed that Facebook had had a change of heart and apologised.

    “It looks like we made a mistake and removed something you posted on Facebook that didn’t go against our community standards,” the company told the Vindicator.

    “We want to apologise and let you know that we’ve restored your content and removed any blocks on your account related to this incorrect action.”

    In a blogpost, assistant editor of political magazine Reason Christian Britschgi said the decision demonstrated the problem with automated searches for hate speech.

    “A robot trained to spot politically incorrect language isn’t smart enough to detect when that language is part of a historically significant document,” he said.

    #Intelligence_artificielle #Déclaration_indépendance #Facebook


  • Le numérique, à l’origine d’une nouvelle fracture sociale
    https://abonnes.lemonde.fr/emploi/article/2018/07/01/numerique-la-nouvelle-fracture-sociale_5324053_1698637.html

    Les exemples de ce type sont légion. Partout dans le monde, les technologies numériques facilitent l’accès à l’emploi, aident les personnes les plus fragiles à monétiser leur travail ou à améliorer leurs revenus, en vendant, par exemple, des productions artisanales ou en tirant meilleur parti d’une récolte. Un téléphone portable et une connexion Internet vont-ils faire ce que les politiques sociales et celles de développement ne sont pas parvenues à accomplir en quelques décennies : réduire les inégalités ?

    La réalité, analysée par les économistes, est plus complexe. Pour un chauffeur de VTC en Europe sauvé par le numérique, combien de taxis craignent de voir dégringoler leur chiffre d’affaires ? Pour un artisan indien, qui vend ses créations textiles en direct grâce à un site Internet, combien de petits marchands ruinés par les géants du commerce en ligne ?

    S’il crée des emplois, le numérique en supprime aussi. Surtout, il a un autre effet pernicieux sur l’emploi : il le transforme, et pas forcément dans le bon sens. « Dans nombre d’entreprises du numérique, c’est 10 % d’emplois qualifiés et 90 % de gens qui font des cartons », rappelle abruptement Jean-Hervé Lorenzi, le président du Cercle des économistes.

    Emergence d’un « cybertariat »

    Face à ce phénomène, certains n’hésitent pas à parler de l’émergence d’un « cybertariat » – une sorte de prolétariat de l’économie numérique. L’essor des plates-formes, dominées par les acteurs globaux que sont les GAFA (Google, Apple, Facebook, Amazon) et autres Uber, fait pencher davantage encore la balance en faveur du capital.

    « Ces entreprises superstars sont très efficaces et, avec des rendements croissants, elles obtiennent des rentes de monopoles, analyse Patrick Artus. Les nouvelles technologies contribuent ainsi à la hausse des marges bénéficiaires des entreprises et à la baisse de la part des salaires dans le revenu national. »

    Dans un séminaire consacré aux mutations technologiques organisé par France Stratégie, Antonio Casilli, maître de conférences en humanités numériques à Télécom ParisTech et chercheur à l’Ecole des hautes études en sciences sociales (EHESS), et Ursula Huws, professeure à l’université du Hertfordshire (Royaume-Uni), spécialiste du travail et de la mondialisation, décrivent ainsi les emplois générés par les plates-formes : « Ce type de travail humain donne une image bien moins sophistiquée de l’intelligence artificielle, qui apparaît en fait comme un mélange d’automatisation et de “clickwork”, autrement dit, un travail en ligne répétitif et mécanique, à coups de clic de souris. Les travailleurs – pour la plupart asiatiques ou africains – touchent des salaires dérisoires pour “nourrir” les algorithmes qui gèrent les contenus en ligne (par exemple, pour marquer des photos), pour le compte de géants d’Internet comme Google ou Facebook. »

    Le rôle essentiel de la formation

    Et l’économiste de rappeler la théorie du porteur d’eau, chère à Alfred Sauvy : à Paris, au début du XXe siècle, on comptait encore 20 000 porteurs d’eau, que l’installation des canalisations et de l’eau courante a privés de leur gagne-pain. Cela leur a permis de cesser ce travail physiquement ardu pour un autre emploi moins pénible, par exemple dans le secteur des services. « Aujourd’hui, le porteur d’eau doit se transformer en personne capable de vendre des services aux entreprises », conclut Gilbert Cette. Et dans cette transformation, la formation et l’accompagnement ont un rôle essentiel à jouer. D’autant que selon l’OCDE, 65 % des écoliers d’aujourd’hui exerceront à l’âge adulte un métier qui n’existe pas encore !

    #Intelligence_artificielle #Travail #Neurocapitalisme


  • YouTube bloque par erreur des vidéos de Blender et du MIT
    https://www.nextinpact.com/brief/youtube-bloque-par-erreur-des-videos-de-blender-et-du-mit-4468.htm

    ContentID, le système de reconnaissance des contenus piratés sur YouTube, fait des siennes selon TorrentFreak. La chaine MIT OpenCourseWare et celle de la fondation Blender sont deux des victimes du blocage.

    Le lecteur indique que les vidéos contiennent du contenu du MIT et de Blender, donc qu’elles sont indisponibles dans le pays de l’internaute. Quand bien même celui-ci est le président de la fondation Blender lui-même. Des dizaines d’autres comptes sont concernés par ce problème, rapporte TorrentFreak.

    Selon YouTube, ces blocages sont dus à la mise à jour du contrat de son programme partenaires. La plateforme promet une solution. La fondation Blender recommande de passer par sa plateforme en attendant.

    #YouTube #ContentID #intelligence_artificielle #propriété_intellectuelle #copyright #Blender #MIT


  • The $300 system in the fight against illegal images - BBC News
    https://www.bbc.com/news/technology-44525358?ocid=socialflow_twitter

    Mr Haschek used three Raspberry PIs, powering two Intel Movidius sticks, which can be trained to classify images. He also used an open source algorithm for identifying explicit material called NSFW (Not Safe For Work), available free of charge from Yahoo.
    Image copyright Christian Haschek
    Image caption Christian Haschek said the system took a couple of hours to assemble.

    He set it to find images which the system could say with 30% or more certainty was likely to contain pornography - he said he set the possibility low so as to be sure not to miss anything.

    He has since discovered 16 further illegal images featuring children on his platform, all of which he reported to Interpol and deleted.

    He then contacted a larger image hosting service, which he declined to name, and found thousands more by running images uploaded to their platform through his system as well.

    #Images #Protection_mineurs #Intelligence_artificielle


  • My Line powered by Google - Google Colombia - YouTube

    https://www.youtube.com/watch?v=0ZVjhTltaIA

    At one time, #Google Assistant could only be found on a handful of smartphones. Today, Google Assistant is available on 500 million devices — smartphones, smart speakers, smart watches, tablets, smart televisions, and a broad range of home appliances and cars.

    But what about the billions of people in the world who still don’t have a smartphone? Enter #MyLine, a phone number you can call to ask Google Assistant questions in parts of Colombia — without a smartphone or computer or even the internet.

    When a person calls 6000913, they receive a welcome greeting and invitation to ask any question. After posing a question, users may hear prompts like “Do you have more questions?” or “Feel free to hang up whenever you’re done,” #CainkadeStudio CEO Jeremy Landis told VentureBeat in an email.

    L’idée est géniale, mais l’idéal est de faire la même chose avec un #assistant_vocal open source (eg. #Mycroft.AI ou #HeyAthena) câblé sur des moteurs de recherche respectant la vie privée type #DuckDuckGo ou #libre comme #searx.

    Mycroft – Open Source Voice Assistant - Mycroft
    https://mycroft.ai

    Hey Athena – Your personal voice assistant https://github.com/rcbyron/hey-athena-client


  • GB : le train en plein chaos après une réforme des horaires AFP - 7 Juin 2018 - Le figaro
    http://www.lefigaro.fr/flash-eco/2018/06/07/97002-20180607FILWWW00119-gb-le-train-en-plein-chaos-apres-une-reforme-des-

    Trains annulés par centaines, usagers exaspérés : une réforme des horaires présentée comme « la plus ambitieuse » de l’histoire récente du rail britannique a pris des airs de fiasco, relançant le débat sur les conséquences de la privatisation du chemin de fer.


    Le train est passé sous son nez, sans s’arrêter, sans prévenir : Eileen Dickens, 77 ans, qui voulait se rendre de Purley (sud de Londres) à Victoria Station, grande gare en plein coeur de la capitale britannique, n’en revient toujours pas. "Le train était pourtant affiché mais il est passé sans s’arrêter. C’est quand même ennuyeux", confie cette vive petite dame, à l’AFP.

    Comme elle, ils sont des centaines de milliers a avoir fait les frais de l’introduction fin mai de nouveaux horaires par deux acteurs majeurs du secteur en Angleterre : #Govia-Thameslink-Railway (#GTR) et #Northern. A l’origine, ces changements étaient destinés à dynamiser la circulation des trains pour faire face à la forte croissance de la demande, le nombre de trajets ayant plus que doublé depuis la privatisation du rail en 1994.

    Las, tout ne s’est pas passé comme prévu, la faute aux « retards » de travaux d’amélioration des lignes et à des difficultés à préparer les équipes aux nouveaux trajets, de l’aveu même des deux compagnies.

     #angleterre #transports #infos_trafic #perturbations #trains #privatisation destruction des #services_publics #privatisations utilisation de l’#intelligence_artificielle ?