• 56Kast #116 : Des robots et des hommes - YouTube
    https://www.youtube.com/watch?v=8f_mERwIXVs

    Les robots comprennent-ils les émotions ? Peut-on leur apprendre l’humour ? Comment vont-ils aider les humains grâce à l’intelligence artificielle ? Spécialiste de l’interaction affective entre humains et robots, la chercheuse Laurence Devillers est l’invitée de la semaine.

    #Robots #Intelligence_artificielle

  • #intelligence_artificielle : les mythes qui masquent les dangers réels
    https://www.mediapart.fr/journal/culture-idees/141217/intelligence-artificielle-les-mythes-qui-masquent-les-dangers-reels

    Le gouvernement dévoile vendredi les résultats d’une consultation menée depuis un an par la Cnil sur la question de l’intelligence artificielle. Mediapart a interrogé le chercheur Jean-Gabriel Ganascia, auteur de plusieurs livres sur le sujet, dont Le Mythe de la singularité. Selon lui, les prophéties apocalyptiques sur des intelligences artificielles qui supplanteraient l’humanité ne sont que « des fables » masquant « la réalité du monde dans lequel nous entrons ».

    #Culture-Idées

  • Artificial Intelligence Can Translate Languages Without a Dictionary - MIT Technology Review
    https://www.technologyreview.com/the-download/609595/artificial-intelligence-can-translate-languages-without-a-dictiona

    Parlez-vous artificial intelligence? Two new research papers detail unsupervised machine-learning methods that can do language translation without dictionaries, as reported in Science. The methods also work without parallel text, or identical text that already exists in another language.

    The papers, completed independently of one another, use similar methods. Both projects start by building bilingual dictionaries without the aid of a human to say whether they were right or not. Each takes advantage of the fact that relationships between certain words, like tree and leaves or shoes and socks, are similar across languages. This lets the AI look at clusters and connections from one language and learn about how another language works.

    When it comes to translating sentences, the new dictionaries are put to the test with some additional help from two methods called back translation and denoising. Back translation converts one sentence to the new language before translating it back. If it doesn’t match the original sentence, the AI tweaks its next attempt and tries to get closer. Denoising works similarly, but moves or takes out a word here or there to keep the AI learning useful structure instead of just copying sentences.

    #Intelligence_artificielle #Traduction_automatique

  • Amazon Focuses on Machine Learning to Beat Cloud Rivals - Bloomberg
    https://www.bloomberg.com/news/articles/2017-11-29/amazon-shows-new-cloud-services-in-bid-to-stay-ahead-of-rivals

    Amazon.com Inc. unveiled new machine-learning tools, including algorithms that automate decisions and speech recognition, seeking to solidify its dominant position over Microsoft Corp. and Alphabet Inc. in the fast-growing and profitable cloud-computing market.

    While customers are interested in machine learning, many lack the resources and expertise that the cloud companies can provide.

    The products introduced Wednesday further the evolution of AWS from its origins. Cloud-computing began as a way to cheaply gain computing power and data storage, letting customers rent space in data centers accessed via the internet rather than maintaining their own servers. The industry has turned into a race to provide customers tools and functions to use that data in new ways. Those tools are helping speed the transition to the cloud, since companies that don’t have access to them will be at a competitive disadvantage, Jassy said.

    Amazon also showed off AWS DeepLens, a $249 device to help developers understand and experiment with machine learning. In a demonstration, the camera recognized a smile to be a positive reaction to a music album cover and a frown to be a negative reaction, enabling it to fine tune a customized playlist for the user. It can also program a garage door to open when the camera recognizes a license plate number. The device, which is intended to inspire developers to experiment with machine learning, also gives Amazon a look into how image- recognition technology is being used.

    #Cloud #Intelligence_Artificielle #Amazon #Reconnaissance_images

    • https://seenthis.net/messages/647995

      La tendance générale semble hélas plutôt aller vers une intensification de la « prolétarisation ». C’est ce que montre particulièrement bien Antonio Casilli dans ses analyses sur les algorithmes et l’Intelligence Artificielle. L’Intelligence Artificielle véhicule souvent le fantasme d’une machine capable de reproduire de manière indépendante certains des processus de l’esprit humain, voire même les acquérir en autonomie grâce à des technologies comme le deep learning. Mais Antonio montre que la réalité est bien différente : la plupart des IA ont besoin d’être assistées par des humains, réduits à réaliser des « micro-tâches » extrêmement sommaires qui servent à entraîner la machine et à effectuer pour elle des opérations difficilement réductibles à des automatismes.

      Sinon les commentaires sont affligeants et à peu près personne ne pige que la valeur (et donc ensuite l’argent qui la matérialise), n’est créé QUE par la dépense d’énergie humaine. Les robots ne crée aucune valeur. Donc il n’y aura presque plus de valeur (c’est déjà le cas, ça baisse tout le temps) et donc plus assez d’argent, donc aucun revenu de base possible, entre autre.

  • Comment se former à l’ère de l’intelligence artificielle ? | Il y a une vie après le bac !
    http://orientation.blog.lemonde.fr/2017/11/21/comment-se-former-a-lere-numerique

    Après l’ère numérique, les formateurs doivent maintenant faire face à la montée en puissance d’une #intelligence_artificielle (IA) qui s’apprête à tout bouleverser.

    #éducation #formation #IA

  • Artist’s ’sexual’ robin redbreast Christmas cards banned by Facebook, The Guardian, 12 nov. 2017
    https://www.theguardian.com/technology/2017/nov/12/artists-sexual-robin-redbreast-christmas-cards-banned-by-facebook

    Facebook blocked what it perceived as an “adult item” after the artist attempted to upload the image [of the Robin] to her Bothycrafts page.

    « L’intelligence artificielle est un très bon complément de la connerie humaine... » de @sinehebdo
    #AI #intelligence_artificielle #algorithmes #biais #informatique

    • L’intelligence artificelle a bon dos. Comme par hasard les algorithmes ne détecte pas les injures racistes, sexistes, homophobes êt transphobes mais par contre les comptes des activistes de ces mouvements voient leurs comptes bloqués. Facebook prefer pratiquer une censure puritaine en publique et laisse des comptes pedosexuels ou de revenge porn prospéré s’en privé. Les IA sont des algorithmes réglés par des intelligences toute a fait humaines ( blanches et masculine).

    • Ahah. This is where the « mad » de meg comes over. Bonjour.

      Les IA sont des algorithmes réglés par des intelligences tout à fait humaines (blanches et masculines).

      Merci de contextualiser pour ceux qui ne saisiraient pas le sarcasme du commentateur fou :)

  • The Biggest Misconceptions about Artificial Intelligence
    http://knowledge.wharton.upenn.edu/article/whats-behind-the-hype-about-artificial-intelligence-separat

    Knowledge@Wharton: Interest in artificial intelligence has picked up dramatically in recent times. What is driving this hype? What are some of the biggest prevailing misconceptions about AI and how would you separate the hype from reality?

    Apoorv Saxena: There are multiple factors driving strong interest in AI recently. First is significant gains in dealing with long-standing problems in AI. These are mostly problems of image and speech understanding. For example, now computers are able to transcribe human speech better than humans. Understanding speech has been worked on for almost 20 to 30 years, and only recently have we seen significant gains in that area. The same thing is true of image understanding, and also of specific parts of human language understanding such as translation.

    Such progress has been made possible by applying an old technique called deep learning and running it on highly distributed and scalable computing infrastructure. This combined with availability of large amounts of data to train these algorithms and easy-to-use tools to build AI models, are the major factors driving interest in AI.

    It is natural for people to project the recent successes in specific domains into the future. Some are even projecting the present into domains where deep learning has not been very effective, and that creates a lot of misconception and also hype. AI is still pretty bad in how it learns new concepts and extending that learning to new contexts.

    For example, AI systems still require a tremendous amount of data to train. Humans do not need to look at 40,000 images of cats to identify a cat. A human child can look at two cats and figure out what a cat and a dog is — and to distinguish between them. So today’s AI systems are nowhere close to replicating how the human mind learns. That will be a challenge for the foreseeable future.

    Alors que tout est clean, la dernière phrase est impressionnante : « That will be a challenge for the foreseeable future ». Il ne s’agit pas de renoncer à la compréhension/création de concepts par les ordinateurs, mais de se donner le temps de le faire demain. Dans World without mind , Franklin Foer parle longuement de cette volonté des dirigeants de Google de construire un ordinateur qui serait un cerveau humain amélioré. Mais quid des émotions, des sentiments, de la relation physique au monde ?

    As I mentioned in narrow domains such as speech recognition AI is now more sophisticated than the best humans while in more general domains that require reasoning, context understanding and goal seeking, AI can’t even compete with a five-year old child. I think AI systems have still not figured out to do unsupervised learning well, or learned how to train on a very limited amount of data, or train without a lot of human intervention. That is going to be the main thing that continues to remain difficult . None of the recent research have shown a lot of progress here.

    Knowledge@Wharton: In addition to machine learning, you also referred a couple of times to deep learning. For many of our readers who are not experts in AI, could you explain how deep learning differs from machine learning? What are some of the biggest breakthroughs in deep learning?

    Saxena: Machine learning is much broader than deep learning. Machine learning is essentially a computer learning patterns from data and using the learned patterns to make predictions on new data. Deep learning is a specific machine learning technique.

    Deep learning is modeled on how human brains supposedly learn and use neural networks — a layered network of neurons to learn patterns from data and make predictions. So just as humans use different levels of conceptualization to understand a complex problem, each layer of neurons abstracts out a specific feature or concept in an hierarchical way to understand complex patterns. And the beauty of deep learning is that unlike other machine learning techniques whose prediction performance plateaus when you feed in more training data, deep learning performance continues to improve with more data. Also deep learning has been applied to solve very different sets of problems and shown good performance, which is typically not possible with other techniques. All these makes deep learning special, especially for problems where you could throw in more data and computing power easily.

    Knowledge@Wharton: The other area of AI that gets a lot of attention is natural language processing, often involving intelligent assistants, like Siri from Apple, Alexa from Amazon, or Cortana from Microsoft. How are chatbots evolving, and what is the future of the chatbot?

    Saxena: This is a huge area of investment for all of the big players, as you mentioned. This is generating a lot of interest, for two reasons. It is the most natural way for people to interact with machines, by just talking to them and the machines understanding. This has led to a fundamental shift in how computers and humans interact. Almost everybody believes this will be the next big thing.

    Still, early versions of this technology have been very disappointing. The reason is that natural language understanding or processing is extremely tough. You can’t use just one technique or deep learning model, for example, as you can for image understanding or speech understanding and solve everything. Natural language understanding inherently is different. Understanding natural language or conversation requires huge amounts of human knowledge and background knowledge. Because there’s so much context associated with language, unless you teach your agent all of the human knowledge, it falls short in understanding even basic stuff.

    De la compétition à l’heure du vectorialisme :

    Knowledge@Wharton: That sounds incredible. Now, a number of big companies are active in AI — especially Google, Microsoft, Amazon, Apple in the U.S., or in China you have Baidu, Alibaba and Tencent. What opportunities exist in AI for startups and smaller companies? How can they add value? How do you see them fitting into the broader AI ecosystem?

    Saxena: I see value for both big and small companies. A lot of the investments by the big players in this space are in building platforms where others can build AI applications. Almost every player in the AI space, including Google, has created platforms on which others can build applications. This is similar to what they did for Android or mobile platforms. Once the platform is built, others can build applications. So clearly that is where the focus is. Clearly there is a big opportunity for startups to build applications using some of the open source tools created by these big players.

    The second area where startups will continue to play is with what we call vertical domains. So a big part of the advances in AI will come through a combination of good algorithms with proprietary data. Even though the Googles of the world and other big players have some of the best engineering talent and also the algorithms, they don’t have data. So for example, a company that has proprietary health care data can build a health care AI startup and compete with the big players. The same thing is true of industries such as finance or retail.

    #Intelligence_artificielle #vectorialisme #deep_learning #Google

  • Jacques Attali : « La Suisse doit se penser comme un hôtel » Par Roland Rossier - 24 Heures - Mardi 17 Octobre 2017
    https://mobile2.24heures.ch/articles/59e62cd8ab5c3768aa000001

    De passage à Genève, l’écrivain et essayiste français Jacques Attali s’est exprimé, mercredi à Uni Dufour, sur l’intelligence artificielle, à l’occasion de la remise des Prix Latsis universitaires, récompensant chaque année, notamment, des chercheurs de l’UNIGE et de l’EPFL. Interview

    Est-ce que la France peut se réformer ?
    La France change à une vitesse folle. Et chacun des 60 millions de Français évolue et change chaque jour. On dit que la France est crispée. Mais elle se réforme en permanence et change sans cesse, sur le plan des mœurs, de l’innovation, de l’art, de la culture.

    Alors, à quoi est dû ce sentiment largement partagé qui évoque les blocages de la France ?
    Ce qui est vrai, c’est que la France modifie assez peu ses lois. Pour une mauvaise raison d’ailleurs, car nous avons de la peine à admettre les changements homéopathiques. Et pour une autre raison : les nations maritimes valorisent le changement, les nations rurales valorisent la permanence.

    La France borde pourtant plusieurs mers. Elle aurait pu être une nation maritime ?
    Elle a essayé de le faire à huit reprises, comme je l’aborde dans mon dernier livre. Mais la France a choisi d’être une nation rurale car elle possède des terres et une agriculture très riches.

    Le gouvernement Macron peut-il réussir à changer la France ?
    Lorsque je suis à l’étranger, je n’aborde jamais les questions de politique française. Ce que je peux dire, c’est que la France n’avance pas par réformes lentes, mais par révolutions. Soit sanglantes, soit plus symboliques. Depuis 1945, nous avons connu trois révolutions : 1945, 1958, 1980. Et la quatrième se déroule en ce moment. La France accumule pendant longtemps des besoins de changement, puis elle se met en mouvement. Cela prend du temps car nous sommes une nation centralisée. Notre modèle est très intégrateur : tout le monde y parle la même langue.

    Quand a débuté la « révolution » actuelle ?
    Cela a commencé il y a trois ans, avec une prise de conscience. Une maturation des réformes s’est ensuite effectuée, poursuivie par la dernière élection présidentielle.

    La France va donc garder un rôle moteur en Europe ?
    Je suis convaincu que la France est la première puissance européenne déjà aujourd’hui et qu’elle le sera encore davantage demain, car l’Allemagne est malade, démographiquement, technologiquement et financièrement. Dans vingt ans, la France sera de loin la première puissance d’Europe. Economiquement, nous sommes présents dans les meilleurs secteurs : la santé, l’éducation, la culture, l’assurance, les start-up. Sans compter deux autres domaines, peu utilisés : la mer et la francophonie.

    Pourquoi à travers la francophonie ?
    Aujourd’hui, 180 millions de personnes parlent français. Avec le développement de l’Afrique, il y en aura 700 millions. L’Afrique regroupe un milliard d’habitants, et dans trente ou quarante ans, elle en comptera deux milliards. C’est la grande question du XXIe siècle. Pour l’Europe, cette explosion démographique peut déboucher sur une catastrophe, parce que des centaines de millions d’Africains s’installeront ici, ou alors nous les aidons à bien se développer et le continent sera un formidable marché. Pour l’Europe et pour la France grâce à cette langue commune.

    L’immigration a tendance à diviser l’Europe. L’Europe doit-elle accueillir des migrants ?
    Malheureusement, tous les pays européens sont d’accord pour contenir l’immigration, et même la réduire. Mais regardons les chiffres : nous sommes 600 millions d’habitants en Europe et nous parlons d’accueillir 200 000 migrants par an. En trois ans, cela ferait 600 000, soit 1 pour mille de la population de l’Europe. Vous vous rendez compte ? 1 pour mille ! Ce n’est pas assez. Nous sommes capables d’en accueillir bien plus. Le Liban doit se débrouiller avec 25% de migrants syriens. L’Europe est aussi confrontée à un effondrement démographique. Et l’accueil des réfugiés fait partie de ses valeurs.

    N’existe-t-il pas un décalage entre vos espoirs et les politiques des pays européens ? Et puis l’Europe se met-elle en danger en voulant contenir l’immigration ?
    Non, elle se protège. Mais trop, à mon avis. Je sais que je suis très isolé face à ce consensus européen. Mais c’est honteux de ne pas accueillir tous ces gens dignes, magnifiques, souvent bien formés, jeunes, pleins de dynamisme.

    Traversons l’Atlantique et tournons-nous vers les Etats-Unis. Donald Trump est-il un homme dangereux ?
    Oui. Les Etats-Unis sont représentatifs d’un courant mondial qui se renforce, celui des dictatures de marché. Pourquoi ? Parce que les gens ont besoin de sécurité mais ils veulent aussi gagner de l’argent. Ce cocktail est dangereux. Et le monde est instable, comme en 1910. Les gens vivaient alors très bien. Ils avaient déjà la radio, l’automobile, l’électricité. La démocratie, la globalisation. Et puis le terrorisme – qu’on appelait alors nihilisme –, la crise financière et le protectionnisme ont globalement précipité le monde dans 75 ans de barbarie, de 1914 à 1989. Aujourd’hui, c’est pareil : nous connaissons des progrès technologiques, un potentiel de croissance énorme, des moyens de faire des économies d’énergie massives, une espérance de vie qui augmente. Nous avons tout pour être heureux.

    Mais tout peut donc basculer ?
    La question environnementale est urgente. Il faut sauver la mer. Nous devons aussi régler le problème de la répartition inégale des richesses et celui d’un désordre mondial dû au fait que les marchés sont plus puissants que les Etats. La probabilité d’une guerre mondiale est considérable. Elle peut se déclencher sur un rien, sur un incident entre les Chinois et les Américains à propos de la Corée du Nord, ou entre les Polonais et les Russes au sujet des pays Baltes…

    Et Donald Trump pourrait être un élément déclencheur ?
    Oui, car il est imprévisible et erratique. Nous avons échappé à un conflit majeur depuis 1945 car toutes les puissances nucléaires étaient dirigées par des gens raisonnables. Aujourd’hui, à la tête des Etats-Unis et de la Corée du Nord, nous avons affaire à deux personnes peu raisonnables, même si le président des Etats-Unis ne peut pas appuyer sur le bouton nucléaire tout seul. Mais il peut presque le faire tout seul.

    Les GAFA (Google, Apple, Facebook, Amazon) ne représentent-ils pas également une forme de menace ?
    Ceux-là, ce sont les dictateurs du marché. Ils ont prospéré dans une économie libre et parfaite qui a abouti à la formation de cartels. Les GAFA sont dangereux car ils sont en train de maîtriser les instruments de prédiction.

    Faut-il casser ces cartels ?
    Cela viendra comme ce fut le cas avec l’ancien géant des télécoms ATT aux Etats-Unis. Mais un autre cartel est encore plus dangereux : celui de l’industrie agrochimique, qui prétend breveter la vie sans aucun droit. Les GAFA s’approprient nos données, mais les groupes vendant notamment les semences s’approprient la vie. Ils sont de moins en moins nombreux, après le rachat de Syngenta par ChemChina et de Monsanto par Bayer. Nous devons agir avant qu’ils n’atteignent une trop grande taille.

    Comment peut-on contrôler ces groupes ? Il faudrait un gouvernement mondial ?
    Oui, il faudrait un Etat de droit mondial. La seule institution internationale se situe d’ailleurs à Genève. C’est l’OMC (Organisation mondiale du commerce), qui s’appuie sur son système de règlement des conflits. Il faut au moins une institution internationale de décartellisation, mais l’OMC a perdu une partie de son pouvoir.

    Qui est le mieux armé pour maîtriser les défis de la numérisation, du big data et de l’intelligence artificielle : la Silicon Valley ? La France ? L’Europe ?
    C’est en effet un enjeu majeur. Dans ce cadre, c’est la propriété des données, et ce que l’on en fait, qui va être déterminante. L’analyse des comportements des consommateurs permettra de déduire quels biens ou services peuvent être vendus. J’ai écrit en 2006 que les compagnies d’assurances seraient les mieux armées dans ce domaine, en particulier celles qui seront liées aux groupes maîtrisant les données. Les GAFA sont puissants quand ils sont installés dans de vastes marchés homogènes où ils peuvent accumuler les données et les prédictions. Aujourd’hui, deux marchés se détachent : les Etats-Unis et la Chine. Le marché chinois va combler son retard et sera encore plus rapide que le marché américain, car il s’agit, comme je l’ai dit, d’une dictature de marché.

    Et la Suisse ? Depuis plusieurs années, le Forum de Davos classe ce pays en tête en termes de compétitivité. A quoi est dû le miracle suisse ?
    La Suisse, puissance de taille moyenne, est le contre-exemple absolu de la thèse de mon livre. Je n’ai qu’une explication à ce miracle : le travail. Ce pays est aussi avantagé par le fait de ne pas avoir connu de guerre, par un consensus social très fort et par l’utilisation de rentes de situation qui sont en train de disparaître. Je parle du secteur bancaire, dont les services, d’ailleurs, n’ont pas besoin d’accès à la mer. Mais la finance n’a pas respecté les règles du jeu. Cela ne dure jamais bien longtemps. La Suisse est un pays hors jeu. En termes militaires comme en termes bancaires.

    Un pays hors jeu peut-il être pérenne ?
    Non. Pas de façon durable. Donc, un processus de banalisation de la Suisse est en marche. Cela dit, la Suisse joue remarquablement bien sa normalisation, de la manière la plus lente possible (sourire). La Suisse a aussi de grandes capacités à accueillir les étrangers. Le secteur de l’hospitalité, au sens large, sera l’un des principaux de l’avenir. Pas seulement sur le plan hôtelier. Le grand métier de demain sera celui de l’empathie.

    Les Suisses sont empathiques ?
    Oui, à leur façon. D’une manière particulière : c’est ce que j’appelle l’altruisme intéressé !

    C’est de l’empathie par rapport à soi-même ?
    Ce qui se passe à l’EPFL, par exemple, est assez génial. J’envie l’EPFL. Je regrette qu’elle ne soit pas française. L’EPFL est une sorte d’hôtel d’entreprises. Tout pays doit se penser comme un hôtel et ses habitants comme des hôteliers. Recevoir sans cesse des étrangers. Etre accueillant. C’est ce qui rend la Suisse symboliquement maritime.

    Et Genève ?
    C’est un cas particulier, Genève est à la fois suisse et française, suisse et internationale. Genève est un paradis particulier. Je me suis souvent dit que si j’avais à m’exiler, ce serait à Montréal ou à Genève. Des gens de toutes sortes de cultures y vivent et s’y croisent.

    La Suisse peut-elle rester hors de l’Europe ?
    Si j’avais un conseil à donner à la Suisse, c’est d’entrer dans l’Union européenne tout en gardant sa spécificité.

    L’Union européenne le permettrait-elle ?
    Tout se négocie, tout se négocie… A terme, la Suisse perdra beaucoup en restant à l’extérieur de l’Union européenne, qui est un formidable aiguillon pour accomplir des réformes. Rester dehors, c’est se condamner à s’enkyster au moment où ses particularités sont en train de disparaître. Etre hors jeu et se banaliser, c’est embêtant.

    Thémes : Récupérés dans les commentaires de https://www.les-crises.fr/jacques-attali-tout-pays-doit-se-penser-comme-un-hotel
    #Jacques_Attali #jacquatalisme Leurs #Réves Des #cauchemars pour les #Suisses et pour nous #néo_libéralisme #géopolitique #hôtel_de_passe #intelligence_artificielle #intelligence_grabataire #soupe_prétentieuse #union_européenne #consternant #gouvernement_mondial #contre-nature #homo_economicus #répugnant #creux #scientologue #vent #vide #domination_des_Gaga
    #béhachèlisme #élicohenisme #éricfassinisme, #philosophie_de_plateaux_télé #imaginer_ce_qui_n’arrive_jamais #nostradamus_de_pacotille

  • Linux Foundation Debuts Community Data License Agreement
    https://www.prnewswire.com/news-releases/linux-foundation-debuts-community-data-license-agreement-300540881.html

    Inspired by the collaborative software development models of open source software, the CDLA licenses are designed to enable individuals and organizations of all types to share data as easily as they currently share open source software code. Soundly drafted licensing models can help people form communities to assemble, curate and maintain vast amounts of data, measured in petabytes and exabytes, to bring new value to communities of all types, to build new business opportunities and to power new applications that promise to enhance safety and services.

    The growth of big data analytics, machine learning and artificial intelligence (AI) technologies has allowed people to extract unprecedented levels of insight from data. Now the challenge is to assemble the critical mass of data for those tools to analyze. The CDLA licenses are designed to help governments, academic institutions, businesses and other organizations open up and share data, with the goal of creating communities that curate and share data openly.

    Bon, j’ai toujours un problème avec les relations « frictionless », qui semble un objectif qui ne tient pas compte de l’histoire humaine. Je préfère l’insistance sur les méthodes souples de résolutions des conflits (ce qui est au coeur de la pratique des communs). Mais on voit l’objectif ici :

    “An open data license is essential for the frictionless sharing of the data that powers both critical technologies and societal benefits,” said Jim Zemlin, Executive Director of The Linux Foundation. “The success of open source software provides a powerful example of what can be accomplished when people come together around a resource and advance it for the common good. The CDLA licenses are a key step in that direction and will encourage the continued growth of applications and infrastructure.”

    L’idée ressemble beaucoup à ce qui avait été proposé il y a quelques années autour de Creative Commons Healt Licence.

    There are two CDLA licenses: a Sharing license that encourages contributions of data back to the data community and a Permissive license that puts no additional sharing requirements on recipients or contributors of open data. Both encourage and facilitate the productive use of data. A few commercial and community implications of the licenses include:

    Data producers can share with greater clarity about what recipients may do with it. Data producers can also choose between Sharing and Permissive licenses and select the model that best aligns with their interests. In either case, data producers should enjoy the clarity of recognized terms and disclaimers of liabilities and warranties.

    Data communities can standardize on a license or set of licenses that provide the ability to share data on known, equal terms that balance the needs of data producers and data users. Data communities have a high degree of flexibility to add their own governance and requirements for curating data as a community, particularly around areas such as personally identifiable information.

    Data users who are looking for datasets to help kick off training an AI system or for any other use will have the ability to find data shared under a known license model with terms that clearly state their rights and responsibilities.

    The CDLA is data privacy agnostic and relies on the publisher and curators of the data to create their own governance structure around what data they curate and how. Each producer or curator of data will have to work through various jurisdictional requirements and legal issues.

    #Open_data #Intelligence_artificielle #Open_source #Licence

  • CERT : These emerging technologies bring new risks | ZDNet
    http://www.zdnet.com/article/emerging-technologies-bring-new-risks

    n its Emerging Technology Domains Risk Survey, CERT examines a variety of trends that can provide a lot of benefits to people and businesses, but also pose risks that need to be addressed.

    Some of these areas are moving ahead so quickly in adoption that companies have not had a chance to completely evaluate their implications. For example, “machine learning and robotics are advancing more quickly than expected, and may have as-yet-undiscovered risks,” said Dan Klinedinst, senior threat and vulnerability researcher at CERT and one of the authors of the report.

    #Sécurité_informatique #Intelligence_artificielle

  • Andrew Ng Has a Chatbot That Can Help with Depression - MIT Technology Review
    https://www.technologyreview.com/s/609142/andrew-ng-has-a-chatbot-that-can-help-with-depression

    “If you look at the societal need, as well as the ability of AI to help, I think that digital mental-health care checks all the boxes,” Ng says. “If we can take a little bit of the insight and empathy [of a real therapist] and deliver that, at scale, in a chatbot, we could help millions of people.”

    Mais il reste le problème général du comportementalisme : quid de la relation humaine dans la cure ? Quid du contre-transfert ?

    Darcy, who met Ng at Stanford, says the work going on there in applying techniques like deep learning to conversational agents inspired her to think that therapy could be delivered by a bot. She says it is possible to automate cognitive behavioral therapy because it follows a series of steps for identifying and addressing unhelpful ways of thinking. And recent advances in natural-language processing have helped make chatbots more useful within limited domains.

    Depression is certainly a big problem. It is now the leading form of disability in the U.S., and 50 percent of U.S. college students report suffering from anxiety or depression.

    Darcy and colleagues tried several different prototypes on college volunteers, and they found the chatbot approach to be particularly effective. In a study they published this year in a peer-reviewed medical journal, Woebot was found to reduce the symptoms of depression in students over the course of two weeks.

    C’est intéressant de voir comment on imagine des robots pour remplacer ce qui est le plus positivement humain (la thérapie, le sexe, les réseaux sociaux, le soin...)

    The emergence of a real AI therapist is, in a sense, pretty ironic. The very first chatbot, Eliza, developed at MIT in 1966 by Joseph Weizenbaum, was designed to mimic a “Rogerian psychologist.” Eliza used a few clever tricks to create the illusion of an intelligent conversation—for example, repeating answers back to a person or offering open-ended questions such as “In what way?” and “Can you think of a specific example?” Weizenbaum was amazed to find that people seemed to believe they were talking to a real therapist, and that some offered up very personal secrets.

    Darcy also says both Eliza and Woebot are effective because a conversation is a natural way to communicate distress and receive emotional support. She adds that people seem happy to suspend their disbelief, and seem to enjoy talking to Woebot as if it were a real therapist. “People talk about their problems for a reason,” she says. “Therapy is conversational.”

    #Robots #Dépression #Thérapie #Intelligence_artificielle

    • On peut aussi se dire qu’il s’agit d’informations présentées de manière un peu plus moderne et interactive que sur des plaquettes papier — ces brochures de santé publique distribuées à tour de bras et qu’on n’a jamais accusées de vouloir « remplacer l’humain ».

    • Mais ce n’est pas le message idéologique qui accompagne le projet (c’était par contre celui de Eliza... que les usagers ont pourtant pris au pied de la lettre).
      Je pense qu’on peut avoir des robots aidants (on prépare un livre là dessus pour des robots utilisés dans le cadre de malade Alzhemier pour C&F éditions). Mais l’article (et les PR autour du projet) vont plus loin. Le contre-transfert est la base de l’émancipation dans la cure analytique... le reste ne pourrait effectivement se limiter qu’à des conseils de santé psychique.

  • « L’école forme des enfants qui vont être laminés par l’intelligence artificielle » - rts.ch - Sciences-Tech.
    https://www.rts.ch/info/sciences-tech/8968148--l-ecole-forme-des-enfants-qui-vont-etre-lamines-par-l-intelligence-arti

    Alors que l’intelligence artificielle va bouleverser le monde du travail et l’économie dans son ensemble, le chirurgien et neurobiologiste Laurent Alexandre estime nécessaire d’adapter les systèmes de #formation. — Permalink

    #science

  • Laurent Alexandre, prophète du QI artificiel Le Comptoir le 22 septembre 2017 - Michel Juffé
    https://comptoir.org/2017/09/22/laurent-alexandre-prophete-du-qi-artificiel

    Les discussions autour de la technologie sont sujettes à de nombreuses spéculations plus ou moins rigoureuses. Le Comptoir vous propose ici une version remaniée d’un texte initialement paru sur le blog technocritique Mais où va le web ?. Plein de bon sens, le philosophe Michel Juffé y questionne les fondements et les errances intellectuelles des interventions-spectacles de Laurent Alexandre, (fut)urologue (spécialiste) de l’intelligence artificielle et fondateur du site Doctissimo dont le “sérieux” n’est plus à prouver. Le philosophe répond notamment à son entretien publié au Figarovox en juin 2017 et qui donne le ton : « “Bienvenue à Gattaca” deviendra la norme ».

    Laurent Alexandre n’hésite pas à déclarer que :

    « L’intelligence dans une société numérique est la clé de tout pouvoir politique et économique. Nous avons créé une société de la connaissance sans réfléchir aux conséquences. Nous avons bâti une économie de la connaissance, sans comprendre que nous allions donner un avantage immense aux gens maîtrisant les données, dotés de plasticité cérébrale leur permettant de changer régulièrement de métier et de se former leur vie durant : toutes qualités qui sont mesurées par le QI [quotient intellectuel, NDLR]. Un point de QI supplémentaire fera de plus en plus la différence dans la société de la connaissance. Il faudrait rebaptiser le QI et l’appeler QCIA, le Quotient de complémentarité avec l’intelligence artificielle, pour lui ôter son caractère stigmatisant. À partir de 2020, le QI minimum pour avoir un emploi va augmenter de l’ordre de cinq à dix points par décennie. »

    Le QI n’a jamais été présenté, par ses inventeurs, comme une mesure de l’intelligence au sens global du terme – qui mesurerait la capacité de discriminer, jugement, esprit d’analyse et de synthèse, créativité, etc. – mais comme une mesure de performances dûment étalonnées, c’est-à-dire, pour grossir le trait, celles qu’on attend d’un élève qui a appris à lire, écrire, compter et dessiner.


    Prenons par exemple un test de QI en ligne (il y a des dizaines de sites du genre, ils sont rarement très sérieux…). On nous dit que : « Ce test de QI en ligne évaluera votre quotient intellectuel ou QI. Ce test QI rapide donne un résultat quantitatif et standardisé lié à l’intelligence abstraite. Nous utilisons la méthode du “QI par rang”. Elle permet à une personne de se comparer à un ensemble d’individus classés par secteur. » En clair, c’est un test comparatif, qui ne peut donner de valeurs absolues. Le QI donne donc un indice de dispersion autour d’une moyenne. En l’occurrence pour le QI standard, la moyenne est fixée à 100 pour des raisons arbitraires et historiques. La dispersion des valeurs de QI se situe généralement entre 60 à 140, sachant que moins de 70 est considéré comme “extrêmement inférieur” et que plus de 130 est “extrêmement supérieur”. À quoi ? Eh bien à la moyenne toujours arbitrairement fixée à 100. On a ainsi pu dire que le QI ne mesure que lui-même !

    Ainsi, quand on lit, par exemple, que le QI moyen des Français est de 98, que celui de la plupart des pays d’Afrique est de 70, et que celui de la Chine est de 105, c’est entièrement faux. N’y voir aucun préjugé racial ! Pour que de tels résultats soient valides, il faudrait placer un échantillon de toute la population mondiale dans un seul lot, un seul “secteur”, lui faire disposer des mêmes éléments culturels, des mêmes conditions de passation du test, et d’une garantie très forte de bonne lecture des résultats. C’est rigoureusement impossible. Ce que révèle l’édification du QI en mesure de l’intelligence ou encore en point de comparaison entre sociétés ou civilisations, c’est surtout une position idéologique très forte. Ce qu’on promeut à travers ce genre de démarche, c’est la correspondance accrue à un certain système de valeurs, à un environnement particulier qui valorise ce genre d’intelligence pour de bonnes ou de mauvaises raisons et avec de bons ou de mauvais effets. Rien ne dit que ces systèmes sont plus “intelligents” que les autres, plus humains, plus sains. L’histoire du QI ne dit pas autre chose : cette mesure a servi à justifier toutes les inégalités sociales, voire à produire des politiques publiques discriminantes.

    « Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. »

    Revenons à notre (fut)urologue et calculons un peu. Selon Laurent Alexandre, dans 50 ans il faudra avoir un QI de 150 pour avoir un emploi, et dans 100 ans un QI de 200. C’est bien embêtant, car, en réalité, la moyenne restera toujours à 100, donc seulement 1/1000 de la population, au plus, aura un emploi. Et on ne pourra pas supprimer les autres, car cela ne servirait plus à rien d’avoir un QI de 200 et plus (faute de base : toujours cette satané moyenne !). Ici, je pense à la reine rouge d’Alice : il faut courir deux fois plus vite pour rester sur place.

    Le QI, ce Graal
    Moderniser l’école, bien sûr. Car à présent les « classes populaires » sont dépassées par « la technologie qui galope ».

    Il faut, nous dit Laurent Alexandre, augmenter les « capacités cognitives de la population, puisque dans le futur la quasi-totalité des inégalités seront liées aux capacités cognitives ». Comme c’est simple ! À concevoir tout au moins. Toujours la même erreur de raisonnement : si tout augmente, rien n’augmente.

    « La bétise, mieux vaut la prévenir, car on ne peut pas la guérir. »

    Peu importe. Le rôle de l’école va devenir « la programmation des prothèses cérébrales ». Sous le contrôle de la CNIL (Commission nationale de l’informatique et des libertés), bien sûr ! On a eu chaud. Imaginons que le rôle de l’école soit d’augmenter la taille des élèves, leur poids ou la longueur de leurs cheveux, ce serait beaucoup plus difficile. Tandis que là, l’école aura seulement à s’occuper de mieux remplir le cerveau des élèves… Ce qu’elle fait déjà depuis 130 ans (avec l’obligation d’instruire toute la population), avec les programmes ministériels et les manuels scolaires. Ce seront toujours des manuels, mais sous forme d’implants cérébraux. La niaiserie, dont Laurent Alexandre accuse l’école, est plutôt celle des adorateurs des “manipulations cérébrales made in Californie” qu’il invoque comme d’autres invoquent les esprits de la forêt ou dansent devant un totem.


    D’où cette mâle proposition : « On ne sauvera pas la démocratie si nous ne réduisons pas les écarts de QI. » Le QI devient ainsi une baguette magique… à mettre entre toutes les mains. Faut-il encore répéter – pour les malcomprenants – que le QI est une mesure de performances standardisées qui n’a de sens que par des écarts, sur une échelle conventionnelle ? Bref, le QI ne mesure pas l’“intelligence” mais des capacités combinatoires, numériques et géométriques, soit une faible partie des capacités intellectuelles, une goutte d’eau dans un océan de complexité. Prendre le QI comme signe d’intelligence, c’est à peu près comme demander à un chien de chasse de sauter dans un cerceau, sans tenir compte de son intelligence de chasseur. Par ailleurs, même en se plaçant dans un contexte de concurrence mondialisée “inévitable” qui semble être l’unique système de pensée supportant les analyses de Laurent Alexandre, le QI n’offre aucune garantie qu’on s’en tirera vraiment mieux ; puisqu’il ne mesure ni la créativité, ni le talent, qui seront pourtant les “compétences” les plus utiles dans le monde automatisé qui s’annonce.

    Foin de ces raffinements, ce qui compte est d’augmenter le QI, comme l’annonce le Prophète – Elon Musk – qui sait que l’augmentation “massive” du QI aura lieu par implants cérébraux. « La seule solution, avec le développement de colonies sur Mars, pour éviter que l’humanité tout entière soit exterminée d’un coup. » Elles sont quand même fortes ces IA ! Elles pourraient nous exterminer « d’un coup. »

    Vous ne connaissez pas Elon Musk ? Cet homme, dont le QI doit être très élevé, sûrement plus que 260 (le record officiel, de 250, est détenu par un américain – of course !), a 46 ans, est père de jumeaux et de triplés, pèse 17 milliards de dollars, et dirige plusieurs sociétés, grâce auxquelles il va nous transporter à 2 000 km/h par voie terrestre, nous envoyer sur Mars par millions, supprimer les bouchons des grandes villes et fusionner l’IA et le cerveau humain (dès 2021).

    IA, implantation : fusion et confusion
    Rappelons rapidement ce qu’est l’IA. L’intelligence artificielle est « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » (Encyclopédie Larousse). C’est sommaire et un peu tautologique, mais cela nous suffira pour la suite.

    Quelles sont les possibilités d’une IA ? On parle d’IA depuis Turing (1950) mais on se heurte toujours à la question du traitement de données non formalisées, autrement dit des connaissances qualitatives – une grande partie de celles qui nous sont utiles. S’il est vrai que le “deeplearning” est un saut qualitatif en matière d’analyse du signal sonore ou visuel – reconnaissance faciale, reconnaissance vocale, vision par ordinateur, traitement automatisé du langage, par exemple – nous restons dans le connu, le perceptible et le sensible. Je veux dire par là que nous n’apprenons pas à créer par automatisme, et que dès que l’objet reconnu comporte un très grand nombre de dimensions (un corps humain en action par exemple), il devient inanalysable… pour le moment.

    « Durant la transmission électrochimique entre nos neurones, l’ordinateur, même s’il ne fonctionne qu’au ralenti a pu accomplir un million d’opérations, tandis qu’un être humain n’a pu en effectuer une seule. »

    Et s’il est vrai que la dictée orale de textes sur ordinateur est un vrai progrès pour ceux qui écrivent beaucoup, les corrections restent longues et fastidieuses. Quant à la traduction automatique, elle réserve de belles et parfois cocasses surprises. Il s’agit bien d’intelligence artificielle, si intelligere est avant tout discriminer, différencier, trier, comme le suggère l’étymologie latine. Mais la modélisation ne peut pas être illimitée, car quelles que soient la vitesse et l’architecture de traitement de données d’un ordinateur, l’augmentation des dimensions à paramétrer excède assez vite toute possibilité de calcul.

    Ce qui est “profond” est le nombre de couches de traitement de données et non l’apprentissage lui-même, au sens habituel du terme. Et ce qui est important est le service rendu, par exemple à des aveugles pour se diriger et reconnaitre des objets et des personnes. Bref, l’IA ne va pas, par un coup de baguette magique, rendre les gens intelligents, mais elle facilite l’usage de leur intelligence et peut les dispenser des tâches qui requièrent une intelligence répétitive, habituelle, conventionnelle, etc. N’oublions pas, aussi, que l’IA reste opaque pour la plupart des usagers, à commencer par le GPS des voitures et des téléphones mobiles, les moteurs de recherches, et bien d’autres “applis” auxquelles ils ne comprennent rien. D’où non seulement le danger d’une grande fracture numérique mais aussi celui de distorsion et de falsification des informations, aides et renseignements recueillis.

    Il ne faut pas, non plus, surestimer les performances d’une IA. Par exemple, depuis 2016, celle de battre un champion du jeu de Go. Il a bien fallu programmer l’ordinateur – pardon l’IA – pour qu’il combine des successions de coups. Et qui l’a programmé ? Des gens qui savent jouer au Go et ont eu tout leur temps pour bâtir ce programme. Ce qui est nouveau est que les concepteurs ont imité une forme d’intuition, produite par des milliards d’ajustements automatiques dont personne ne comprend la logique.

    Pour le reste, ça n’est qu’une question de vitesse relative : la transmission électrochimique (celle de nos neurones) est au mieux de 100 m/s, donc 1/200 de seconde pour 50 centimètres (entre l’œil et la main, par exemple). Durant cet intervalle, l’ordinateur, même s’il ne fonctionne qu’au ralenti – disons à 10­ 000 km/s – a pu accomplir un million d’opérations, tandis que par ailleurs, un être humain n’a pu en effectuer une seule, car le cerveau ne discrimine que des durées supérieures à 1/25 de seconde.

    L’IA de demain
    Aux dires de 252 experts en apprentissage par ordinateur (les plus qualifiés du monde, bien sûr), l’IA “battra” les humains en traduction des langues (à l’horizon 2024), en rédaction d’essais (2026), en vente (2031), en chirurgie (2050). En ce qui me concerne, encore neuf ans de patience et je pourrai arrêter d’écrire. En revanche rien n’est dit sur la fabrication des tartes aux pommes, où j’excelle, et je vais peut-être pouvoir continuer à en faire jusqu’en 2035 ou plus. Les mêmes prédisent que tous les emplois humains seront remplacés dans 120 ans. Encore une prédiction cocasse : comme on ne sait rien de notre mode de vie dans 120 ans, que peut-on prévoir sur l’emploi ou quoi que ce soit d’autre ? Qui aurait imaginé la machine à laver le linge et la pilule contraceptive au début du XXe siècle ? C’est pourtant ce qui a le plus changé la vie des femmes (donc de l’espèce humaine) durant ce siècle, en incluant les progrès de la chirurgie et de l’imagerie médicale. Personne n’aurait l’idée de parler d’IA à propos de la machine à laver, c’en est pourtant un des plus beaux succès.

    Toujours est-il qu’Elon Musk et ses compétiteurs (car c’est un marché de milliers de milliards de dollars, bien sûr) ne veulent pas que nous soyons dépassés par les IA (au sens fort du terme : machines capables d’apprendre, d’éprouver des émotions, de se reproduire).

    « Pour nous sauver des IA tyranniques, des composants électroniques seraient implantés dans le cerveau “entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs” [sic(k)]. » Laurent Alexandre

    Car, ayant lu trop de science-fiction de médiocre qualité et ayant vu plusieurs fois Terminator I, II et III, ils sont persuadés de la révolte des machines, autrement dit que l’IA va “dépasser” (à droite ou à gauche ?) l’homme, ce qui « nous transformerait en animaux domestiques dans le meilleur des cas. »

    « Elon Musk, nous dit Laurent Alexandre, est très influencé par Nick Bostrom [44 ans, professeur à Oxford], le théoricien des IA hostiles, qui défend l’idée qu’il ne peut y avoir qu’une seule espèce intelligente (biologique ou artificielle) dans une région de l’univers. Ayant comme premier objectif sa survie, toute IA forte se protégera en cachant ses intentions agressives et en attaquant préventivement. » Qu’est-ce qu’une espèce intelligente ? Et pourquoi ne pourrait-il y en avoir qu’une dans une région de l’univers ? Et les fourmis, alors ? Et les rats, qui nous parasitent autant qu’ils veulent ? Et les arbres, sans lesquels nous n’existerions même pas ? J’oubliais : toutes ces choses-là (fourmis, rats, arbres) ne peuvent pas passer un test de QI, alors que les IA le peuvent.

    Bref, pour nous sauver des IA tyranniques, des composants électroniques – je suppose de la taille de quelques micromètres (10-6 µm), avec une finesse de gravure de 10 nanomètres (10-8 nm) – seraient implantés dans le cerveau « entrelacés entre nos 83 milliards de neurones, ce qui nous transformerait en cyborgs » (comme il peut y avoir jusqu’à 20 000 synapses par neurone, on ne sait pas très bien où se passera l’entrelaçage). Difficile de rester plus vague : à quoi serviront ces implants ? Faudra-t-il les remplacer ? À quel rythme deviendront-ils obsolètes ? Qui va les réparer ? Eux-mêmes ? Un couple de médecins et d’IA-médecins ? Leur porteur (puisqu’il est devenu très intelligent) ? Un électronicien ? Un plombier ?

    L’idée même de fusion – étape suivante de l’augmentation cérébrale – entre IA et êtres humains, sous des dehors riants (fusionner c’est augmenter, en mieux) est assez mal venue. La fusion est généralement une régression ; l’amour fusionnel diminue les deux partenaires et augmente leur fragilité. Le métal en fusion perd toute forme (mais le forgeron est là pour lui en donner une). Faire fondre quelque chose (du liquide au solide) peut être très utile, faire fusionner deux choses en les rendant liquides pour les mélanger (amalgame dentaire) aussi. La fusion de deux sociétés est quant à elle pleine d’aléas (si ce sont des réseaux ferroviaires, électriques ou bancaires, on en voit les avantages en termes de solidarité et de fiabilité, mais si ce sont des entités industrielles et/ou commerciales très variées, c’est souvent un échec). Mais fusionner deux organismes tels qu’un réseau de composants électroniques et un cerveau humain, si c’est seulement possible, relève d’une erreur d’attribution : ce n’est pas parce qu’on a parlé de réseaux de neurones en IA qu’il s’agit de vrais neurones artificiels. Cette prétendue fusion aboutirait plus probablement à Brendel/mouche/télépode (cf. le film La Mouche) – soit un abominable mélange régressif et non viable. En réalité, il ne s’agit pas de fusion mais de greffe (si la chose implantée s’incorpore à peu près complètement) ou de prothèse (si elle remplace passivement).

    À la question « Quel est le contraire de l’intelligence artificielle ? », Henri Atlan répondit « La bêtise humaine »

    Revenons au futur proche. “L’augmentation cérébrale”, en supposant qu’elle réussisse, serait-elle d’une quelconque utilité ? Si elle affine nos sens, nous permet de mémoriser plus aisément, de réagir plus vite, d’être plus précis dans nos gestes, elle ne sera pas mal venue. Rendra-t-elle plus intelligent ? Oui, si toutes les qualités susnommées nous rendent plus aptes à discerner, à juger, à nuancer, à peser, à imaginer, à choisir. Ce qui n’a rien de sûr, car les hautes performances corporelles ne garantissent en rien la moindre capacité à faire face aux diverses situations sociales, économiques, techniques, écologiques… auxquelles sont confrontés en permanence les êtres humains (comme tous les autres êtres vivants d’ailleurs). En revanche la saturation d’informations, l’implantation d’éléments à très haute vitesse et inaptes à se régénérer risquent d’induire de graves dysfonctionnements et des phénomènes de types cancéreux.

    D’ailleurs, pourquoi les adorateurs de l’IA n’ont-ils pas pensé à quelque chose de bien plus simple : doubler, tripler ou décupler le nombre de neurones, ce qui nous rendrait – forcément – deux, trois ou dix fois plus “intelligents” ? Il suffirait d’augmenter aussi le volume intérieur de la boîte crânienne ou de la remplacer par un casque hémisphérique en tungstène.
    unnamed-file


    Puces RFID implantées dans les mains.

    Revenons à notre ami Laurent Alexandre. Lorsque le journaliste (Vincent Tremolet de Villers) lui dit : « L’homme ne se réduit pas à son cerveau. Il est aussi sensibilité et vie intérieure. Ces deux dimensions sont-elles menacées ? », il a droit à cette réponse digne de figurer dans une anthologie du non-sens : « Vous avez à mon sens tort, l’homme se réduit à son cerveau. Nous sommes notre cerveau. La vie intérieure est une production de notre cerveau. L’Église refuse encore l’idée que l’âme soit produite par nos neurones, mais elle l’acceptera bientôt. »

    À l’appui de cette vérité définitive, Laurent Alexandre cite le révérend Christopher Benek [dont le site “illuminant” vaut le détour], qui souhaite que les machines douées d’intelligence puissent recevoir le baptême si elles en expriment le souhait. Ouf, nous sommes sauvés : c’est bien connu, des machines chrétiennes ne pourront être que des apôtres de l’amour universel et ne chercheront jamais à éliminer l’être humain. Bien mieux que les trois lois de la robotique d’Asimov.

    L’ordre numérique et la loi technologique
    Les élucubrations franchissent un cran dans la mégalomanie, lorsque Laurent Alexandre nous explique que nous, auditeurs moyens, n’avons pas encore compris que les “vrais” maîtres du monde sont les Gafa [Google, Amazon, Facebook, Apple, NDLR] et leurs semblables asiatiques. Ce sont eux qui font la “loi” (on ne sait pas laquelle, mais peu importe) et dictent leur conduite aux gouvernements (NB : avant c’était les Ford, les Rockefeller, etc.). « L’essentiel des règles n’émane plus des parlements mais des plateformes numériques. » Les parlements sont dépassés et même obsolètes, puisqu’ils ne comprennent rien à LA technologie, ne pourraient pas « auditer » les IA (je n’ai pas compris en quel sens Laurent Alexandre emploie le mot “auditer”). Bref, les politiques, comme les éducateurs, vivent dans le passé et feraient bien de se mettre à l’écoute des dirigeants de la révolution numérique, qui vont parvenir, enfin, à créer “l’homme nouveau” dont rêvaient les communistes dans les années 1920.

    « Deux choses sont infinies, l’univers et la bêtise humaine, et pour l’univers je n’en suis pas absolument sûr » citation attribuée à Albert Einstein

    Il est quand même douteux que les politiques y parviennent (à écouter les maîtres du monde) car ils « raisonnent à quinze jours, la Silicon Valley à 1 000 ans », clame Laurent Alexandre (cité par Hubert Guillaud sur le site Internetactu, d’après son discours déjanté à la conférence Unexpected sources of inspiration, centrée sur les enjeux du digital et créée il y a 10 ans ; elle a accueilli 1 800 personnes au Carrousel du Louvre en 2015).

    Quel manque d’ambition de la Silicon Valley (telle que l’imagine Laurent Alexandre). Car, en réalité, ses 6 000 entreprises de haute technologie et ses liens consubstantiels avec l’université de Stanford, une des meilleures du monde, sont capables de réalisations de grande qualité. Des auteurs tels que H.G. Wells, A.E. Van Vogt, A.C. Clarke, I. Asimov, R. Silverberg, etc. anticipent sur des centaines de milliers, des millions et même des milliards d’années (cf. La Cité et les Astres, d’Arthur Clarke, écrit en 1956).

    De plus, ce jugement est faux : les hommes d’État de quelque envergure ont depuis longtemps envisagé le futur sur des centaines d’années ou plus, et ont tout fait pour bâtir pour des millénaires. Il est également faux que tout se passe à la Silicon Valley. Les fabricants de matériel électronique, de systèmes, réseaux et terminaux (tels que les smartphones, par exemple) informatiques, œuvrent dans le monde entier. Et l’inventivité en matière d’usages du “numérique” n’est pas l’apanage de l’Amérique du Nord. Ce qui distingue les Californiens est d’une part une capacité à capitaliser vite et bien, et par suite à monter rapidement de grandes compagnies, d’autre part leur industrie du spectacle (show business) qui en fait les premiers “communicants” (baratineurs et propagandistes) du monde.

    Certes, une branche d’industrie peut vouloir “faire la loi” dans son domaine (comme EDF entre 1945 et 1985), mais ne peut pas voter les lois, et c’est pourquoi le lobbying et la corruption d’élus et de fonctionnaires existent.

    De l’urologie à la futurologie
    Laurent Alexandre est médecin diplômé d’urologie et a suivi les cours de MBA d’HEC, ce qui lui a manifestement réussi puisqu’il a créé Doctissimo – site plusieurs fois dénoncé pour son peu de fiabilité –, qu’il a vendu au groupe Lagardère pour 70 millions d’euros en 2008. Depuis, il a ajouté trois lettres à sa spécialité de départ, « f-u-t » comme dans futé, car il l’est, pour faire avaler de telles énormités. Car ce n’est pas fini : il est aussi généticien, cosmologue et visionnaire à très, très long terme.

    « Contre la stupidité, les dieux eux-mêmes luttent en vain » Friedrich Schiller, La pucelle d’Orléans, 1801

    Pour lui, l’espèce humaine va devenir immortelle… d’ici 1 000 ans au plus. Pour cela, il faudra avoir fusionné avec l’IA. « Le but ultime de la science est de combattre la mort de l’univers, par la création artificielle de nouveaux univers. Après la mort de la mort, la science se consacrerait à combattre la mort de l’univers. La cosmogénèse artificielle mobiliserait toute l’énergie de l’humanité dans les prochaines milliards d’années. »

    Isaac Asimov avait trouvé plus simple de construire un ordinateur, Multivac, qui, après des milliards d’années d’auto-perfectionnement (et suite à la fusion, hors espace-temps, entre ordinateur et être humain), découvrirait enfin, après la disparition de l’univers, la réponse à la question : « Peut-on inverser l’entropie ? » et engendrerait un nouvel univers en disant simplement : « Que la lumière soit ! » (La Dernière Question, 1956). Mais Laurent Alexandre ne cite pas Asimov.

    En revanche, il croit citer Darwin qui aurait “expliqué” que si l’univers mourrait, alors l’aventure humaine n’aurait eu aucun sens. On peut toujours chercher quoi que ce soit qui ressemble à ce genre de réflexion chez Darwin, ce serait en vain, car Darwin comprenait que l’espèce humaine est une espèce parmi d’autres, vouée à disparaître, comme les autres. Il est vrai que Darwin ne savait rien de l’IA. Quel était son QI, au fait ?

    Il prétend aussi citer Teilhard de Chardin, qui aurait introduit en 1922 le terme de “noosphère”, alors que, même s’il y a pensé dans les années 1920, le terme a été d’abord utilisé publiquement par Édouard Leroy au Collège de France en 1927, et diffusé par Vernadski, auteur de La Biosphère (1926) – ouvrage traduit en français en 1929 – qui formule le triptyque suivant : lithosphère, biosphère, noosphère. Teilhard en parle dans Le Phénomène humain, qui n’a paru qu’en 1955, ayant été interdit par l’Église catholique durant près de dix ans. Ce qui est certain, c’est que Laurent Alexandre ne comprend rien à la pensée de Theilhard : « Le monde futur décrit par Teilhard est bien cette fusion neurotechnologique où le corps disparaît progressivement. » Teilhard n’a jamais envisagé ce genre de futur. Il voulait concilier la théorie darwinienne et un Dieu « Moteur, Collecteur et Consolidateur, en avant, de l’Évolution » (La place de l’homme dans la Nature : Le groupe zoologique humain, 1956 ; ce livre fut interdit à la publication durant sept ans).

    Laurent Alexandre est quand même un grand humaniste, porteur d’une nouvelle éthique : « Je suis persuadé que le sauvetage de notre corps constitue l’un des trois piliers essentiels de notre humanité avec le maintien du droit à nous déconnecter de la matrice et le maintien d’une part de hasard génétique. » Comme la vie humaine est simple : tous les autres maux dont nous pouvons souffrir ne sont rien à côté des trois qu’il dénonce !

    Par exemple : les maladies dégénératives, les guerres de religion, les pénuries alimentaires, les pollutions (air, sol, eau), les catastrophes naturelles, les accidents industriels, l’exploitation des enfants, les viols et violences continuels, etc. Laurent Alexandre vit déjà dans un monde virtuel où rien ne compte d’autre que la projection permanente de visions manichéennes (transhumains, tous bons – IA, toutes mauvaises) et d’ennemis imaginaires propres aux délires paranoïaques (au vrai sens du terme : se croire menacé de destruction). À moins qu’il ne fasse semblant, parce que ça peut rapporter encore plus d’argent que Doctissimo.

    #Qi #discriminations #IA #Elon_Musk #Laurent_Alexandre #RFID #stupidité #Urologie #futurologie #Doctissimo #Isaac_Asimov #noosphère

  • F. Bérard, M. Brier et C. Izoard, Le robot à visage humain, une opération de com ?, 2015
    https://sniadecki.wordpress.com/2017/09/14/izoard-robotcom

    « Justement, les robots pourraient permettre aux humains de se concentrer sur le plus important : l’accompagnement », nous a-t-on répondu au cours de notre enquête. Pourtant, ce sont les travailleurs – le plus souvent des travailleuses – de l’aide à la personne qui passeront leur temps à mettre le robot à jour, gérer ses bugs, médiatiser le rapport, forcément compliqué, entre la personne assistée et ses machines. Cet équipement destiné à veiller sur les patients servira aussi à surveiller les employées, dont les tâches seront standardisées de fait par les interactions avec le robot.

    Aussi le rôle de la robotique est-il ici d’accompagner la concentration capitaliste de tout un secteur. Elle va permettre aux prestataires de réduire le temps de présence humaine, remplacé par un monitoring high-tech qui, en devenant la norme, écarte les petites structures indépendantes, incapables de réaliser ces investissements. Les conséquences immédiates d’un tel programme sont donc de précariser un peu plus certaines des travailleuses les plus dominées de notre société.

    #robotisation #intelligence_artificielle #informatique #surnuméraires #travail #critique_techno

  • Les tricheurs de la science La Presse CA - Marie-Claude Malboeuf - 12 Septembre 2017
    http://www.lapresse.ca/actualites/enquetes/201709/12/01-5132442-les-tricheurs-de-la-science.php

    Ils devraient être des modèles de rigueur. Ils ont plutôt truqué leurs résultats, détourné des fonds, menti ou volé des écrits. Depuis cinq ans, près d’une centaine de scientifiques canadiens ont été punis pour malhonnêteté, révèlent des données obtenues par La Presse. Et ils sont de plus en plus nombreux à se faire prendre.

    De plus en plus de tricheurs démasqués
    Dans chaque bureau de l’hôpital d’Ottawa, les révélations du Dr Paul Hébert déclenchaient un séisme. Le spécialiste des soins intensifs était lui-même sidéré. Et enragé par ce que la responsable de son programme de recherche venait de découvrir.
    « Une professionnelle de la santé fraudait, elle fabriquait des données de recherche ! », confie le chercheur, aujourd’hui chef du département de médecine au Centre hospitalier de l’Université de Montréal (CHUM) et auteur de travaux qui ont transformé la pratique de la transfusion sanguine.

    Dans le cadre de l’étude qu’il faisait à l’époque, l’employée tricheuse devait absolument prélever le sang de patients à des moments précis pour qu’on mesure l’effet d’un traitement. Mais au lieu de remplir sa mission le samedi, comme il le fallait, elle ne s’est jamais présentée à l’hôpital. De retour le lundi, elle a recueilli le sang en douce et écrit la mauvaise date sur les fioles, en espérant brouiller les pistes. Mais ses collègues surveillaient le réfrigérateur.

    « On l’a congédiée, mais à l’hôpital, la crise a duré des semaines. Elle a failli ruiner l’étude », explique le Dr Hébert.
    Quinze ans plus tard, il se souvient de tout. Entre deux nuits d’insomnie, il a alerté les organisations concernées et repris la collecte de données auprès de 40 patients. Une somme de travail colossale, qui s’est étendue sur un an et lui a coûté 100 000 $.
    L’étude a ainsi pu être publiée dans une revue prestigieuse. Mais cela n’empêche pas le spécialiste de frémir en pensant à ce qui aurait pu se produire. « Découvrir la fraude seulement après la publication, ç’aurait été un désastre... »

    Il n’en avait encore jamais parlé publiquement.
    Des désastres, le médecin sait bien que d’autres universités en connaissent, y compris au Canada, où est survenu l’un des pires scandales.

    Du fond de l’Université Memorial, à Terre-Neuve-et-Labrador, le chercheur Ranjit Chandra est devenu une vedette mondiale en publiant des études sur des multivitamines miracles et d’autres au sujet de 700 bébés n’ayant finalement jamais existé. Il les inventait et recopiait des séries de chiffres d’une étude à l’autre.

    L’université a enterré l’affaire pendant 12 ans, ignorant de nombreux dénonciateurs et laissant son professeur empocher une fortune - jusqu’à ce qu’il quitte le Canada en douce, en 2002.
    À la même époque, le chercheur James Xu est entré dans un laboratoire albertain en pleine nuit pour ajouter une substance dans les éprouvettes, afin que les expériences de son équipe semblent concluantes.

    Plus de fraudeurs démasqués
    Combien de délinquants sévissent encore au Canada ? Ces cinq dernières années, les universités du pays ont transmis aux autorités fédérales des rapports d’enquête concernant 192 chercheurs, dont 83 ont été jugés malhonnêtes, révèlent de nouvelles données obtenues par La Presse. Leur analyse montre que le nombre de chercheurs sanctionnés annuellement a augmenté de 54 % au cours de cette période.

    Treize d’entre eux avaient fabriqué, falsifié ou détruit des données. Les autres avaient menti dans leurs demandes de subvention, détourné des fonds publics, plagié ou bâclé leur travail (détails ci-contre).

    Peu de cas rendus publics
    À Toronto, Sophie Jamal a berné une très prestigieuse revue médicale. L’endocrinologue avait altéré sa base de données pour faire croire que le fait d’appliquer un onguent avait fait augmenter la densité osseuse de ses patientes à risque d’ostéoporose. Elle a donc perdu son emploi l’an dernier, et perdu à jamais le droit de demander des subventions fédérales.

    En 2013, les Américains ont révélé qu’un pathologiste prometteur de l’Université Western Ontario (Hao Wang) avait faussement rapporté avoir réussi une greffe de rein sur deux singes.
    La même année, l’Université McGill a obtenu gain de cause contre l’un de ses chercheurs les plus connus - et les plus subventionnés -, Avi Chaudhuri. Le professeur de psychologie avait menti au sujet de 14 voyages en Inde, prétendant s’y rendre pour faire ses recherches, alors qu’il y faisait plutôt rouler une entreprise lui appartenant. Il a été congédié.

    De leurs propres aveux, plusieurs scientifiques ne se font jamais prendre. Environ 2% des chercheurs sondés lors d’enquêtes scientifiques admettent avoir déjà falsifié ou fabriqué des données. Et 9% avouent avoir déjà adopté d’autres pratiques discutables.
    Les scientifiques détestent parler de ces dérives en public, par crainte que la population n’oublie que 90 % d’entre eux sont rigoureux et honnêtes, et ne condamne injustement la science dans son ensemble.
    En privé, par contre, « il y a un besoin criant de se défouler, vous n’avez pas idée ! », constate le professeur Bryn Williams-Jones, qui dirige les programmes de bioéthique à l’UdeM et collabore à une enquête internationale lancée par son ancienne étudiante, Élise Smith.
    Le sondage portait sur la signature des études savantes, mais les participants en avaient long à dénoncer. « Ils nous parlent d’abus, de manipulations de données, de harcèlement, de conflit d’intérêts... énumère le bioéthicien. Leurs témoignages font déjà 300 pages ! »

    Influence mortelle
    « Le manque d’intégrité, c’est hyper dangereux ; les décideurs se basent sur des données scientifiques de toutes sortes dans leur travail », prévient le professeur Williams-Jones.
    En santé, il suffit d’un seul délinquant pour causer « d’immenses dégâts », car des millions de médecins se fient aux études pour traiter leurs patients, précise le Dr Hébert.

    « La recherche clinique frauduleuse ou mal menée peut tuer. »
    Des chercheurs ont accusé deux scientifiques européens d’avoir eu ce genre d’influence mortelle. Le premier (l’anesthésiste Joachim Boldt) prônait l’emploi d’un soluté controversé pour réanimer les patients en insuffisance circulatoire. Le second (le cardiologue Don Poldermans), celui de bêtabloquants lors d’opérations à haut risque. Ces deux pratiques tuaient probablement beaucoup plus de gens qu’elles n’en sauvaient, a-t-on compris trop tard - après avoir découvert, il y a quelques années, que chacun des deux hommes avait publié des données fictives ayant brouillé les cartes.

    Des jeunes sont également morts après avoir attrapé la rougeole, parce que leurs parents avaient lu que les faire vacciner risquait de les rendre autistes. Dans sa pseudo-étude portant sur 12 enfants, l’ex-médecin britannique Andrew Wafefield avait pourtant déformé le contenu de chaque dossier médical, sans exception. Et caché le fait qu’un avocat lui avait versé plus de 700 000 $ après lui avoir commandé l’étude pour justifier le dépôt de poursuites judiciaires contre les fabricants de vaccins.

    Des millions gaspillés
    Chaque année, les scientifiques malhonnêtes privent la société de millions de dollars. « En fraudant, tu gaspilles tes propres fonds de recherche et tu amènes plein d’autres scientifiques à suivre de fausses pistes avec les leurs, dénonce le Dr Hébert. Ça mobilise des ressources rares en pure perte, alors qu’elles auraient pu permettre de vrais progrès. »

    Les agences canadiennes tentent de réduire les dégâts en exigeant que les délinquants remboursent les fonds mal utilisés. En cinq ans et demi, elles ont ainsi récupéré près de 0,9 million, soit 80 % des sommes réclamées (et l’équivalent de 0,038 % de leur budget annuel de 2,38 milliards).

    Quarante-deux chercheurs se sont par ailleurs retrouvés sur une « liste noire » qui les empêchent de recevoir des subventions - dont sept pour toujours.

    D’année en année, le nombre de délinquants sanctionnés augmente. « On accepte maintenant de recevoir les allégations anonymes, précise Susan Zimmerman, directrice du Secrétariat pour la conduite responsable de la recherche, qui assiste les agences subventionnaires. On essaie de faciliter les choses pour encourager les gens à parler. »

    Cas de plagiat, de falsification ou de fabrication sanctionnés de 2012 à 2017
    • 39 par le Secrétariat pour le conduite responsable de la recherche (Canada) :
    • 92 par la National Science Foundation (EU)
    • 54 par l’Office for Research Intergrity (EU)

    Un premier bilan détaillé
    Dès qu’un scientifique soutenu par des fonds fédéraux est soupçonné d’inconduite, les universités sont tenues d’alerter le Groupe et le Secrétariat pour la conduite responsable de la recherche. Elles doivent ensuite leur transmettre leurs rapports d’enquête. C’est la règle depuis décembre 2011, les trois agences subventionnaires fédérales s’étant alors dotées d’une politique commune - une innovation notamment motivée par le scandale survenu à l’Université Memorial. Le Secrétariat aide les agences à faire appliquer les règles et compile les statistiques rapportées dans ce reportage. C’est la toute première fois qu’il livre un bilan détaillé des manquements et des sanctions enregistrées depuis sa création. L’an dernier, les trois agences fédérales ont soutenu 36 000 chercheurs.

    Pourquoi frauder ?
    Qu’est-ce qui pousse des scientifiques - censés chercher la vérité - à frauder ? Voici ce qu’ont répondu les principaux intéressés.
    La compétition féroce

    « Dans la position académique que j’occupais, ton estime de toi dépend des subventions obtenues. [...] J’étais sur un tapis roulant et je ne pouvais pas descendre », a déclaré le chercheur en obésité Eric Poehlman lors de son procès criminel couvert par le New York Times.
    Sans fonds, un chercheur ne peut ni faire rouler son labo, ni publier, ni être promu. « Et comme les athlètes qui se dopent, certains pensent qu’ils ne peuvent pas réussir sans tricher », analyse l’éthicien Bryn Williams-Jones, de l’Université de Montréal.

    « Trop de structures encouragent les comportements nocifs. Des taux de réussite de 12 % lors des demandes de subvention, ça crée une compétition hallucinante, qui favorise les manquements. »

    La vanité
    « Ce sont la vanité et l’autoglorification qui l’ont motivé. C’était un expert mondial, qui voyageait en première classe pour donner des conférences à travers le monde. » L’éditeur scientifique Steven Shafer a expliqué de cette façon pourquoi l’anesthésiste allemand Joachim Boldt, a pu publier 94 études frauduleuses.

    Besoin de pouvoir, d’admiration, arrogance... Dans les sphères hautement compétitives, ces traits narcissiques sont fréquents, d’après la diplômée en psychologie légale Cristy McGoff, que le site RetractionWatch a interrogée au sujet des cas gérés dans son université américaine. « Se percevoir comme étant respecté et omniscient peut amener quelqu’un à pousser le bouchon. »

    La maladie
    « Certains de ses comportements étaient si illogiques et outrageux qu’il est évident qu’il n’était pas capable de penser rationnellement à l’époque. »

    D’après son avocat, c’est la maladie qui a poussé Scott Reuben à frauder. Des épisodes de manie lui ont permis d’abattre un travail insensé, jusqu’à ce qu’il ne parvienne plus à remplir ses engagements et commence à avoir recours à son imagination.
    Avide d’attention et devenu inconscient des risques, l’anesthésiste a prétendu avoir enrôlé 200 patients ayant subi un remplacement du genou, alors que son hôpital effectuait très peu d’opérations du genre.
    À l’époque du procès, il avait tout perdu - sa femme, son permis de médecin, sa fortune - et emménagé chez ses parents.

    La pente glissante
    « Il a commencé à tricher un peu, et la tromperie est devenue totalement incontrôlée. » Voici comment le chercheur norvégien Jon Sudbø a fini par inventer 908 patients, selon ce qu’a déclaré son avocat à l’époque.

    « Le premier pas sur le chemin de la fraude est probablement franchi en raison d’une peur égoïste », explique la psychologue Jennifer Crocker dans la revue Nature. Tout commence par la crainte d’être mal vu ou « de ne pas obtenir le poste, la subvention ou le prix convoités ». Mais le chercheur se sent mal d’avoir triché et rationalise son geste pour se revaloriser, ce qui rend le prochain pas facile à franchir.

    L’obsession des résultats
    « Il vaut mieux publier des résultats positifs pour [sa] carrière. C’est de ça qu’il s’agit : gravir les échelons. » Le lanceur d’alarme Peter Wilmshurst a raconté au quotidien Der Spiegel que ses confrères peu scrupuleux ne se font pas prier pour faire des cachettes. 

    « De nos jours, les journaux et les organismes subventionnaires veulent des résultats positifs », observe le professeur Vincent Larivière, qui détient la Chaire sur les transformations de la communication savante.

    « Certains chercheurs vont donc prendre quelques libertés pour obtenir des résultats plus frappants, afin de publier plus facilement dans des journaux mieux cotés et d’être plus cités. C’est bien plus répandu que la fraude. »

    L’insécurité extrême
    Le professeur de psychologie néerlandais Diederik Stapel, doyen de sa faculté, a inventé les résultats d’innombrables expériences jamais faites. Dans le récit autobiographique de sa chute, publié en 2012, il raconte combien la difficulté d’être publié l’angoissait et évoque son insécurité extrême. « Marquer des points te fait applaudir et un pointage élevé te fait applaudir très fort. Et les forts applaudissements sont formidables, parce qu’ils noient tes doutes au sujet de la valeur de ce que tu fais et de qui tu es. » « Comme un alcoolique ou un héroïnomane, j’ai commencé à utiliser ma dépendance pour tout régler : mauvais résultats, longue périodes sans trouver un effet ou sans publier. »

    L’argent
    « L’argent est un incitatif très fort, c’est la nature humaine... » Selon l’éthicien Bryn Williams-Jones, l’appât du gain a vraisemblablement motivé plusieurs fraudes scientifiques.

    Au Canada, Ranjit Chandra a inventé ses travaux au sujet de vitamines de sa fabrication, censées repousser la démence. D’après la preuve déposée lors de sa poursuite en diffamation contre CBC, il espérait réaliser des ventes de 125 millions.

    Après avoir fui en Inde en 2002, l’allergologue est revenu pratiquer la médecine dans la grande région de Toronto. La police a affirmé l’an dernier qu’il en a profité pour frauder la régie de l’assurance maladie ontarienne, avant de repartir en Inde.

    Les justiciers de la science
    Excédés de voir leur réputation ternie, des scientifiques s’efforcent de démasquer leurs confrères malhonnêtes et de nettoyer la littérature savante. Voici leurs méthodes - si efficaces qu’elles font exploser le nombre d’études discréditées et rayées de la carte.

    Mauvais menteurs
    Des invraisemblances grossières provoquent parfois la chute de stars de la recherche. Le Norvégien Jon Sudbø avait attribué la même date de naissance à 250 des 908 cancéreux qu’il avait inventés. Et il a prétendu les avoir trouvés dans une base de données qui n’existait pas encore.
    Le Canadien Ranjit Chandra a, quant à lui, attribué des scores cognitifs si faibles à ses sujets (censément normaux, mais fictifs) qu’ils semblaient atteints d’un retard mental.

    D’autres ont recyclé des séries de chiffres d’une étude à l’autre (dont Chandra et le professeur de psychologie néerlandais Diederik Stapel). Ou rapporté avoir réalisé un sondage en science politique si complexe (l’étudiant américain Michael LaCour) qu’un autre étudiant désireux de reproduire l’expérience a découvert que cela nécessitait un budget insensé.

    Anonymat
    L’union fait apparemment la force. Depuis 2012, les scientifiques dénoncent les lacunes d’études suspectes sur le site PubPeer, qui leur permet d’échanger avec des confrères du monde entier et, surtout, de le faire de façon anonyme. Cette révolution a délié les langues et généré des commentaires au sujet de 22 000 études.
    Après avoir perdu son emploi, un chercheur du Michigan s’est vainement adressé aux tribunaux pour savoir qui avait attaqué ses travaux, disant avoir été diffamé.

    L’anonymat est essentiel, affirme en entrevue le fondateur de PubPeer, Brandon Stell, chercheur au CNRS à Paris. « Bien des scientifiques craignent de s’attirer des représailles s’ils critiquent [ouvertement leurs collègues]. »

    Fausses images
    La popularité de logiciels comme PhotoShop facilite la manipulation d’images - une supercherie qui fausse 4 % des études, d’après les évaluations les plus récentes.

    « Des chercheurs réutilisent par exemple la photo d’une expérience faite sur un type de cellules, afin de prétendre qu’elle a fonctionné aussi sur un autre type de cellules », explique au téléphone le journaliste scientifique Ivan Oransky, fondateur site RetractionWatch.
    L’ex-étoile montante Anil Potti a même recyclé de vieux scans de poumons pour illustrer les supposés effets de son traitement expérimental contre le cancer.

    « Certaines personnes utilisent des logiciels, mais d’autres le font à l’oeil. Elles ont le genre de cerveau qui n’oublie pas les images », constate le fondateur de PubPeer, où les images truquées sont activement dénoncées.

    Robots policiers
    Comment repérer les leurres subtils au milieu d’un déluge de données ? Un nouveau logiciel identifie les distributions statistiques qui avaient des chances infimes de se produire sans tricher. Après l’avoir mis au point, l’anesthésiste John Carlisle a écrit cet été que des douzaines d’études cliniques publiées dans des revues prestigieuses étaient douteuses.

    Depuis un an, un robot informatique baptisé « StatCheck » permet par ailleurs de déceler les erreurs de calcul. Il a ainsi remis en question 50 000 études en psychologie sur PubPeer. Mais ses réprimandes publiques ont été dénoncées, car elles humilient aussi les responsables d’erreurs de bonne foi.

    Poids des mots
    D’autres chercheurs se sont demandé si leurs confrères malhonnêtes écrivaient différemment lorsqu’ils mentaient. D’après leur analyse, la lecture des études biomédicales frauduleuses est plus ardue, car elles sont plus vagues, plus techniques et contiennent plus de références, mais moins de quantitatifs.

    Dans ses études fictives, le professeur de psychologie Diederik Stapel utilisait pour sa part moins d’adjectifs, mais plus de superlatifs et d’amplificateurs (comme « profondément » ou « extrêmement ») que dans ses études authentiques.

    Justiciers solitaires
    En Europe, le cardiologue britannique Peter Wilmshurst a dénoncé une vingtaine de scientifiques malhonnêtes et survécu aux poursuites engagées pour le faire taire. Avant lui, plusieurs personnes avaient fermé les yeux.

    En Chine, le diplômé en biochimie Shimin Fang a attaqué des centaines de délinquants sur son site News Threads. Ce qui lui a valu 10 poursuites, une agression au marteau et un prix de l’organisme Sense about Science. Le gouvernement chinois a censuré son site en 2014.

    Aux États-Unis, le chercheur Paul Brookes a dû fermer science-fraud.org en 2013, après six mois d’activités, durant lesquels il avait dénoncé 275 études - convaincu que le faire en privé ne donnerait guère de résultats.

    Déluge d’études discréditées
    Tous ces efforts ont eu un remarquable effet, provoquant le retrait de milliers d’études discréditées. L’an dernier, 972 articles erronés ou frauduleux ont été rétractés après publication. « En 2000, 30 fois moins d’études avaient connu le même sort », indique en entrevue le journaliste scientifique Ivan Oransky.

    Depuis 2010, son site RetractionWatch fait la lumière sur ces événements en insistant sur les cas de fraude et de plagiat, qui sont trois fois plus nombreux que les cas d’erreurs et semblent augmenter.
    À lui seul, l’anesthésiste japonais Yoshitaka Fujii a vu 183 de ses études être rétractées : un record. Le rapport d’enquête qui le concerne conclut qu’il fonctionnait « comme s’il rédigeait un roman »

    #Etudes (fictives) #Experts #recherche #medecine (non limitatif) #Triche #résultat (culture du) #Publications scientifiques #fraude #compétition

  • Watson, une révolution pour lutter contre le cancer ? Nous en sommes loin !
    http://www.internetactu.net/a-lire-ailleurs/watson-une-revolution-pour-lutter-contre-le-cancer-nous-en-sommes-loin

    L’une des applications phares de Watson, le système d’intelligence artificielle d’IBM a longtemps été la fouille de données médicales et l’analyse des corpus d’articles de recherche sur le cancer. Force est pourtant de constater que les résultats annoncés ne sont pas au rendez-vous estime une remarquable enquête de Stat News (...)

    #A_lire_ailleurs #Technologies #IA #intelligence_artificielle #nossystemes #Santé

  • How to Regulate Artificial Intelligence - The New York Times
    https://www.nytimes.com/2017/09/01/opinion/artificial-intelligence-regulations-rules.html

    It’s natural to ask whether we should develop A.I. at all.

    I believe the answer is yes. But shouldn’t we take steps to at least slow down progress on A.I., in the interest of caution? The problem is that if we do so, then nations like China will overtake us. The A.I. horse has left the barn, and our best bet is to attempt to steer it. A.I. should not be weaponized, and any A.I. must have an impregnable “off switch.”

    Trois « lois » pour l’IA :
    – le propriétaire est responsable des actes de l’IA
    – une IA et un robot doivent s’annoncer comme tels
    – une IA ne peut partager des informations qu’avec l’accord de son propriétaire

    #Intelligence_artificielle #Réglementation

  • Chez Disney, c’est une IA qui détermine quelles histoires vont marcher
    https://www.actualitte.com/article/monde-edition/chez-disney-c-est-une-ia-qui-determine-quelles-histoires-vont-marcher/84435

    « On ne peut pas encore l’utiliser pour élire le vainqueur d’un concours d’écriture », tempère le scientifique Boyang Li dans un communiqué. « Mais on peut l’utiliser pour guider de futures recherches. » Pour tester l’IA, les algorithmes se sont basés sur Quora, réseau social sur lequel chacun peut poser une question ou répondre à d’autres, sur n’importe quel sujet – des réponses que l’on peut également liker... Sur les 55 000 réponses prélevées par les chercheurs, 28 000 sont pu être assimilées à de courtes histoires, de 369 mots en moyenne.

    #Disney #Evaluation_textes #Intelligence_artificielle

    Et de concevoir 2 réseaux neuronaux différents : un pour analyser la structure de l’histoire, section par section ; un autre pour la regarder dans son ensemble. En se basant sur les likes des utilisateurs, l’intelligence artificielle a pu déterminer quelles histoires étaient les plus populaires – à défaut de déterminer leur qualité... pour le moment. Car les chercheurs se posent aussi cette question-là.

    Si une intelligence artificielle réussissait à déterminer la qualité d’un texte, les possibilités seraient incroyables : et si elle pouvait elle-même écrire des histoires dans un futur proche ? « La capacité à prédire la qualité d’une histoire a un impact sur la création de l’histoire et sa compréhension », explique Markus Gross, vice-président de la recherche chez Disney. « Pour évaluer sa qualité, l’IA doit comprendre le texte à un certain niveau. Pour que les IA puissent écrire des histoires, il faut qu’elles soient conscientes de la qualité de ce qu’elles produisent. »

  • EyeEm : quand l’intelligence artificielle sélectionne les meilleures photos d’un concours
    https://phototrend.fr/2017/08/eyeem-vision-intelligence-artificielle-selection-photo

    Comment passer de 590 000 photos soumises à 100 images sélectionnées dans un concours international ? C’est la question que nous nous sommes posée en voyant les 100 photos finalistes des EyeEm Photography Awards 2017, un concours de photographie ouvert à tous et qui serait même devenu le plus grand concours photo du monde en 2017, devant les Sony World Photography Awards.

    /.../

    Pourtant, les règles de base en photographie ne permettent pas de juger de la qualité esthétique et du message de la photo.« Les photos qui s’éloignent des règles établies sont souvent celles qui évoquent une forte esthétique » , répond justement Jenna Black. À partir de là, il est important pour les curateurs et les ingénieurs de ne pas déconstruire les aspects techniques d’une photo réussie, mais d’insister sur l’esthétique et le sens visuel de l’image.

    /.../

    Mais comment être certain que de bonnes photos ne soient pas écartées de la sélection ? Il reste encore du temps avant que l’homme ne fasse entièrement confiance à la machine pour choisir quels instants photo garder.

    ... encore heureux !!!

    #eyeem #vision #intelligence_artificielle #Automatic_Image_Tagging #AIT #machine_learning #esthetique #beau #photo #curateur #curation #iconographie

  • #Le_Pistolet_et_la_Pioche S01E05 : Piocher dans l’intelligence artificielle avec #Paul_Jorion
    https://reflets.info/le-pistolet-et-la-pioche-s01e05-piocher-dans-lintelligence-artificielle-av

    L’IA. L’intelligence artificielle. De partout, des invités viennent dire tout le mal ou tout le bien qu’ils en pensent, des possibilités qu’elles va apporter, des dangers, menaces qu’elle représente. Pourquoi Le Pistolet et la Pioche […]

    #deep_learning #IA #intelligence_artificielle #machine_learning #réseaux_de_neurones_artificiels #simulacre #simulation #singularité
    https://reflets.info/wp-content/uploads/LPLPS01E05.mp3


    https://reflets.info/wp-content/uploads/LPLPS01E05.ogg

  • Beginning Artificial Intelligence with the Raspberry Pi

    Gain a gentle introduction to the world of Artificial Intelligence (AI) using the Raspberry Pi as the computing platform. Most of the major AI topics will be explored, including expert systems, machine learning both shallow and deep, fuzzy logic control, and more!

    AI in action will be demonstrated using the Python language on the Raspberry Pi. The Prolog language will also be introduced and used to demonstrate fundamental AI concepts. In addition, the Wolfram language will be used as part of the deep machine learning demonstrations.

    A series of projects will walk you through how to implement AI concepts with the Raspberry Pi. Minimal expense is needed for the projects as only a few sensors and actuators will be required. Beginners and hobbyists can jump right in to creating AI projects with the Raspberry PI using this book.

    What You’ll Learn
    What AI is and―as importantly―what it is not
    Inference and expert systems
    Machine learning both shallow and deep
    Fuzzy logic and how to apply to an actual control system
    When AI might be appropriate to include in a system
    Constraints and limitations of the Raspberry Pi AI implementation

    Who This Book Is For
    Hobbyists, makers, engineers involved in designing autonomous systems and wanting to gain an education in fundamental AI concepts, and non-technical readers who want to understand what AI is and how it might affect their lives.

    Table of Contents
    Chapter 1: Introduction to Artificial Intelligence
    Chapter 2: Basic AI Concepts
    Chapter 3: Expert System Demonstrations
    Chapter 4: Games
    Chapter 5: Fuzzy Logic System
    Chapter 6: Machine Learning
    Chapter 7: Machine Learning: Artificial Neural Networks
    Chapter 8: Machine Learning: Deep Learning
    Chapter 9: Machine Learning: Practical ANN Demonstrations
    Chapter 10: Evolutionary Computing
    Chapter 11: Behavior-Based Robotics
    Appendix A: Build Instructions for the Alfie Robot Car

    https://www.amazon.fr/Beginning-Artificial-Intelligence-Raspberry-Pi/dp/1484227425

    #book #livre
    #AI #IA #artificial_intelligence #intelligence_artificielle
    #Raspberry_Pi #Python