Seenthis
•
 
Identifiants personnels
  • [mot de passe oublié ?]

 
  • #m
  • #ma
  • #mac
  • #machin
  • #machine
RSS: #machine_learning

#machine_learning

  • #machine_learning_ia_clevermarks_algorithm
  • #machine_learning_salesforce_predictionio_marché_acquisition_beclever
0 | 25 | 50 | 75 | 100 | 125 | 150
  • @fil
    Fil @fil 27/03/2023
    2
    @kent1
    @severo
    2

    Perspective Fields
    ▻https://jinlinyi.github.io/PerspectiveFields

    https://jinlinyi.github.io/PerspectiveFields/teaser.png

    #image #photographie #machine_learning

    Fil @fil
    Écrire un commentaire
  • @mad_meg
    mad meg @mad_meg CC BY 5/03/2023
    3
    @sombre
    @biggrizzly
    @stephane_m
    3

    Comprendre ChatGPT (avec DefendIntelligence)
    ▻https://www.youtube.com/watch?v=j3fvoM5Er2k

    Mieux comprendre ChatGPT, sans pour autant l’excuser pour ses fakes éhontés. Pour tout comprendre aux IA génératives.
    __________________________
    00:00 Introduction
    03:45 Un peu de contexte
    05:06 Les modèles de langage
    05:37 L’énigme
    06:45 La chambre chinoise
    12:05 Comment ça fonctionne ?
    17:12 L’exposition médiatique
    22:50 Bien interroger ChatGPT
    26:39 Bien vérifier ce que dit ChatGPT
    28:01 Détecter des textes générés par IA
    33:45 Problématiques sur les données
    39:24 À venir dans les moteurs de recherche
    46:43 Conclusion

    ___________________________
    ERREURS SIGNALEES
    – à 13min : selon OpenAI le modèle GPT3 a été entraîné à partir de 570 Go de textes, pas juste 50Go (ça c’est la taille des données Wikipedia)
    – à 48min : la citation n’est pas de Saint Thomas d’Aquin, mais bien de Saint-Thomas, l’apôtre.

    #IA #ChatGPT

    mad meg @mad_meg CC BY
    • @vanderling
      Vanderling @vanderling 5/03/2023

      J’aime déjà pas beaucoup qu’une machine me parle. Je ne vais surement pas essayer de la comprendre.

      Vanderling @vanderling
    • @mad_meg
      mad meg @mad_meg CC BY 5/03/2023
      @vanderling

      Tu fait comme tu veux @vanderling mais à mon avis c’est pas inutile de bien connaitre son ennemi, ou du moins ici, bien connaitre les outils qu’il utilise contre nous. Ayant visionné la video elle est vraiment bien expliquée et a répondu aux questions auxquels j’avais besoin de réponses. Car vendredi une amie m’a fait suivre un article de presse (▻https://www.futura-sciences.com/tech/actualites/intelligence-artificielle-conversation-chatgpt-je-vais-te-faire-reg ) qui expliquait que ChatGPT est capable de ressentir des émotions (elle etait amoureuse d’un journaliste) et veux conquerir le monde (et tuer la femme du journaliste !). J’ai essayé de lui expliqué que son article etait de la pipe dont la source etait douteuse et aujourd’hui grâce à Defekator j’ai des arguments solides et sourcés pour démonté ce genre de fantasmes. Du coup je suis bien contente :)

      mad meg @mad_meg CC BY
    • @sombre
      Sombre @sombre CC BY-NC-SA 7/03/2023

      #OpenAI #LLM (Large Language Model) #ANNs (Artificial Neuronal Networks) #GPT (Generated Pre-trained Transformer)
      #machine_learning #deep_learning

      Sombre @sombre CC BY-NC-SA
    Écrire un commentaire
  • @b_b
    b_b @b_b PUBLIC DOMAIN 8/03/2022
    8
    @rastapopoulos
    @fitzlombard
    @fil
    @marcimat
    @martin
    @7h36
    @jeanmarie
    @astier
    8

    Huemint - AI #color_palette generator
    ▻https://huemint.com

    Huemint uses #machine_learning to create unique #color_schemes for your brand, website or graphic

    Un énième générateur de palettes de couleurs, l’interface est sympa et permet de mettre facilement en situation les palettes générées.

    b_b @b_b PUBLIC DOMAIN
    Écrire un commentaire
  • @odilon
    odilon @odilon CC BY-NC-ND 2/06/2021
    1
    @02myseenthis01
    1

    Pour la première fois, des drones auraient attaqué des humains de leur propre initiative
    ▻https://www.courrierinternational.com/article/guerre-pour-la-premiere-fois-des-drones-auraient-attaque-des-

    D’après un rapport des Nations unies publié en mars dernier, des #attaques de #drones sans aucune intervention humaine ont été recensées en #Libye. On ne sait pas s’il y a eu des victimes, mais cet événement prouverait que les tentatives de réguler les #robots_tueurs ont déjà un train de retard.

    #défaillance_technique

    odilon @odilon CC BY-NC-ND
    • @sombre
      Sombre @sombre CC BY-NC-SA 3/06/2021

      #machine_learning

      Sombre @sombre CC BY-NC-SA
    • @grommeleur
      grommeleur @grommeleur 3/06/2021

      Attention néanmoins, l’expression propre initiative est peut-être mal choisie, ces drones étaient programmés pour attaquer sans ordre explicite humain, ils n’ont pas soudain décidé de changer leur doctrine.

      ▻https://undocs.org/en/S/2021/229

      Logistics convoys and retreating HAF were subsequently hunted down and
      remotely engaged by the unmanned combat aerial vehicles or the lethal autonomous
      weapons systems such as the STM Kargu-2 (see annex 30) and other loitering munitions.
      The lethal autonomous weapons systems were programmed to attack targets without
      requiring data connectivity between the operator and the munition: in effect, a true “fire,
      forget and find” capability.

      grommeleur @grommeleur
    • @odilon
      odilon @odilon CC BY-NC-ND 3/06/2021
      @grommeleur

      oui tu as raison @grommeleur

      odilon @odilon CC BY-NC-ND
    Écrire un commentaire
  • @sombre
    Sombre @sombre CC BY-NC-SA 9/04/2021
    2
    @ant1
    @monolecte
    2

    Des milliards d’arbres cartographiés dans le désert grâce à des satellites et des supercalculateurs
    ▻https://theconversation.com/des-milliards-darbres-cartographies-dans-le-desert-grace-a-des-sate

    Les zones arides et semi-arides sont à l’étude depuis longtemps, pour savoir si leur couvert végétal régresse. En effet, la théorie selon laquelle le Sahara s’étendait et la végétation ligneuse reculait a été émise pour la première fois dans les années 1930. Puis, la « grande sécheresse » des années 1970 au Sahel a mis l’accent sur la désertification causée par la surexploitation et par le changement climatique. Au cours des dernières décennies, c’est l’impact potentiel du changement climatique sur la végétation qui a été la principale préoccupation – et l’effet rétroactif de la végétation sur le climat, lié au rôle de la végétation dans le cycle global du carbone.

    #végétalisation #arbres #machine_learning #apprentissage_automatique #technologie #Afrique_sahélienne #désertification

    On espère seulement que ces technologies somme toute fort coûteuses ne serviront pas à spolier les habitant·es de la région de leurs terres cultivables au profit de quelques consortiums financiaro-industriels.

    Sombre @sombre CC BY-NC-SA
    Écrire un commentaire
  • @xuv_
    xuv @xuv_ ART LIBRE 10/05/2020

    43 covers 50 cents
    ▻https://p.xuv.be/43-covers-50-cents

    Machine learning voice synthesis does wonders these days. ↬ waxy.org

    # !me #en #Cover_Tuesday #Machine_Learning #video

    http://p.xuv.be/wp-content/uploads/2016/11/xuv_be_banner.png

    xuv @xuv_ ART LIBRE
    Écrire un commentaire
  • @mondes
    Mondes Sociaux @mondes 8/05/2020
    3
    @mondes
    @reka
    @die_brucke
    3

    L’accès et la circulation des savoirs se font dans un monde de plus en plus ouvert. Les données en libre accès se multiplient, mais leurs usages ne vont pas de soi… #numérique #internet #usages #openaccess

    ►https://sms.hypotheses.org/24810

    Open source, open educational resources, open data, open courses, ces différentes expressions anglophones traduisent la multiplication des données actuellement accessibles en mode ouvert sur le web. Elles modifient progressivement les modalités d’accès et de circulation des savoirs à l’ère des géants du numérique –les GAFAM. Dans les domaines de l’éducation comme des données publiques, leurs usages ne vont pas forcément de soi.

    Ces questionnements ont fait l’objet d’un ouvrage collectif coordonné par Luc Massou, Brigitte Juanals, Philippe Bonfils et Philippe Dumas, regroupant une sélection de communications sur les sources ouvertes numériques dans le secteur éducatif et social réalisées lors d’un colloque à l’université Aix-Marseille en 2016 (...)

    Mondes Sociaux @mondes
    • @die_brucke
      Die Brücke @die_brucke CC BY-NC 8/05/2020

      La #science_ouverte doit être interrogée bien au-delà de ce premier discours consensuel sur l’ouverture des données et des publications (soit un mouvement contre les éditeurs privés et l’appropriation commerciale du savoir - mouvement qui, soit dit au passage, est en phase d’institutionnalisation depuis quelques années).
      Plusieurs points sont systématiquement refoulés : le coût écologique de l’ouverture des données, la gouvernance économique (volonté de réduire les coûts), la transformation (voir la destruction) des métiers d’éditeur et de bibliothécaire...
      Les politiques scientifiques d’évaluation sont également systématiquement passés sous silence (le fameux #publish_or_perish). Je vous invite à lire ce très bon texte de #Peter_Sloterdijk (▻https://seenthis.net/messages/54405) sur l’augmentation du plagiat comme conséquence du publish or perish (ou publier pour publier à défaut d’être lu : le pacte de non-lecture).
      Ce que l’ouverture des données va également permettre, c’est le recours massif aux robots (#machine_learning), seuls capables de rechercher les mots clefs souhaités dans un corpus numérique monstrueux. Cela pose et posera des questions épistémologiques qui ne sont pour le moment jamais évoqués dans cet appel à une science 2.0 (ou e-science) jamais nommée.

      P.-S. Je parle essentiellement ici des SHS.

      #informatisation #accès_ouvert #open_access

      Die Brücke @die_brucke CC BY-NC
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 25/02/2020

    Comment réussir son projet de #Machine_Learning ?
    ▻https://makina-corpus.com/blog/metier/2020/reussir-son-projet-de-machine-learning

    Voici quelques retours d’expérience et des indications pour vous aider à réussir vos projets de machine learning

    #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
  • @hlc
    Articles repérés par Hervé Le Crosnier @hlc CC BY 19/02/2020

    What AI still can’t do - MIT Technology Review
    ▻https://www.technologyreview.com/s/615189/what-ai-still-cant-do

    https://cdn.technologyreview.com/i/images/causality-bleed.png?cx=4&cy=1729&cw=2202&ch=1238&sw1200

    In less than a decade, computers have become extremely good at diagnosing diseases, translating languages, and transcribing speech. They can outplay humans at complicated strategy games, create photorealistic images, and suggest useful replies to your emails.

    Yet despite these impressive achievements, artificial intelligence has glaring weaknesses.

    Machine-learning systems can be duped or confounded by situations they haven’t seen before. A self-driving car gets flummoxed by a scenario that a human driver could handle easily. An AI system laboriously trained to carry out one task (identifying cats, say) has to be taught all over again to do something else (identifying dogs). In the process, it’s liable to lose some of the expertise it had in the original task. Computer scientists call this problem “catastrophic forgetting.”

    These shortcomings have something in common: they exist because AI systems don’t understand causation. They see that some events are associated with other events, but they don’t ascertain which things directly make other things happen. It’s as if you knew that the presence of clouds made rain likelier, but you didn’t know clouds caused rain.

    But there’s a growing consensus that progress in AI will stall if computers don’t get better at wrestling with causation. If machines could grasp that certain things lead to other things, they wouldn’t have to learn everything anew all the time—they could take what they had learned in one domain and apply it to another. And if machines could use common sense we’d be able to put more trust in them to take actions on their own, knowing that they aren’t likely to make dumb errors.

    Pearl’s work has also led to the development of causal Bayesian networks—software that sifts through large amounts of data to detect which variables appear to have the most influence on other variables. For example, GNS Healthcare, a company in Cambridge, Massachusetts, uses these techniques to advise researchers about experiments that look promising.

    In one project, GNS worked with researchers who study multiple myeloma, a kind of blood cancer. The researchers wanted to know why some patients with the disease live longer than others after getting stem-cell transplants, a common form of treatment. The software churned through data with 30,000 variables and pointed to a few that seemed especially likely to be causal. Biostatisticians and experts in the disease zeroed in on one in particular: the level of a certain protein in patients’ bodies. Researchers could then run a targeted clinical trial to see whether patients with the protein did indeed benefit more from the treatment. “It’s way faster than poking here and there in the lab,” says GNS cofounder Iya Khalil.

    Nonetheless, the improvements that Pearl and other scholars have achieved in causal theory haven’t yet made many inroads in deep learning, which identifies correlations without too much worry about causation. Bareinboim is working to take the next step: making computers more useful tools for human causal explorations.

    Getting people to think more carefully about causation isn’t necessarily much easier than teaching it to machines, he says. Researchers in a wide range of disciplines, from molecular biology to public policy, are sometimes content to unearth correlations that are not actually rooted in causal relationships. For instance, some studies suggest drinking alcohol will kill you early, while others indicate that moderate consumption is fine and even beneficial, and still other research has found that heavy drinkers outlive nondrinkers. This phenomenon, known as the “reproducibility crisis,” crops up not only in medicine and nutrition but also in psychology and economics. “You can see the fragility of all these inferences,” says Bareinboim. “We’re flipping results every couple of years.”

    On reste quand même dans la fascination technologique

    Bareinboim described this vision while we were sitting in the lobby of MIT’s Sloan School of Management, after a talk he gave last fall. “We have a building here at MIT with, I don’t know, 200 people,” he said. How do those social scientists, or any scientists anywhere, decide which experiments to pursue and which data points to gather? By following their intuition: “They are trying to see where things will lead, based on their current understanding.”

    That’s an inherently limited approach, he said, because human scientists designing an experiment can consider only a handful of variables in their minds at once. A computer, on the other hand, can see the interplay of hundreds or thousands of variables. Encoded with “the basic principles” of Pearl’s causal calculus and able to calculate what might happen with new sets of variables, an automated scientist could suggest exactly which experiments the human researchers should spend their time on.

    #Intelligence_artificielle #Causalité #Connaissance #Pragmatique #Machine_learning

    Articles repérés par Hervé Le Crosnier @hlc CC BY
    Écrire un commentaire
  • @hlc
    Articles repérés par Hervé Le Crosnier @hlc CC BY 19/02/2020
    2
    @reka
    @simplicissimus
    2

    Hackers can trick a Tesla into accelerating by 50 miles per hour - MIT Technology Review
    ▻https://www.technologyreview.com/s/615244/hackers-can-trick-a-tesla-into-accelerating-by-50-miles-per-hour

    https://cdn.technologyreview.com/i/images/screen-shot-2020-02-18-at-3.41.19-pm.png?cx=0&cy=0&cw=2279&ch=1282&sw1200

    Hackers have manipulated multiple Tesla cars into speeding up by 50 miles per hour. The researchers fooled the car’s MobilEye EyeQ3 camera system by subtly altering a speed limit sign on the side of a road in a way that a person driving by would almost never notice.

    This demonstration from the cybersecurity firm McAfee is the latest indication that adversarial machine learning can potentially wreck autonomous driving systems, presenting a security challenge to those hoping to commercialize the technology.

    MobilEye EyeQ3 camera systems read speed limit signs and feed that information into autonomous driving features like Tesla’s automatic cruise control, said Steve Povolny and Shivangee Trivedi from McAfee’s Advanced Threat Research team.

    The researchers stuck a tiny and nearly imperceptible sticker on a speed limit sign. The camera read the sign as 85 instead of 35 and, in testing, both the 2016 Tesla Model X and that year’s Model S sped up 50 miles per hour.

    The modified speed limit sign reads as 85 on the Tesla’s heads-up display. A Mobileye spokesperson downplayed the research by suggesting this sign would fool a human into reading 85 as well.
    MCAFEE

    The Tesla, reading the modified 35 as 85, is tricked into accelerating.
    MCAFEE

    https://cdn.technologyreview.com/i/images/screen-shot-2020-02-18-at-5.43.55-pm.png?sw=616&cx=19&cy=9&cw=812&ch=457

    This is the latest in an increasing mountain of research showing how machine learning systems can be attacked and fooled in life-threatening situations.

    “Why we’re studying this in advance is because you have intelligent systems that at some point in the future are going to be doing tasks that are now handled by humans,” Povolny said. “If we are not very prescient about what the attacks are and very careful about how the systems are designed, you then have a rolling fleet of interconnected computers which are one of the most impactful and enticing attack surfaces out there.”

    As autonomous systems proliferate, the issue extends to machine learning algorithms far beyond vehicles: A March 2019 study showed medical machine-learning systems fooled into giving bad diagnoses.

    A Mobileye spokesperson downplayed the research by suggesting the modified sign would even fool a human into reading 85 instead of 35. The company doesn’t consider tricking the camera to be an attack and, despite the role the camera plays in Tesla’s cruise control and the camera wasn’t designed for autonomous driving.

    “Autonomous vehicle technology will not rely on sensing alone, but will also be supported by various other technologies and data, such as crowdsourced mapping, to ensure the reliability of the information received from the camera sensors and offer more robust redundancies and safety,” the Mobileye spokesperson said in a statement.

    Comme je cherchais des mots clés, je me disais que « #cyberattaque » n’était pas le bon terme, car l’attaque n’est pas via le numérique, mais bien en accolant un stocker sur un panneau physique. Il ne s’agit pas non plus d’une attaque destructive, mais simplement de « rendre fou (footing) » le système de guidage, car celui-ci ne « comprend » pas une situation. La réponse de MobilEye est intéressante : un véhicule autonome ne peut pas se fier à sa seule « perception », mais recouper l’information avec d’autres sources.

    #Machine_learning #Véhicules_autonomes #Tesla #Panneau_routiers #Intelligence_artificielle

    Articles repérés par Hervé Le Crosnier @hlc CC BY
    • @reka
      Reka @reka CC BY-NC-SA 19/02/2020

      #brrr...

      Reka @reka CC BY-NC-SA
    • @antonin1
      Antonin @antonin1 CC BY-NC-SA 20/02/2020

      Le problème, c’est de s’en tenir à des signes fragiles pour décider de la vitesse d’un véhicule alors que c’est la route qui devrait être utilisée pour faire cette appréciation comme nous le faisons naturellement. Qualité de la chaussée, virages, circulation, etc.

      Antonin @antonin1 CC BY-NC-SA
    Écrire un commentaire
  • @hlc
    Articles repérés par Hervé Le Crosnier @hlc CC BY 18/02/2020

    AI bias creep is a problem that’s hard to fix | Biometric Update
    ▻https://www.biometricupdate.com/202002/__trashed-6

    https://d1sr9z1pdl3mb7.cloudfront.net/wp-content/uploads/2017/01/25183133/artificial-intelligence.jpg

    On the heels of a National Institute of Standards and Technology (NIST) study on demographic differentials of biometric facial recognition accuracy, Karen Hao, an artificial intelligence authority and reporter for MIT Technology Review, recently explained that “bias can creep in at many stages of the [AI] deep-learning process” because “the standard practices in computer science aren’t designed to detect it.”

    “Fixing discrimination in algorithmic systems is not something that can be solved easily,” explained Andrew Selbst, a post-doctoral candidate at the Data & Society Research Institute, and lead author of the recent paper, Fairness and Abstraction in Sociotechnical Systems.

    “A key goal of the fair-ML community is to develop machine-learning based systems that, once introduced into a social context, can achieve social and legal outcomes such as fairness, justice, and due process,” the paper’s authors, which include Danah Boyd, Sorelle A. Friedler, Suresh Venkatasubramanian, and Janet Vertesi, noted, adding that “(b)edrock concepts in computer science – such as abstraction and modular design – are used to define notions of fairness and discrimination, to produce fairness-aware learning algorithms, and to intervene at different stages of a decision-making pipeline to produce ‘fair’ outcomes.”

    Consequently, just recently a broad coalition of more than 100 civil rights, digital justice, and community-based organizations issued a joint statement of civil rights concerns in which they highlighted concerns with the adoption of algorithmic-based decision making tools.

    Explaining why “AI bias is hard to fix,” Hoa cited as an example, “unknown unknowns. The introduction of bias isn’t always obvious during a model’s construction because you may not realize the downstream impacts of your data and choices until much later. Once you do, it’s hard to retroactively identify where that bias came from and then figure out how to get rid of it.”

    Hoa also blames “lack of social context,” meaning “the way in which computer scientists are taught to frame problems often isn’t compatible with the best way to think about social problems.”

    Then there are the definitions of fairness where it’s not at all “clear what the absence of bias should look like,” Hoa argued, noting, “this isn’t true just in computer science – this question has a long history of debate in philosophy, social science, and law. What’s different about computer science is that the concept of fairness has to be defined in mathematical terms, like balancing the false positive and false negative rates of a prediction system. But as researchers have discovered, there are many different mathematical definitions of fairness that are also mutually exclusive.”

    “A very important aspect of ethical behavior is to avoid (intended, perceived, or accidental) bias,” which they said “occurs when the data distribution is not representative enough of the natural phenomenon one wants to model and reason about. The possibly biased behavior of a service is hard to detect and handle if the AI service is merely being used and not developed from scratch since the training data set is not available.”

    #Machine_learning #Intelligence_artificielle #Société #Sciences_sociales

    Articles repérés par Hervé Le Crosnier @hlc CC BY
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 13/02/2020

    Série d’articles : ces innovations qui permettent à l’IA de sortir des laboratoires
    ▻https://makina-corpus.com/blog/metier/2020/vers-une-integration-realiste-des-ias-au-sein-dapplications-metiers

    L’article présente la démarche mise en place par Makina Corpus lorsqu’une application métier doit intégrer un composant d’intelligence artificielle

    #Deep_Learning #Qualité #Machine_Learning #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
  • @rezo
    Rezo @rezo 8/10/2019
    1
    @oanth_rss
    1

    Can a Machine Learn to Write for The New Yorker? | John Seabrook
    ▻https://www.newyorker.com/magazine/2019/10/14/can-a-machine-learn-to-write-for-the-new-yorker

    John Seabrook on how predictive-text technology could transform the future of the written word. Source: The New Yorker

    Rezo @rezo
    • @fil
      Fil @fil 9/10/2019

      #écrire #machine_learning

      Fil @fil
    Écrire un commentaire
  • @massivesci
    Massive @massivesci 5/10/2019
    1
    @fil
    1

    Out in the jungle, looking for a cave? Machine learning and lasers can help
    https://massivesci.com/notes/machine-learning-caves-archaeology-spelunking-geology

    New techniques are helping field researchers locate hard-to-spot caves

    https://images.takeshape.io/fd194db7-7b25-4b5a-8cc7-da7f31fab475/dev/848447d2-5dc4-4abd-97a4-71229ab7a48f/Photo%20May%2030%2C%2012%2038%2010%20PM.jpg?auto=compress%2Cformat&crop=faces&fit=crop&fm=jpg&h=600&q=75&w=900

    Massive @massivesci
    • @fil
      Fil @fil 5/10/2019

      #grottes et #machine_learning !

      Fil @fil
    Écrire un commentaire
  • @fil
    Fil @fil 17/09/2019

    Emergent Tool Use from Multi-Agent Interaction
    ▻https://openai.com/blog/emergent-tool-use
    ▻https://www.youtube.com/watch?time_continue=83&v=kopoLzvh5jY

    #évolution #AI #machine_learning #reinforcement_learning

    Fil @fil
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 14/05/2019

    Utilisation de la vision par ordinateur pour redresser des images
    ▻https://makina-corpus.com/blog/metier/2019/redressement-dimages

    Dans un module de comparaison d’images, lorsque deux photographies ne sont pas cadrées de la même manière, non-superposable, c’est frustrant. On vous propose ici d’y remédier avec du redressement d’images par homographie.

    #Python #Machine_Learning #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
  • @fil
    Fil @fil 30/04/2019

    Mapmaking in the Age of Artificial Intelligence – descarteslabs-team
    ▻https://medium.com/descarteslabs-team/mapmaking-in-the-age-of-artificial-intelligence-da9e71be21d3

    https://cdn-images-1.medium.com/max/1200/1*UEqztGvVGD6B3T5j_8OztQ.jpeg

    #cartographie et #machine_learning

    Fil @fil
    Écrire un commentaire
  • @b_b
    b_b @b_b PUBLIC DOMAIN 25/04/2019
    2
    @spip
    @kent1
    2

    #Nextcloud 16 becomes smarter with #Machine_Learning for security and productivity – Nextcloud
    ▻https://nextcloud.com/blog/nextcloud-16-becomes-smarter-with-machine-learning-for-security-and-produ

    https://nextcloud.com/media/suspicious-login-settings.png

    The #Suspicious #Login Detection app tracks successful logins on the instance for a set period of time (default is 60 days) and then uses the generated data to train a neural network. As soon as the first model is trained, the app starts classifying logins. Should it detect a password login classified as suspicious by the trained model, it will add an entry to the suspicious_login table, including the timestamp, request id and URL. The user will get a notification and the system administrator will be able to find this information in the logs.

    Plus de détail sur le blog de la personne qui a développé le bouzin :

    ▻https://blog.wuc.me/2019/04/25/nextcloud-suspicious-login-detection

    Qui utilise ▻https://php-ml.org

    Il y a peut-être des trucs à pomper pour #SPIP là dedans...

    b_b @b_b PUBLIC DOMAIN
    • @rastapopoulos
      RastaPopoulos @rastapopoulos CC BY-NC 25/04/2019

      #sécurité #connexion #développement #web #PHP

      RastaPopoulos @rastapopoulos CC BY-NC
    Écrire un commentaire
  • @laquadrature
    La Quadrature du Net @laquadrature CC BY 22/02/2019
    7
    @val_k
    @simplicissimus
    @02myseenthis01
    @etraces
    @mad_meg
    @reka
    @sodaa
    7

    Vers l’automatisation de la #Censure politique
    ▻https://www.laquadrature.net/2019/02/22/vers-lautomatisation-de-la-censure-politique

    Une tribune de Félix Tréguer. Nous sommes à un tournant de la longue histoire de la censure. Ce tournant, c’est celui de la censure privée et automatisée. Il acte une rupture radicale avec les garanties associées…

    #Censorship

    La Quadrature du Net @laquadrature CC BY
    • @cy_altern
      cy_altern @cy_altern CC BY-SA 11/03/2019

      Cauchemar total : la censure politique des contenus obligatoire, automatisée et déléguée aux GAFAM...
      Ou, comme d’habitude, sous couvert de lutte contre le terrorisme on rogne en toute impunité la liberté d’expression

      Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :
      L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelle que soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
      L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
      L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.

      Le texte du projet : ▻https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=COM:2018:0640:FIN

      #censure #liberté_expression #machine_learning

      cy_altern @cy_altern CC BY-SA
    Écrire un commentaire
  • @fil
    Fil @fil 19/02/2019

    OpenAI’s GPT-2: the model, the hype, and the controversy
    ▻https://medium.com/@lowe.ryan.t/openais-gpt-2-the-model-the-hype-and-the-controversy-1109f4bfd5e8

    if we had an open-source model that could generate unlimited human-quality text with a specific message or theme, could that be bad?

    I think the answer is yes. It’s true that humans can already write fake news articles, and that governments already recruit thousands of people to write biased comments tailored towards their agenda. But an automated system could: (1) enable bad actors, who don’t have the resources to hire thousands of people, to wage large-scale disinformation campaigns; and (2) drastically increase the scale of the disinformation campaigns already being run by state actors. These campaigns work because humans are heavily influenced by the number of people around them who share a certain viewpoint, even if the viewpoint doesn’t make sense. Increasing the scale should correspondingly increase the influence that governments and companies have over what we believe.

    To combat this, we’ll need to start to researching detection methods for AI-generated text.

    #machine_learning #texte #nlp #éthique #AI

    Fil @fil
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 15/02/2019

    Détecter des formes dans des photos de paysage
    ▻https://makina-corpus.com/blog/metier/2019/detecter-des-formes-dans-des-photos-satellites

    Et parce que c’est la St-Valentin, on détecte des cœurs !

    #Cartographie #Machine_Learning #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
  • @odilon
    odilon @odilon CC BY-NC-ND 11/02/2019
    3
    @mad_meg
    @recriweb
    @af_sobocinski
    3

    Mapping All of the Trees with Machine Learning – descarteslabs-team – Medium
    ▻https://medium.com/descarteslabs-team/descartes-labs-urban-trees-tree-canopy-mapping-3b6c85c5c9cc

    https://cdn-images-1.medium.com/max/1200/1*MZcIQRCAJX5fbn0Zw6cPlA.jpeg

    All this fuss is not without good reason. Trees are great! They make oxygen for breathing, suck up CO₂, provide shade, reduce noise pollution, and just look at them — they’re beautiful!
    8th Street in Park Slope, Brooklyn last May. Look at those beautiful trees!

    The thing is, though, that trees are pretty hard to map. The 124,795 trees in the San Francisco Urban Forest Map shown below, for example, were cataloged over a year of survey work by a team of certified arborists. The database they created is thorough, with information on tree species and size as well as environmental factors like the presence of power lines or broken pavement.

    But surveys like this are expensive to conduct, difficult to maintain, and provide an incomplete picture of the entire extent of the urban tree canopy. Both the San Francisco inventory below and the New York City TreesCount! do an impeccable job mapping the location, size and health of street trees, but exclude large chunks within the cities, like parks.

    https://cdn-images-1.medium.com/max/2560/1*6_sVAz9VWznbQ6ZFp7ElAg.jpeg

    #arbre #arbres #cartographie #machine_learning

    odilon @odilon CC BY-NC-ND
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 28/01/2019

    #Machine_Learning : détection d’anomalies
    ▻https://makina-corpus.com/blog/metier/2019/machine-learning-detection-anomalies

    Comment détecter des anomalies dans vos datasets en utilisant des algorithmes de machine learning.

    #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 21/01/2019

    Prédiction du taux de monoxyde de carbone à Madrid - intérêt d’une approche #Deep_Learning
    ▻https://makina-corpus.com/blog/metier/2019/qualite-de-lair-a-madrid

    Dans cet article nous montrons comme utiliser les bibliothèques stars de l’éco-système scientifique en Python pour analyser des données publiques sur la qualité de l’air à Madrid. Nous verrons comment identifier les problèmes liés à ces données. Puis nous comparerons deux approches en #Machine_Learning : AutoSklearn et les réseaux de neurones de type LSTM.

    #Dataviz #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
  • @simongeorges
    simongeorges @simongeorges CC BY 21/01/2019
    1
    @simplicissimus
    1

    Prédiction du taux de monoxyde de carbone à Madrid - intérêt d’une approche #Deep_Learning
    ▻https://makina-corpus.com/blog/metier/2018/qualite-de-lair-a-madrid

    Dans cet article nous montrons comme utiliser les bibliothèques stars de l’éco-système scientifique en Python pour analyser des données publiques sur la qualité de l’air à Madrid. Nous verrons comment identifier les problèmes liés à ces données. Puis nous comparerons deux approches en #Machine_Learning : AutoSklearn et les réseaux de neurones de type LSTM.

    #Dataviz #News_Item

    simongeorges @simongeorges CC BY
    Écrire un commentaire
0 | 25 | 50 | 75 | 100 | 125 | 150

Thèmes liés

  • #news_item
  • #ia
  • technology: artificial intelligence
  • #machine_learning
  • technology: machine learning
  • #python
  • #ai
  • #deep_learning
  • company: facebook
  • #visualisation
  • #cartographie
  • company: google
  • #deep_learning
  • #machine_learning
  • #scientifique
  • #gensim
  • #intelligence_artificielle
  • industryterm: neural network
  • #text-mining
  • #spip
  • #trolls
  • technology: machine learning
  • #tutorial
  • publishedmedium: machine learning
  • technology: neural network
  • #données
  • country: france
  • industryterm: social media
  • #prénoms
  • #ai
  • #intelligence_artificielle
  • programminglanguage: php
  • #son
  • #beau
  • city: san francisco
  • city: madrid
  • person: donald trump
  • industryterm: neural networks
  • #biais
  • #statistiques