Font Map · An AI Experiment by IDEO
▻http://fontmap.ideo.com
Font Map, a quick experiment to see how machine learning can address challenges in design.
Font Map · An AI Experiment by IDEO
▻http://fontmap.ideo.com
Font Map, a quick experiment to see how machine learning can address challenges in design.
Machine Learning & Big Data : des dangers pour les logiciels libres ?, par Vincent Jousse
▻http://vincent.jousse.org/blog/les-dangers-du-big-data-pour-les-logiciels-libres
le nerf de la guerre, c’est maintenant les données. C’est très vrai pour les entreprises, ça l’est encore plus pour le monde du #logiciel_libre. Les entreprises peuvent mettre les moyens, le monde du logiciel libre beaucoup moins. (…)
Peut-être pourrions-nous créer ce que Framasoft est pour le #logiciel, mais pour les #données : une association/organisation qui s’assure que le monde du libre propose une alternative aux géants qui ont l’argent pour avoir des données à ne plus savoir qu’en faire. Aller plus loin que ce qui se fait sur l’#OpenData en France actuellement en créant de la donnée à destination des systèmes d’#apprentissage_automatique.
je ne suis pas certain de comprendre son billet, qui mélange plein de choses...
i) sur les logiciels, justement, presque tout est en libre... les libraires python (ou R) sont majoritairement libres
autant auparavant les logiciels commerciaux étaient très présents, autant aujourd’hui, ils semblent avoir disparus
ii) sur les données, ce qui est évoqué, c’est la propriété des données, qui reste un vrai problème, mais assez différent de celui du code ouvert des logiciels
Il dit qu’il y a un nombre croissant de logiciels qui ont impérativement besoin de milliers de gigas de données (non libres) pour fonctionner. Et que du coup, leur code source a beau être libre/ouvert, ça ne sert à rien du tout, et le logiciel final qui en résulte n’est PAS libre car il est impossible de le faire fonctionner sans ses immenses données qui ne sont pas libres.
Oui, l’idée c’est surtout au niveau des luttes à mener : la bataille du logiciel libre peut être considérée considérée comme gagnée aujourd’hui, mais ont surgi entre temps d’autres champs de bataille : les services sur le web qui t’espionnent et récupèrent toutes tes données, le micro-travail non rémunéré, la propriété des grandes bases de données.
C’est ce que traitent assez souvent Casilli, Ertzscheid, Morozov...
A Neural Parametric Singing Synthesizer
▻http://www.dtic.upf.edu/~mblaauw/IS2017_NPSS
Musique :
▻http://www.dtic.upf.edu/~mblaauw/IS2017_NPSS/files/f2_npss_power_ultimo_bgm_fx.mp3
le fichier ci-dessous ne contient que la voix de synthèse (on entend quelques blips):
▻http://www.dtic.upf.edu/~mblaauw/IS2017_NPSS/files/f2_npss_multi_ultimo_dry.mp3
le papier des chercheurs de l’uni Pompeu Fabra (Barcelone): ▻https://arxiv.org/pdf/1704.03809.pdf
#machine_learning #robot #synthèse_vocale #chant @intempestive
un autre, avec une démo assez probante (encore détectable au casque quand même)
▻https://singularityhub.com/2017/05/24/new-ai-mimics-any-voice-in-a-matter-of-minutes
Un autre outil du même acabit, mais cette fois on s’approche de l’indétectable (?)
▻https://ytaigman.github.io/loop/site
Audio samples from “Tacotron: A Fully End-to-End Text-To-Speech Synthesis Model”
▻https://google.github.io/tacotron
“The quick brown fox jumps over the lazy dog.”
▻https://google.github.io/tacotron/demos/fox_period.wav
“Does the quick brown fox jump over the lazy dog?”
▻https://google.github.io/tacotron/demos/fox_question.wav
Dissecting Trump’s Most Rabid Online Following, by Trevor Martin | FiveThirtyEight
▻https://fivethirtyeight.com/features/dissecting-trumps-most-rabid-online-following
▻https://espnfivethirtyeight.files.wordpress.com/2017/03/thedonaldtrumpsubredditalgebra-16x9.jpg?w=2667
Comparing subreddits, with Latent Semantic Analysis in R
▻http://blog.revolutionanalytics.com/2017/03/comparing-subreddits.html
The article looks at various popular and notorious subreddits and finds those that are most similar to the main subreddit devoted to Donald Trump and also to the main other contenders in the 2016 campaign for president, Hillary Clinton and Bernie Sanders.
#machine_learning #LSA #gensim #R #howto #trolls #reddit #text-mining
Adobe Is Building An AI To Automate Web Design. Should You Worry? | Co.Design | business + design
▻https://www.fastcodesign.com/3068884/adobe-is-building-an-ai-to-automate-web-design-should-you-worry
#Adobe, one of the world’s largest and most powerful software companies, is trying something new: It’s applying #machine_learning and image recognition to graphic and #web_design. In an unnamed project, the company has created tools that automate designers’ tasks, like cropping photos and designing web pages. Should designers be worried?
AudioSet
▻https://research.google.com/audioset
AudioSet consists of an expanding ontology of 632 audio event classes and a collection of 2,084,320 human-labeled 10-second sound clips drawn from YouTube videos. The ontology is specified as a hierarchical graph of event categories, covering a wide range of human and animal sounds, musical instruments and genres, and common everyday environmental sounds.
By releasing AudioSet, we hope to provide a common, realistic-scale evaluation task for audio event detection, as well as a starting point for a comprehensive vocabulary of sound events.
#sons #dataset #vocabulaire pour le #machine_learning mais aussi pourquoi pas pour la #radio
ping @intempestive @supergeante @thibnton @lucile
(via @archiloque )
Des intelligences artificielles au milieu des conversations numériques
Facebook algorithms ’will identify terrorists’
►http://www.bbc.com/news/technology-38992657
Facebook founder Mark Zuckerberg has outlined a plan to let artificial intelligence (AI) software review content posted on the social network.
In a letter describing the plan, he said algorithms would eventually be able to spot terrorism, violence, bullying and even prevent suicide.
He admitted Facebook had previously made mistakes in the content it had removed from the website.
But he said it would take years for the necessary algorithms to be developed.
The announcement has been welcomed by an internet safety charity, which had previously been critical of the way the social network had handled posts depicting extreme violence.
Errors
In his 5,500-word letter discussing the future of Facebook, Mr Zuckerberg said it was impossible to review the billions of posts and messages that appeared on the platform every day.
“The complexity of the issues we’ve seen has outstripped our existing processes for governing the community,” he said.
He highlighted the removal of videos related to the Black Lives Matter movement and the historical napalm girl photograph from Vietnam as “errors” in the existing process.
Facebook was also criticised in 2014, following reports that one of the killers of Fusilier Lee Rigby spoke online about murdering a soldier, months before the attack.
"We are researching systems that can read text and look at photos and videos to understand if anything dangerous may be happening.
“This is still very early in development, but we have started to have it look at some content, and it already generates about one third of all reports to the team that reviews content.”
“Right now, we’re starting to explore ways to use AI to tell the difference between news stories about terrorism and actual terrorist propaganda.”
Mr Zuckerberg said his ultimate aim was to allow people to post largely whatever they liked, within the law, with algorithms detecting what had been uploaded.
Users would then be able to filter their news feed to remove the types of post they did not want to see.
“Where is your line on nudity? On violence? On graphic content? On profanity? What you decide will be your personal settings,” he explained.
"For those who don’t make a decision, the default will be whatever the majority of people in your region selected, like a referendum.
"It’s worth noting that major advances in AI are required to understand text, photos and videos to judge whether they contain hate speech, graphic violence, sexually explicit content, and more.
“At our current pace of research, we hope to begin handling some of these cases in 2017, but others will not be possible for many years.”
The plan was welcomed by the Family Online Safety Institute, a member of Facebook’s own safety advisory board. The charity had previously criticised the social network for allowing beheading videos to be seen without any warning on its site.
“This letter further demonstrates that Facebook has been responsive to concerns and is working hard to prevent and respond to abuse and inappropriate material on the platform,” said Jennifer Hanley, Fosi’s vice president of legal and policy.
“I also really like the ability for users to customise their own experiences with these developments. It’s important to give users power over their online experiences, and additional tools and controls will be helpful.”
Read Kamal Ahmed’s interview with Mark Zuckerberg
« On y arrive : les algos justiciers », commente @arouvroy.
Et puis aussi #Jigsaw :
#Modération des #commentaires : Google propose un coup de pouce de l’intelligence artificielle
▻http://www.lemonde.fr/pixels/article/2017/02/23/moderation-des-commentaires-google-propose-un-coup-de-pouce-de-l-intelligenc
Les messages agressifs et haineux pullulent en ligne, et polluent, entre autres, les fils de commentaires de nombreux sites. Jigsaw, une organisation appartenant à Google et dont le but affiché est de « rendre le monde plus sûr grâce aux technologies », devait annoncer jeudi 23 février la mise à disposition de tous en open source d’une technologie censée aider à assainir les fils de discussion.
Perspective, c’est son nom, a été testée plusieurs mois sur le site du New York Times. Il s’agit d’une technologie d’intelligence artificielle, ou plus précisément de #machine_learning (apprentissage des machines), capable d’évaluer, sur une note de 1 à 100, le degré de « toxicité » d’un commentaire. Pour y parvenir, elle a analysé des millions de commentaires du New York Times – mais aussi de Wikipédia – et scruté la façon dont ils étaient traités par l’équipe de modération du site. Le programme a ainsi appris à repérer les commentaires problématiques, en se basant sur l’expérience des humains qui l’ont précédé à cette tâche.
Cet outil permet donc d’évaluer un commentaire bien plus rapidement qu’un humain – et pour un coût bien moindre. Mais n’a pas pour autant vocation à remplacer les modérateurs. Et pour cause : « Cette technologie est loin d’être parfaite », reconnaît volontiers Jared Cohen, le fondateur de Jigsaw, soulignant qu’il ne s’agit que « des premiers pas » de ce programme : « Plus l’outil sera utilisé, plus il s’améliorera. »
Les sites peuvent d’ailleurs l’utiliser comme bon leur semble : ils peuvent par exemple faire en sorte que les commentaires repérés comme étant les plus problématiques soient envoyés en priorité aux modérateurs humains. Ils peuvent aussi donner la possibilité aux internautes de classer les commentaires en fonction de leur degré de « toxicité ». Ou pourquoi pas, propose Jigsaw, afficher un message au commentateur lui-même, au moment où il s’apprête à publier un message détecté comme violent ? Avec cette dernière méthode, « il est possible de réduire ce genre de discours de façon impressionnante », assure Jared Cohen, en référence à une expérimentation du même type menée par Riot Games, l’éditeur du jeu vidéo très populaire « League of Legends ».
Jigsaw espère ainsi permettre à ces sites « d’héberger des conversations de meilleure qualité », explique Jared Cohen, mais aussi de créer un environnement plus sain pour faire revenir les personnes n’osant plus participer aux discussions. Outre le New York Times, plusieurs médias comme le Guardian ou The Economist se sont montrés intéressés. Pour l’instant, la technologie fonctionne en anglais, mais sera bientôt accessible dans d’autres langues.
Et puis donc #silicon_army #terrorisme #surveillance #répression
Smerity.com : Stop saying DeepCoder steals code from StackOverflow
▻http://smerity.com/articles/2017/deepcoder_and_ai_hype.html
DeepCoder is an excellent example of the slow decay from an originally well researched story to meandering. While the DeepCoder paper is interesting and worthy of merit, the research became a caricature of itself as it was replicated throughout the media.
Inside an AI ’brain’ - What does machine learning look like ?
▻https://www.graphcore.ai/blog/what-does-machine-learning-look-like
Our Poplar graph compiler has converted a description of the network into a computational graph of 18.7 million vertices and 115.8 million edges. This graph represents AlexNet as a highly-parallel execution plan for the IPU. The vertices of the graph represent computation processes and the edges represent communication between processes. The layers in the graph are labelled with the corresponding layers from the high level description of the network. The clearly visible clustering is the result of intensive communication between processes in each layer of the network, with lighter communication between layers.
#IA #machine_learning #visualisation et sans doute un peu #cerveau via @micahstubbs
Trump, nouveau visage de la Singularité ?
▻http://www.internetactu.net/a-lire-ailleurs/trump-nouveau-visage-de-la-singularite
Et si la Singularité Technologique, cet hypothétique remplacement de l’être humain par une Intelligence Artificielle, prenait le visage de Donald Trump ? C’est ce que se demande Cathy O’Neil (@mathbabedotorg), l’auteure du fameux Weapons of maths destruction (voir nos articles), dans un article pour son nouveau blog sur Bloomberg justement intitulé (...)
#A_lire_ailleurs #Enjeux #Futurs #IA #machine_learning #politique
Peut-on améliorer les critères des crédits ?
▻http://www.internetactu.net/a-lire-ailleurs/peut-on-ameliorer-les-criteres-des-credits
Les systèmes qui attribuent un score de crédit reposent souvent et avant tout sur l’historique de leurs clients. Or, comme le soulignait Frank Pasquale dans son livre Black Box Society, ceux-ci sont surtout opaques aux utilisateurs. L’analyse de grande quantité de données pourrait permettre peut-être d’améliorer l’évaluation du risque client (...)
#A_lire_ailleurs #Enjeux #algorithme #algorithmes #Confiance_et_sécurité #machine_learning #nossystemes
Who will have the AI edge? | Bulletin of the Atomic Scientists
▻http://thebulletin.org/who-will-have-ai-edge10497
[Mary] Cummings argues that companies like Google and Facebook could outpace militaries when it comes to the science of artificial intelligence, which in turn could lead to potentially dangerous technologies going into use before they have been properly tested.
Intéressant.
Là ou Cummings laisse sous-entendre que les militaires sont plus rigoureux dans les tests avant de lancer quelque chose :
It’s unclear where all this this will lead, but Cummings worries about two outcomes in particular—governments coming to rely on private industry for their AI know-how and autonomous systems going into the field without the safeguards and testing that national militaries usually insist upon.
...Eric Schmidt dit un peu l’opposé, à savoir que la recherche en IA devrait se faire plutôt par les Google et Facebook que les militaires :
Eric Schmidt : AI research needs to be done in the open, not in military labs
▻http://www.zdnet.com/article/eric-schmidt-ai-research-needs-to-be-done-in-the-open-not-in-military-labs
The industry should be thinking of ways to convince governments to agree to not militarize the internet with machine learning technologies
Handful of “highly toxic” Wikipedia editors cause 9% of abuse on the site, by Annalee Newitz | Ars Technica
▻https://arstechnica.com/information-technology/2017/02/one-third-of-personal-attacks-on-wikipedia-come-from-active-editors
“Perhaps surprisingly, approximately 30% of attacks come from registered users with over a 100 contributions.” In other words, a third of all personal attacks come from regular Wikipedia editors who contribute several edits per month. Personal attacks seem to be baked into Wikipedia culture.
The researchers also found that a large percentage of attacks come from a very small number of “highly toxic” Wikipedia contributors. Eighty percent of personal attacks on Wikipedia come from people who rarely make personal attacks. But a whopping 9% of attacks in 2015 came from 34 users who had made 20 or more personal attacks during the year. “Significant progress could be made by moderating a relatively small number of frequent attackers,” the researchers note. This finding bolsters the idea that problems in online communities often come from a small minority of highly vocal users.
les #trolls #agressions_verbale #wikipédia détectés par du #machine_learning
What to do when you have bad realtime train position data from the railways company ? Plant cameras along the tracks and use image recognition to discriminate trains and refine arrival predictions: ▻http://svds.com/tensorflow-image-recognition-raspberry-pi
And what did they use for training data ? Trains, of course.
Twitter says it’s going to start pushing more abusive tweets out of sight - Recode
▻http://www.recode.net/2017/2/7/14528084/twitter-abuse-safety-features-update
Twitter will start hiding inappropriate responses to tweets so they don’t appear in user conversations. Tweets containing words, phrases or images deemed inappropriate by the company will be hidden from conversation threads, and users will need to click a new “show less relevant replies” button in order to see them. Twitter will use machine learning technology (a.k.a. algorithms) to automatically hide certain responses. You can’t opt out of this feature, according to a company spokesperson.
#machine_learning et #IA vont combattre et #censurer les #trolls ? Pas sûr que ça marche comme prévu…
Ça commence sur Twitter et ça finit IRL ce genre de choses...
Les bots Twitter qui déboulent chez les gens avec des drones pour les empêcher de troller, ça pourrait avoir une certaine allure.
#terminator :-D
Unlearning descriptive statistics, by Stijn Debrouwere
▻http://debrouwere.org/2017/02/01/unlearning-descriptive-statistics
conseils pour faire des #statistiques parlantes :
– d’abord, regarder la distribution, s’il y a plusieurs modes, les traiter séparément (plutôt que dire qu’un participant-moyen est à 50% un homme et à 50% une femme, dire qu’il y a environ autant d’hommes que de femmes)
– plutôt que la moyenne, préférer la médiane, plus représentative de quelque chose qui existe vraiment (le fameux taux de naissance à 2,1 enfant par femme)
– plutôt que l’écart-type, préférer la médiane de l’écart à la médiane (la moitié des gens font plus de 1m70, et la moitié des gens sont à plus de 5cm de cette valeur), l’exemple est plus compliqué car c’est justement un cas où on devrait distinguer deux modes (H et F) assez distincts
– plutôt que « plus loin que 3 écarts-types, » on définira les outliers comme les éléments dont la disparition provoquent un changement majeur dans les éléments ci-dessus
– plutôt que chercher des coefficients de corrélation, montrer graphiquement des distributions : histogrammes et nuages de points
l’argument, si j’ai bien compris, est que les outils habituels sont plus utiles pour faire de l’inférence (des modèles prédictifs) que de la description
je pense que ça intéressera entre autres @simplicissimus @reka @freakonometrics
[EDIT : ma « traduction » à la va-vite introduit certainement des erreurs, je vous laisse vérifier sur l’original et me corriger le cas échéant]
en lien avec le #machine_learning
Un exemple qui me vient en lisant ces conseils : les salaires, le salaire moyen et le salaire médian. Le second correspond sans doute mieux à ce que l’on croise autour de soit, alors que le « moyen » masque à la fois la sur-représentation des bas salaires, et les montants astronomiques des très hauts salaires.
Selon une étude de l’Insee, le salaire net mensuel médian s’élevait à 1.730 euros en 2012. Quant au salaire net moyen, il atteignait 2.154 euros, en baisse de 0,4% en euros constants par rapport à 2011.
▻http://www.latribune.fr/actualites/economie/france/20141216tribe5a5aab3c/le-salaire-net-median-mensuel-s-eleve-a-1-730-euros.html
C’est marrant, je ne sais pas si c’est unlearning, mais ça ressemble pas mal à la façon dont je les enseigne :-D
(mais je ne fais que de la formation d’adultes, en formation initiale, c’est très compliqué de demander aux apprenants à « voir » quelque chose dans les données ; le dressage scolaire aboutit très vite à un questionnement « spontané » des élèves sous la forme « qu’est-ce que je dois calculer » (sous-entendu, pour avoir une bonne note à l’examen) et donc très peu réceptif à l’exploration visuelle et à l’interrogation méthodique)
(ps : je n’ai pas lu (mais je lirai) j’ai un peu la tête dans le guidon)
Ça affolait mes élèves quand je leur donnais des données brutes et leur demandais ce qu’on pouvait en déduire
je trouve ça quand même un peu simpliste, voire faux....
déjà les stats sans formalisme, j’ai du mal
cette histoire moyenne / médiane par exemple.... c’est mignon, mais si on a un mélange de deux lois, avec des proportions égales, genre une normale N(-2,1) et une normale N(2,1), la médiane et la moyenne sont identiques, et sans vrai sens... l’affirmation « The median, on the other hand, can be interpreted as a typical sort of value » ne veut pas dire grand chose....
si on regarde ensuite du bernoulli {0,1}, la médiane ne veut rien dire du tout, alors que la moyenne a l’avantage de devenir une proba....
pareil ensuite, présenter la dispersion avec l’écart-type c’est absurde, surtout sans le formalisme des moments ! il faudrait arrêter d’utiliser la variance si on ne formalise pas ! un écart interquantile a plus de sens je pense !
bref, je pourrais continuer des heures...
le dernier truc, au delà des maths, c’est que faire un article de stats (descriptif) sans un dessin !?! non, j’ai du mal !
je ne parle pas de la corrélation, impossible à définir avec des mots.... étrangement, avec des mots, j’ai réussi à définir un truc qui ressemble plus à du Kendall.... genre la proba, quand on tire un vecteur Gaussien corrélé, centré réduit, que le signe des deux composantes soit identique... dans le cas Gaussien, c’est proba est liée directement au tau de kendal (et donc à un arcsinus près à la corrélation)
DeepVGI – Deep Learning Volunteered Geographic Information - Combining OpenStreetMap, MapSwipe and Remote Sensing
DeepVGI can achieve high building detection performance for humanitarian mapping in rural African areas.
Introduction au machine learning
▻https://www.miximum.fr/blog/introduction-au-machine-learning
« en quoi consiste le machine learning ? Y a-t-il une différence avec le deep learning ? Quel est donc tout ce binz ? »
fast.ai
▻http://www.fast.ai/about
fast.ai is dedicated to making the power of #deep_learning accessible to all. We are convinced that deep learning will be a transformative technology that will dramatically improve medicine, education, agriculture, transport and many other fields, with the greatest impact in the developing world. But for this to happen, the technology needs to be much easier to use, more reliable, and more intuitive than it is today.
With its Here One earbuds, Doppler Labs wants to put two extra brains in your ears — Quartz
▻https://qz.com/870552/doppler-labs-wants-to-put-two-extra-brains-in-your-ears
▻https://qzprod.files.wordpress.com/2016/12/8_female_hero.jpg?quality=80&strip=all&w=1600
Cisneros starts to speak to me in Spanish. About half a second after she begins talking, I hear a translation in English.
It’s difficult to describe hearing someone speak in another language, and immediately understanding what they’ve said. It feels like being kicked in the chest by the future.
(...) The Amazon Echo has proven audio’s power to be the medium through which we interact with our devices, but people still underestimate the power of putting computers in your ears. Smarter hearing could automatically make a conversation in a loud bar more understandable, a commute quieter, or, eventually, a real-time dialogue across languages entirely possible.
#son #traduction #machine_learning pour @intempestive
What does Wikipedia think of your gender ? – Athena Talks – Medium
▻https://medium.com/athena-talks/what-does-wikipedia-think-of-your-gender-384ce33a870c
Do names have a gender? Is that gender a binary? Do you think that John is a masculine name and Nell is a feminine one? What about the androgynous Pat? The numerical evidence suggests that gender in fact is continuous and, given the proper caveats, we can quantify the “genderness” of a name.
How statistics lost their power – and why we should fear what comes next
The ability of statistics to accurately represent the world is declining. In its wake, a new age of big data controlled by private companies is taking over – and putting democracy in peril
►https://www.theguardian.com/politics/2017/jan/19/crisis-of-statistics-big-data-democracy
In theory, statistics should help settle arguments. They ought to provide stable reference points that everyone – no matter what their politics – can agree on. Yet in recent years, divergent levels of trust in statistics has become one of the key schisms that have opened up in western liberal democracies. Shortly before the November presidential election, a study in the US discovered that 68% of Trump supporters distrusted the economic data published by the federal government. In the UK, a research project by Cambridge University and YouGov looking at conspiracy theories discovered that 55% of the population believes that the government “is hiding the truth about the number of immigrants living here”.
Rather than diffusing controversy and polarisation, it seems as if statistics are actually stoking them. Antipathy to statistics has become one of the hallmarks of the populist right, with statisticians and economists chief among the various “experts” that were ostensibly rejected by voters in 2016. Not only are statistics viewed by many as untrustworthy, there appears to be something almost insulting or arrogant about them. Reducing social and economic issues to numerical aggregates and averages seems to violate some people’s sense of political decency.
New Gensim feature : Author-topic modeling. LDA with metadata. | RaRe Technologies
▻https://rare-technologies.com/new-gensim-feature-author-topic-modeling-lda-with-metadata
une nouvelle extension pour #gensim qui pourrait être très utile pour des corpus du genre #SPIP : une fois les topics modélisés à partir du #LDA, on sait les associer non seulement aux articles, mais aussi aux tags (mots-clés, auteurs), ce qui permet de savoir quels sont les auteurs proches, les thématiques similaires, etc.
avec aussi du #tSNE pour la #visualisation
Douwe Osinga’s Blog : Building Spotify’s Song Radio in 100 lines of Python
▻http://blog.douweosinga.com/2017/01/building-spotifys-song-radio-in-100.html
the Python library GenSim contains a great implementation of Word2Vec. So if we feed this playlists containing song ids, rather than sentences containing words, it will after a while learn relationships between songs. Suggesting a playlist based on a song becomes than again a straightforward nearest neighbor search.
joli exemple de #machine_learning avec #gensim et quelques lignes de code
#musique #playlists