Let’s Enhance – free online image upscale and enhancement with neural networks
▻https://letsenhance.io
#jpeg #superrésolution #outil lancé par des Ukrainiens
voir aussi #RAISR de google et d’autres
Let’s Enhance – free online image upscale and enhancement with neural networks
▻https://letsenhance.io
#jpeg #superrésolution #outil lancé par des Ukrainiens
voir aussi #RAISR de google et d’autres
The series, titled “Portraits of Imaginary People” explores the latent space of human faces by training a #neural_network to imagine and then depict portraits of people who don’t exist. To do so, many thousands of photographs of faces taken from Flickr are fed to a type of #machine-learning program called a Generative Adversarial Network (GAN). GANs work by using two neural networks that play an adversarial game: one (the “Generator”) tries to generate increasingly convincing output, while a second (the “Discriminator”) tries to learn to distinguish real photos from the artificially generated ones. At first, both networks are poor at their respective tasks. But as the Discriminator network starts to learn to predict fake from real, it keeps the Generator on its toes, pushing it to generate harder and more convincing examples. In order to keep up, the Generator gets better and better, and the Discriminator correspondingly has to improve its response. With time, the images generated become increasingly realistic, as both adversaries try to outwit each other. The images you see here are thus a result of the rules and internal correlations the neural networks learned from the training images.
[1703.01041] Large-Scale Evolution of Image Classifiers
▻https://arxiv.org/abs/1703.01041
Neural networks have proven effective at solving difficult problems but designing their architectures can be challenging, even for image classification problems alone. Evolutionary algorithms provide a technique to discover such networks automatically. Despite significant computational requirements, we show that evolving models that rival large, hand-designed architectures is possible today.
Deep-Learning Machine Listens to Bach, Then Writes Its Own Music in the Same Style
▻https://www.technologyreview.com/s/603137/deep-learning-machine-listens-to-bach-then-writes-its-own-music-in
▻https://www.youtube.com/watch?v=QiBM7-5hA6o
The #machine-learning technique is straightforward. Hadjeres and Pachet begin by creating a data set to train their #neural_network. They begin with 352 chorales composed by #Bach and then transpose these to other keys that lie within a predefined vocal range, to give a data set of 2,503 chorales. They use 80 percent of these to train their neural network to recognize Bach harmonies and the rest to validate it.
Ils avaient commencé par les Beatles il y a quelques mois, mais le résultat était pas terrible (ça me rappelle le pathétique « Free As a Bird ») ►https://www.youtube.com/watch?v=LSHZ_b05W7o
Google’s Multilingual Neural Machine Translation System : Enabling Zero-Shot Translation
▻https://arxiv.org/abs/1611.04558
Un aperçu du fonctionnement de #google_translate (cet article traite du système en production).
La nouveauté #recherche est qu’en mélangeant toutes les langues dans un unique modèle, les résultats sont d’une qualité équivalente tout en utilisant moins de phrases que dans les systèmes où les langues sont uniquement traitées par paires.
Mieux, un système entraîné sur des traductions EN<->PT et ES<->PT saura traduire EN<->ES avec une bonne performance, à la façon du « style transfer » vu sur les peintures.
D’où la question : le modèle ainsi entraîné reconnaît-il des « concepts fondamentaux » du langage ?
We propose a simple, elegant solution to use a single Neural Machine Translation (NMT) model to translate between multiple languages.
Researchers from Google develop AI that designs it’s own form of encryption
▻http://www.itwnet.com/news/researchers-google-develop-ai-designs-it%E2%80%99s-own-form-encryption
Researcher from the deep learning project Google Brain are working on artificial intelligence that is capable of creating it’s own form of AI-generated and human-independent encryption. The neural networks can autonomously encrypt and decrypt information.
According to a research paper Martín Abadi and David G. Andersen from Google have designed three neural networks named Alice, Bob and Eve. The researchers assigned each AI a different task. Alice had to send a encrypted message to Bob that only Bob could read. Meanwhile Eve had to figure out how to intercept and decode this message.
The experiment started with a plain-text message that Alice encrypted. Over the course of 15.000 attempts the neural network was able to design it’s own encryption strategy. Bob simultaneously figured out how to decrypt this same message. The message could not be deciphered by Eve.
The paper:
Learning to Protect Communications with Adversarial Neural Cryptography
(Martín Abadi, David G. Andersen (Google Brain))
en version grand public, ▻https://seenthis.net/messages/539668
“Daddy’s Car”, la première chanson pop composée par une intelligence artificielle
▻http://www.konbini.com/fr/tendances-2/daddys-car-ia-sony-pop
Le système FlowMachines de #Sony, une #intelligence_artificielle capable de composer des #chansons “à la manière de”, a dévoilé ses deux premières créations, dont un morceau façon Beatles.
#IA #IA #neural_network #musique
je vais réagir à ça (de façon un tantinet virulente), parce que les délires sur l’IA des grosses boites comme sony, google & co commencent à furieusement me taper sur les nerfs (je être soutier de la recherche ... domaine IA justement ... donc je me sens un petit peu autorisé à la ramener sur le sujet...)
Et donc c’est comme d’hab pour ma part : tant qu’on ne m’aura pas montré ce qu’il y a d’intelligent dans ce système, je refuse d’appeler ça une intelligence artificielle. Mais les journalistes sont crédules : si sony leur dit, ça doit être vrai. C’est pitoyable. Il y a un certain nombre de critères objectifs pour trancher sur le côté intelligent d’un système face à certaines situations. Les google, sony et cie refusent catégoriquement d’en dire quoi que ce soit. Tu m’étonnes ! La confusion savamment entretenue en ce moment entre prog_a_la_con_avec_une_couche_d_apprentissage et intelligence artificielle les sert directement. Et ils auraient tort de se priver, puisque les journalistes les suivent sans moufter et même mieux, leur servent de caisse de résonance.
Donc jusqu’à nouvel ordre, plutôt qu’appeler ça une #intelligence_artificielle, j’appellerai ça une #fumisterie_naturelle (et consubstantielle au #libéralisme , toujours du neuf coco !).
Je suis même prêt à prendre les paris sur ce qui se cache derrière ce bidule : un réseau de neurones à la con gavé avec une masse de données, euuhhh, pardon, du #deep_learning ça fait plus classe. Ah ben oui on vous a pas expliqué ce que c’était le deep learning ? Ben c’est ça. Un truc à base d’un outil créé il y a 40 piges (les réseaux de neurones), et gavé avec la quantité de données accessibles aujourd’hui (le internet est un grand pourvoyeur).
(au passage, bientôt 40 ans qu’on nous saoule avec les réseaux de neurones, et 40 ans que les spécialistes du domaines sont toujours pas foutus de nous expliquer ce qui se passe vraiment dans un réseau de neurones. Pas une propriété théorique, rien. C’est de la bidouille. J’exagère sûrement, mais à peine).
Je me faire des copains je sens, si si ... :o)
Ah, et je parlerai pas de la musique, ça sera pour une autre fois. Je retourne à mes instruments tiens.
#intelligence_artificielle #mon_cul_sur_la_commode #fumisterie #muzak #musique
Héhé, merci pour cette réponse et surtout pour le terme #réseau_de_neurones meilleur hashtag ici que #neural_network.
Pour parvenir à la mélodie entraînante de “Daddy’s Car”, explique The Verge, l’IA a d’abord ingéré 13 000 partitions de différents styles de musique – en gros, elle s’est forgé une culture musicale, comme tout le monde. Une fois éduquée, l’IA a créé ses propres partitions selon les desiderata du musicien Benoît Carré (ici, “à la manière des Beatles”), qui s’est chargé d’enregistrer les instruments pour un rendu organique.
Je veux bien retirer mes tags #AI et #IA mais j’avoue que j’aimerais en savoir plus sur ce qui caractérise une IA et en quoi un réseau de neurones qui reproduit des chansons, trie des concombres, traduit le chinois vers l’anglais, gagne au jeu de go ou reconnait des chats sur des photos n’en est pas une.
Vivement les voitures conduites par la soit disant IA, les croyants la testeront.
Bon, si le pilote automatique prend une mauvaise décision, le conducteur est censé prendre le contrôle et mettre le véhicule hors de danger.
Vue la vitesse à laquelle il faut faire cela, dans la vraie vie, . . . . . .
Intelligence est avant tout synonyme de flicage. un exemple : le terme caisse intelligente :
Caisse intelligente dans l’horeca
▻http://www.rtbf.be/info/societe/detail_caisse-intelligente-dans-l-horeca-la-flandre-en-ordre-au-contraire-de-la
▻http://www.rtbf.be/info/regions/detail_horeca-la-black-box-peine-a-s-imposer?id=9363762
Google unleashes deep learning tech on language with Neural Machine Translation | TechCrunch
▻https://techcrunch.com/2016/09/27/google-unleashes-deep-learning-tech-on-language-with-neural-machine-tran
▻https://tctechcrunch2011.files.wordpress.com/2016/02/shutterstock_181640888.png?w=764&h=400&crop=1
Translating from one language to another is hard, and creating a system that does it automatically is a major challenge, partly because there’s just so many words, phrases, and rules to deal with. Fortunately, neural networks eat big, complicated data sets for breakfast. #Google has been working on a machine learning translation technique for years, and today is its official debut.
The Google Neural Machine Translation system, deployed today for Chinese-English queries, is a step up in complexity from existing methods
La traduction d’une langue à l’autre est difficile, et la création d’un système qui le fait automatiquement est un défi majeur, en partie parce qu’il y a seulement tant de mots, des phrases et des règles à traiter. Heureusement, les réseaux de neurones mangent grands ensembles, de données complexes pour le petit déjeuner. Google travaille sur une technique de traduction d’apprentissage de la machine pendant des années, et est aujourd’hui ses débuts officiels.
Le système Google Neural Machine Translation, déployé aujourd’hui pour les requêtes chinois-anglais, est une étape dans la complexité des méthodes existantes
ça c’est la traduction actuelle, qui est déjà pas mal mais encore visiblement bugguée ; à voir quand on aura la version neurale
AI can recognise your face even if you’re pixelated
“Researchers at the University of Texas at Austin and Cornell Tech say that they’ve trained a piece of software that can undermine the privacy benefits of standard content-masking techniques like blurring and pixelation by learning to read or see what’s meant to be hidden in images—anything from a blurred house number to a pixelated human face in the background of a photo.”
▻https://www.wired.com/2016/09/machine-learning-can-identify-pixelated-faces-researchers-show/?mbid=social_fb
The researchers were able to defeat three privacy protection technologies, starting with YouTube’s proprietary blur tool. YouTube allows uploaders to select objects or figures that they want to blur, but the team used their attack to identify obfuscated faces in videos. In another example of their method, the researchers attacked pixelation (also called mosaicing). To generate different levels of pixelation, they used their own implementation of a standard mosaicing technique that the researchers say is found in Photoshop and other commons programs. And finally, they attacked a tool called Privacy Preserving Photo Sharing (P3), which encrypts identifying data in JPEG photos so humans can’t see the overall image, while leaving other data components in the clear so computers can still do things with the files like compress them.
#surveillance
#privacy
#anonymity
#AI #IA #machine_learning #neural_network
Turn your two-bit doodles into fine artworks with deep neural networks, generate seamless textures from photos...
►https://github.com/alexjc/neural-doodle #neural_networks #réseaux_neuronaux #dessin #peinture
Terrapattern
▻http://www.terrapattern.com
“similar-image search” for satellite photos. It’s an open-source tool for discovering “patterns of interest” in unlabeled satellite imagery—a prototype for exploring the unmapped, and the unmappable.
(...) Terrapattern is ideal for discovering, locating and labeling typologies that aren’t customarily indicated on maps. These might include ephemeral or temporally-contingent features (such as vehicles or construction sites), or the sorts of banal infrastructure (like fracking wells or smokestacks) that only appear on specialist blueprints, if they appear at all.
(...) the Terrapattern prototype is intended to demonstrate a workflow by which users—such as journalists, citizen scientists, humanitarian agencies, social justice activists, archaeologists, urban planners, and other researchers—can easily search for visually consistent “patterns of interest”. We are particularly keen to help people identify, characterize and track indicators which have not been detected or measured previously, and which have sociological, humanitarian, scientific, or cultural significance.
▻http://www.newyorker.com/tech/elements/meet-terrapattern-google-earths-missing-search-engine
#photographie #satellite #IA #neural_network #moteur_de_recherche #cartographie
Ici aussi ►http://seenthis.net/messages/493168 et dans tes étoiles en plus :)
DeepOSM - train a deep learning neural network with #Openstreetmap features & orbital imagery
▻https://github.com/trailbehind/DeepOSM #deep_learning #neural_network #satellite #maps #cartographie
Writing with the machine
▻https://www.robinsloan.com/notes/writing-with-the-machine
Finally got this running: snappy in-editor “autocomplete” powered by a neural net trained on old sci-fi stories.
(...)
I’d been reading about #deep_learning for a couple of years, but it wasn’t until a long conversation earlier this year with an old friend (who is eye-poppingly excited about these techniques) that I felt motivated to dig in myself. And, I have to report: it really is a remarkable community at a remarkable moment. Tracking papers on Arxiv, projects on Github, and threads on Twitter, you get the sense of a group of people nearly tripping over themselves to do the next thing — to push the state of the art forward.
That’s all buoyed by a strong (recent?) culture of clear #explanation.
#IA #écrire #neural_networks #machine_learning#science-fiction #archives
alexjc/neural-doodle
►https://github.com/alexjc/neural-doodle
Use a deep neural network to borrow the skills of real artists and turn your two-bit doodles into masterpieces! This project is an implementation of Semantic Style Transfer (Champandard, 2016), based on the Neural Patches algorithm (Li, 2016). Read more about the motivation in this in-depth article and watch this workflow video for inspiration.
chuanli11/CNNMRF: code for paper “Combining Markov Random Fields and Convolutional Neural Networks for Image Synthesis”
▻https://github.com/chuanli11/CNNMRF
#ia #generative_art #images #neural_network #machine_learning (ou pas)
Tinker With a Neural Network Right Here in Your Browser.
A #Neural_Network Playground
▻http://playground.tensorflow.org
13 frameworks for mastering Machine Learning
▻http://www.infoworld.com/article/3026262/data-science/13-frameworks-for-mastering-machine-learning.html
Apache Spark MLlib, Apache Singa, Caffe, Microsoft Azure ML Studio, Microsoft Distributed Machine Learning Toolkit, , Microsoft Computational Network Toolkit, Amazon Machine Learning, Google TensorFlow, Veles, Brainstorm, mlpack 2, Marvin.
Watch This Open Source AI Learn to Dominate Super Mario World in Just 24 Hours - Singularity HUB
▻http://singularityhub.com/2015/06/18/watch-this-open-source-ai-learn-to-dominate-super-mario-world-in-jus
▻https://www.youtube.com/watch?v=qv6UVOQ0F44
In a new YouTube video, Seth Bling explains the magic behind software he developed to learn how to play Nintendo’s Super Mario World.
“This program started out knowing absolutely nothing about Super Mario World or Super Nintendos,” Bling says. “In fact, it didn’t even know that pressing ’right’ on the controller would make the player go towards the end of the level.”
le code:
▻http://pastebin.com/ZZmSNaHX
#machine_learning #algorithmes_génétiques #neural_networks #jeux_vidéo
Impressionnant ouè, je l’avais vu passer sur la boite verte en début de semaine ▻http://www.laboiteverte.fr/comment-un-programme-apprend-tout-seul-a-jouer-a-mario
Un peu lié : Les œuvres du réseau de neurones de Google
▻http://www.laboiteverte.fr/les-oeuvres-du-reseau-de-neurones-de-google
Using #Waifu2x to Upscale Japanese Prints
▻http://ejohn.org/blog/using-waifu2x-to-upscale-japanese-prints
One tool that I came across yesterday is called Waifu2x. It’s a convolutional neural network (CNN) that is designed to optimally “upscale” images (taking small images and generating a larger image). The creator of this tool built it to better upscale poorly-sized Anime images and video. This
#neural_networks #images #outil
à noter @baroug : comme ce programme commence par subir un #apprentissage sur un certain type d’#images, ça marche mieux avec ces images-là (en l’occurrence des images avec des aplats) qu’avec des photos texturées.
C’est marrant, je bidouille un peu avec des bibliothèques de reconnaissance d’images et l’API flickr en ce moment : j’ai l’impression que les « classifieurs » (grosso modo, un réseau de neurone déjà instruit) livrés tout fait dans pas mal de bibliothèques / outils sont entrainés majoritairement sur des visages mâles portant des habits sombres.
Synaptic - The javascript neural network library
▻http://synaptic.juancazala.com/#/self-organizing-map
In this demo, a hopfield network will be fed with patterns (words) and the outputs will be used as a key to store the patterns in a map. The patterns that the network finds similiar will be recognized and grouped under the same key.
Deep Visual-Semantic Alignments for Generating Image Descriptions
Stanford University researchers are using/training improved neural networks to generate descriptions of images. Recognition of objects is nothing new, but those algorithms struggle with descriptions of scenes, and that’s precisely where progress has been made here.
Abstract
We present a model that generates free-form natural language descriptions of image regions*. Our model leverages datasets of images and their sentence descriptions to learn about the inter-modal correspondences between text and visual data. Our approach is based on a novel combination of Convolutional Neural Networks over image regions, bidirectional Recurrent Neural Networks over sentences, and a structured objective that aligns the two modalities through a multimodal embedding. We then describe a Recurrent Neural Network architecture that uses the inferred alignments to learn to generate novel descriptions of image regions. We demonstrate the effectiveness of our alignment model with ranking experiments on Flickr8K, Flickr30K and COCO datasets, where we substantially improve on the state of the art. We then show that the sentences created by our generative model outperform retrieval baselines on the three aforementioned datasets and a new dataset of region-level annotations.
Google scientist Jeff Dean on how #neural_networks are improving everything #Google does - Puget Sound Business Journal
▻http://www.bizjournals.com/seattle/blog/techflash/2013/08/google-scientist-jeff-dean-on-how.html?page=all