You’d Never Know AI Drew This Beautiful Comic Series

/979548

  • Ça fait une petite semaine que je joue avec Stable Diffusion (avec DiffusionBee sur Mac). Quelques idées :

    – il faut vraiment se rendre compte à quel point ça commence déjà à être exploitable dans un cadre professionnel ; je ne suis pas certain que ça puisse déjà remplacer un·e illustrateur·ice dans les situations où, réellement, on paie un·e illustrateur·ice (réaliser la production finale) ; mais pour tous ces moments du boulot où de toute façon on « bidouillait » pour faire des scénarios, des proof of concept, sans passer par un·e pro du dessin (perso je faisais parfois moi-même des petits croquis aquarellés, juste pour donner une idée au client ; cette semaine j’ai monté quelques images réalisées avec Stable Diffusion, ça m’a pris dix fois moins de temps et ça rend vachement mieux)… ;

    – les progrès sont juste fulgurants ; ça faisait très longtemps que je n’avais pas été confronté à une évolution technologique tellement rapide qu’elle semble « magique » (je parle de ces moments, très rares, où je vois réellement quelque chose se produire sur mon ordinateur, que je n’imaginais même pas techniquement possible avant).

    – ce que je veux dire ici, c’est que les productions AI sont déjà souvent exploitables dans les situations où, de toute façon, il n’y avait pas réellement un marché professionnel pour ces productions. Mais qu’à la vitesse où ça va, très bientôt ce sera largement exploitable pour un produit final, en concurrence directe avec la production qui, normalement, demande un travail spécifiquement rémunéré.

    – les illustrateur·ices vont prendre très cher, et très vite : il faut vraiment envisager tout de suite la reconversion, parce que c’est pas en dessinant des personnages et des scénettes qu’il va encore y avoir moyen de vivre : même les gens avec une identité graphique identifiée, je pense que ça va être difficile. Pour les autres (pour qui c’est déjà pas facile), je crains que là c’est mort. Après quelques heures avec Stable Diffusion, j’ai déjà produit en quelques minutes une dizaine de personnages illustrés totalement crédibles et parfaitement utilisables pour un jeu en ligne, par exemple : alors certes de mon côté je n’en ai pas l’utilité (pour l’instant), mais ça veut dire que ça c’est quasiment plus un marché pour les vrais gens qui font des vrais dessins. À quel moment l’édition jeunesse va basculer ? Ben à mon avis ça va arriver très très vite, sans doute en commençant par l’entrée de gamme (mais la disparition du « tout venant » finit par assécher la possibilité de survie du qualitatif).

    – je lis que non, c’est pas la disparition du métier, c’est juste une évolution : il faudra travailler autrement, car maîtriser ces outils avec goût et savoir-faire restera un métier. Certainement, mais ce métier existe déjà, il est déjà largement saturé, c’est le métier de graphiste (les graphistes ne sont pas des illustrateur·ices, il·elles ne dessinent pas), qui désormais pourra se passer des illustrateur·ices et largement réaliser le poduit final en dictant ses ordres à une AI plutôt qu’en payant quelqu’un.

    – c’est pas la peine d’en faire une question morale (« ah oui mais il suffit de refuser ») : c’est un marché déjà difficile, les gens y sont largement des prestataires indépendants, ça va être terrible, on a une technologie qui progresse à une vitesse sidérante, et qui va percuter de plein fouet un milieu de travailleurs indépendants déjà souvent en limite de paupérisation ;

    – ne pas compter sur le droit pour protéger le métier traditionnel. Je vois bien qu’il y a des histoires de propriété intellectuelle en ce moment, ça joue sur les illustrateur·ices déjà établis dont on utilise la production pour entraîner les modèles, mais c’est temporaire, à mon avis ça va se résoudre rapidement, et il n’y aura aucun moyen de poursuivre des productions par AI sur la base du plagiat (il est très difficile de poursuivre quelqu’un qui produit dans « le même style que » s’il n’y a pas plagiat direct). Et comme c’est un milieu de petits producteurs indépendants, il n’y aura même pas d’outils de financements « socialisés » façon racket des ayants-droits de la musique.

    • Oui, c’est pour ça que je parle d’abord de l’« entrée de gamme », le « tout venant ». Mais ces « boulots alimentaires » sont ceux qui font (sur)vivre l’immense majorité des professionnels dans l’illustration.

      Et même les gens reconnus, je ne suis pas certain qu’ils y seraient parvenus sans passer par ces boulots alimentaires avant de devenir des noms, ni même s’ils n’ont pas encore besoin des boulots alimentaires en plus de la création plus créative… Si tu assèches le « tout venant », l’alimentaire, je crains même que ça devienne compliqué de faire émerger des noms reconnus, parce qu’il n’y aura plus vraiment moyen d’« entrer » dans la profession.

      Et pour préciser : je ne vois pas le problème arriver « dans quelques années ». Je le vois arriver maintenant. D’ici un an, les « boulots alimentaires » des illustrateurs, je pense que ça va déjà être compliqué. (En plus je suis déjà pessimiste en jouant avec Stable Diffusion : les progrès d’une version à l’autre de Midjourney sont encore plus invraisemblables.)

    • Alors pour qu’on se comprenne bien, « tout venant » et « entrée de gamme », je parle tout de même pas de « persos à la con » non plus : je parle d’un type de maison d’édition, qui ne tiendrait pas particulièrement à continuer à travailler avec des êtres humains (par conviction, pour son modèle économique, pour son image…) ; mais la qualité des images produites est déjà difficilement qualifiable de « tout venant ». Quelques images Midjourney trouvées sur Prompthero par exemple :
      https://prompthero.com/midjourney-prompts

      Je veux dire : si ta pratique professionnelle reposes sur le fait que tu parviens à produire quelque chose de ce niveau en peinture numérique, voilà : il y a déjà une IA qui produit ça en quelques secondes.

    • Oui mais pour moi ça c’est des « persos à la con », je veux dire par là que une personne qui saurait faire ça à la main, bah oui ya une qualité de réalisation, mais il n’y a à peu près aucune originalité, aucune création, c’est le type de choses qu’on voit depuis 40 ans dans les jeux de rôles etc puis dans des millions de posts de deviantart ya 15 ans. Donc bah oui ya clairement des éditeurs, des domaines qui n’utilisent que ce genre d’illustrations (les jeux de société aussi tiens) et qui peuvent/vont se « contenter » de ça.

    • Parce que ces modèles sont largement entraînés sur les bibliothèques en ligne à la DeviantArt (je suspecte que les « problèmes légaux » évoqués avec la version 2.0 de Stable Diffusion viennent de là), et parce que les gens qui postent sur ces sites d’AI pensent que c’est ça qui plaît (puisque c’est ce qui leur plaît).

      Mais franchement, faire le pari de l’originalité et de l’intention, alors que cela reste des outils eux-mêmes manipulés par des humains, je n’y crois pas. On aura des êtres humains qui vont se mettre à produire des images originales avec ces outils. Mais ce n’est plus des « illustrateurs », ça me semble plus proche du métier de graphiste (avoir des idées, du goût, une culture visuelle, justement une originalité, mais sans forcément savoir dessiner/illustrer).

      Et encore une fois, si tu retires le tout-venant, les boulots alimentaires et les illustrations pas-super-originales, ça devient très difficile d’en vivre pour la plupart des gens dont c’est actuellement le métier. Si tu regardes les images qui t’entourent, dans les journaux, dans le journal de la mairie, les bouquins scolaires, la « communication visuelle » (d’entreprise, publique, humanitaire…), etc., c’est pas super-glorieux (ni honteux, hein), mais surtout c’est énormément de travail en permanence qui fait vivre énormément de monde, dans chaque coin du pays, et franchement, l’essentiel est faisable avec une AI en quelques lignes de texte. Je pense que ça va devenir très difficile pour tous ces types de boulots.

    • Les traducteurs et traductrices ont-elles souffert avec DeepL ? Question honnête car je n’ai pas idée de la réponse.

    • @fil un client m’a dit qu’à priori il prévoyait de traduire en anglais ses articles (qui peuvent être longs) avec deepl à recoller dans des vrais articles SPIP ensuite, car c’était largement exploitable, donc sans traduire lui-même ou par des gens payés pour ça… du coup je suppose que oui une partie des traductions passent par là maintenant… (mais un peu comme pour les illustrations on parle là de trucs « rapidos »)

    • Il y a une caractéristique différente avec les illustrations par AI : il n’est pas nécessaire de savoir faire le job (illustrer) pour juger de la qualité. Je peux sortir 10 illustrations en quelques poignées de secondes, choisir celle qui va bien, celle qui n’a pas trois bras, etc., et je peux juger que c’est exploitable. Je suis en situation de juger de la qualité du résultat.

      Avec une traduction automatique, je suis à poil : je lance la traduction et je n’ai pas de moyen de vérifier que c’est correct. Donc le seul moyen de garantir la qualité du résultat, c’est de passer par une traduction humaine. Ce sont deux situations automatisées totalement différentes : dans un cas je suis parfaitement capable de juger que le résultat est satisfaisant, dans l’autre je n’en ai aucun. Et dans un cadre professionnel, c’est un critère particulièrement important.

      Après, je pense que ça joue tout de même, parce qu’il y a des situations où certes je ne peux pas garantir la qualité fine de la traduction (est-ce que c’est élégant, est-ce que c’est le meilleur choix…), mais où, si je ne peux traduire moi-même, je peux quand même juger que ce n’est pas en train de raconter strictement n’importe quoi. Ça doit être le cas de l’anglais pour pas mal de gens (en gros ce que dit Rasta). (Et sinon, est-ce que j’ai déjà vu des institutions culturelles ajouter un bouton « Google Translate » sur leur site Web au lieu de proposer de véritables versions multilingues de leur site ? Hum je voudrais pas cafter…)

      Mais cette histoire d’enjeu est important à considérer, parce que ça rend la comparaison avec d’autres automatisations très injuste. Je peux beaucoup m’amuser à produire des dizaines d’images avec des gens à trois bras, les yeux qui déconnent, les mains qui ne ressemblent à rien, les épaules au niveau du nombril… Mais je m’en fous des erreurs, parce que dans le lot je vais choisir l’image qui n’a pas de problème, et les image ratées n’ont aucun impact sur ce que je vais sortir au final. Alors qu’une erreur dans une traduction, elle restera dans la version finale publiée. Mais surtout : une voiture qui se conduit toute seul va tuer des gens. Un algorithme qui envoie les gens en prison est très problématique, et les « erreurs » sont (devraient être) des injustices insupportables. Et une AI qui devrait détecter des maladies graves qui se tromperait, ben c’est un peu chiant aussi… Alors que les erreurs et les fautes de goût d’une AI de dessin n’ont aucun impact dans le résultat final, même dans un cadre professionnel.

    • Tant qu’à faire, l’interview de David Holz chez Forbes:

      Midjourney Founder David Holz On The Impact Of AI On Art, Imagination And The Creative Economy

      Did you seek consent from living artists or work still under copyright?

      No. There isn’t really a way to get a hundred million images and know where they’re coming from. It would be cool if images had metadata embedded in them about the copyright owner or something. But that’s not a thing; there’s not a registry. There’s no way to find a picture on the Internet, and then automatically trace it to an owner and then have any way of doing anything to authenticate it.

      Can artists opt out of being including in your data training model?

      We’re looking at that. The challenge now is finding out what the rules are, and how to figure out if a person is really the artist of a particular work or just putting their name on it. We haven’t encountered anyone who wants their name taken out of the data set that we could actually find in the data set.

      Can artists opt out of being named in prompts?

      Not right now. We’re looking at that. Again, we’d have to find a way to authenticate those requests, which can get complicated.

      What do you say to commercial artists concerned this will destroy their livelihood? At a certain point, why would an art director hire an illustrator to produce work like concept art, production design, backgrounds – those sorts of things – when they can just enter prompts and get useful output much more quickly and at much lower cost?

      It’s a lot of work still. It’s not just like “make me a background.” It might be ten times less work, but it is way more work than than a manager is going to do.

      I think there’s kind of two ways this could go. One way is to try to provide the same level of content that people consume at a lower price, right? And the other way to go about it is to build wildly better content at the prices that we’re already willing to spend. I find that most people, if they’re already spending money, and you have the choice between wildly better content or cheaper content, actually choose wildly better content. The market has already established a price that people are willing to pay.

      I think that some people will try to cut artists out. They will try to make something similar at a lower cost, and I think they will fail in the market. I think the market will go towards higher quality, more creativity, and vastly more sophisticated, diverse and deep content. And the people who actually are able to use like the artists and use the tools to do that are the ones who are going to win.

      These technologies actually create a much deeper appreciation and literacy in the visual medium. You might actually have the demand, outstrip the ability to produce at that level, and then maybe you’ll actually be raising the salaries of artists. It could be weird, but that’s what’s going to happen. The pace of that demand increase for both quality and diversity will lead to some wonderful and unexpected projects getting made.

      A generation of students graduated art schools, many of them heavily in debt, counting on relatively well-paid jobs in entertainment production, videogame production, commercial art and so on. How does the emergence of AI text-to-image platforms impact their future?

      I think some people will try to cut costs, and some people will try to expand ambitions. I think the people who expand ambitions will still be paying all those same salaries, and the people who try to cut costs, I think will fail.

      Ai is typically used at scale for stuff like call centers or checking bags at airports and the sort of the jobs that people don’t really care to do. And the value proposition is that it frees people up to do more rewarding, more interesting kinds of jobs. But art jobs are rewarding and interesting. People work their entire lives and develop their skills to get these kind of jobs. Why would you point this technology at that at that level of the economy as a as kind of a business focus and priority for the stuff that you’re doing?

      Personally, I’m not. My stuff is not made for professional artists. If they like to use it, then that is great. My stuff is made for like people who, like, there’s this woman in Hong Kong, and she came to me, and she goes, “The one thing in Hong Kong that your parents never want you to be is an artist, and I’m a banker now. I’m living a good banker life. But with Midjourney now I’m actually starting to get a taste of this experience of being the person I actually wanted to be.” Or a guy at the truck stop who’s making his own baseball cards with wild Japanese styles, just for fun. It’s made for those people, because, like most people, they don’t ever get to do these things.

      It’s important to emphasize that this is not about art. This is about imagination. Imagination is sometimes used for art but it’s often not. Most of the images created on Midjourney aren’t being used professionally. They aren’t even being shared. They’re just being used for these other purposes, these very human needs.

      Nevertheless, the output of your product is imagery, which has commercial value in professional context in addition to all of those other properties. And this is very disruptive of that economy.

      I think it’s like we’re making a boat, and somebody can race with the boat, but it doesn’t mean that the boat’s about racing. If you use the boat to race then maybe like, yeah, sure. In that moment it is. But the human side really matters, and I think that we’re not… We want to make pictures look pretty. Like how flowers try to be beautiful for the bees. It’s the beauty of nature, not the beauty of art. There’s no intention in the machine. And our intention has nothing to do with art. We want the world to be more imaginative and we would rather make beautiful things than ugly things.

      Do you believe that any government body has jurisdiction or authority to regulate this technology? And if so, do you think they should?

      I don’t know. Regulation is interesting. You have to balance the freedom to do something with the freedom to be protected. The technology itself isn’t the problem. It’s like water. Water can be dangerous, you can drown in it. But it’s also essential. We don’t want to ban water just to avoid the dangerous parts.

      Well, we do want to be sure our water is clean.

      Yes, that’s true.