Une app pour protéger le monde de l’art de l’Intelligence artificielle (IA) ? Pour sauver les designers, les illustrateurs et les artistes dont le style est copié – voire pillé, selon les points de vue – et imité par des outils d’art génératif d’IA comme Stable Diffusion et Midjourney, des chercheurs de l’université de Chicago ont créé une application, Glaze. Elle est disponible via ce lien depuis le 15 mars dernier, explique Ben Zhao, professeur d’informatique responsable du projet, sur son compte Twitter.
It's a big day.
Glaze, our tool for protecting artists against AI art mimicry, is now available for download/use at https://t.co/8ffUCS4fUoGlaze analyzes your art, and generates a modified version (with barely visible changes). This "cloaked" image disrupts AI mimicry process.
— Ben Zhao (@ravenben) March 15, 2023
Le principe : Glaze analyse l’œuvre d’art et en génère une version subtilement modifiée qui va venir perturber le processus d’imitation de l’IA. Car face à cette image « glazée », les fabricants de modèles d’IA générative ne pourront plus collecter des données sur le style, les couleurs, et tout ce qui fait la patte d’un artiste. Ils ne pourront plus entraîner leur IA à l’imiter et à créer d’autres œuvres « à la manière de » … ce dernier.
Des collectes de données d’entraînement effectuées sans autorisation
De nombreux peintres et illustrateurs ont en effet vu leurs œuvres utilisées comme des données d’entraînements par ce type d’IA, sans qu’on leur ait demandé leur autorisation – ce qui devrait entraîner de nombreuses actions en justice. Il existe en effet pléthore d’œuvres sur le web, notamment parce que leurs auteurs les exposent pour se faire connaître. Certains ont même découvert que leur nom était devenu une instruction pour un modèle d’IA. Il est par exemple possible de générer de nouvelles images dans leur style spécifique, sans qu’aucune autorisation ou licence n’ait été demandée.
Résultat : « Les artistes ont désormais peur de publier de nouvelles œuvres », expliquait le 13 février dernier Ben Zhao à nos confrères du New York Times. Ils ont « peur de nourrir ce monstre qui leur ressemble de plus en plus ». Comment cette app fonctionne-t-elle ? Le professeur d’informatique a donné quelques explications, cette fois à TechCrunch, le 17 mars dernier. Première étape : « Nous essayons de comprendre comment le modèle d’IA perçoit sa propre version du style artistique ». Une fois que c’est fait, les chercheurs vont utiliser « le propre langage de l’IA pour déformer ce que ce système va voir ».
Une app à utiliser en attendant une future loi ?
Et cela ne signifie pas que l’œuvre sera noircie, cachée ou extraite d’internet. Seule l’IA en aura une vision déformée. En d’autres termes : l’œil humain verra toujours le tableau comme si rien n’avait été fait. Mais l’IA aura une version déformée de l’œuvre – parfois, à l’opposé du style réel de l’artiste. À noter que certaines pattes d’artistes sont plus difficiles à défendre que d’autres, explique le professeur. Par exemple, l’appli serait moins efficace sur les styles minimalistes, contrairement à des œuvres visuellement plus riches.
À lire aussi : IA : des internautes sont tombés amoureux d’un chatbot… et ça s’est mal terminé
Sur leur site, les chercheurs préviennent que « Glaze n’est pas une solution permanente contre le mimétisme de l’IA ». Les techniques utilisées aujourd’hui pourraient être contrées dans les semaines qui viennent. « Glaze n’est pas la panacée, mais un premier pas nécessaire vers des outils de protection centrés sur l’artiste pour contrer le mimétisme de l’IA », le temps qu’une protection juridique se mette en place, expliquent les chercheurs. Et malheureusement pour les artistes, ce temps va se compter en mois, voire en années.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : TechCrunch
Cela devient systématique, ceux qui sont derrière les IA agissent sans demander leur avis à personne. Le travail des artistes a été pillé, et il est un peu tard maintenant pour mettre des défenses même si on doit malgré tout s’insurger. Le même phénomène existe avec un logiciel de reconnaissance faciale, Clearstream: on nous a piqué nos visages, par milliards, sans un instant nous demander notre permission, et en infraction flagrante avec les lois européennes (RGPD). Ici encore, tout est siphonné sur Internet à notre insu, on est mis devant le fait accompli.
Sorry, il ne s’agit pas de Clearstream mais de Clearview! Je risque des ennuis 😀