Après le rapport du Comité sur l’intelligence artificielle (IA) rendu en mars, le gouvernement vient de lancer deux missions qui ont trait à la rémunération des artistes et des ayants droit face aux IA. L’une concerne la mise en œuvre de la nouvelle obligation de transparence imposée aux développeurs d’IA comme OpenAI, Google ou Mistral par « l’AI Act », le règlement européen sur l’IA. L’autre est relative à l’utilisation de contenus culturels et à la « la juste rémunération des ayants droit », selon les deux lettres de mission consultables sur le site du ministère de la Culture depuis le 17 avril dernier.
Concrètement, Rachida Dati, la ministre de la Culture, demande au Conseil supérieur de la propriété littéraire et artistique (le CSPLA)- une instance consultative chargée de conseiller le ministère en matière de propriété littéraire et artistique – de travailler sur deux sujets en consultant des experts. L’objectif est ensuite d’écrire un rapport qui pourra servir à de futures réglementations ou négociations au niveau européen.
Mission 1 : proposer une mise en œuvre de l’obligation de transparence
Dans une première lettre, le CSPLA a été chargé d’« expertiser la portée de l’obligation de transparence » des fournisseurs d’IA, et d’« établir la liste des informations que les développeurs d’IA devront publier ». Cette nouvelle obligation renvoie en effet à ce qui est décrit comme un « pillage » par les auteurs et les artistes : le fait que les outils d’IA « ingurgitent » de très nombreuses données récoltées sur le Web, dont certaines sont protégées par le droit d’auteur. En Europe, les artistes et les ayants-droit peuvent en théorie s’opposer à ce que leurs œuvres nourrissent ces systèmes, en ayant recours au « opt-out ».
Ce dispositif, qui protège les ayants-droit, est prévu par la directive sur le droit d’auteur de 2019 lorsque les outils d’IA collectent des données pour s’entraîner : si l’auteur s’y oppose expressément (s’il « opt-out »), ce « text and data mining » (ce droit de fouilles, en français) n’est pas possible.
Mais en pratique, ce mécanisme est difficile à mettre en œuvre. Les auteurs peuvent en effet inscrire expressément sur tel site : « je ne souhaite pas que mon œuvre soit utilisée », ou avoir recours à des programmes informatiques qui bloquent les requêtes de ces outils d’IA. Mais on ne sait pas vraiment si ces oppositions sont bien prises en compte, car les développeurs d’IA comme OpenAI, Google ou Mistral n’ont pas communiqué la liste des données utilisées pour entraîner leur outil. Or, sans cette information, les auteurs ne peuvent pas ou peuvent difficilement savoir si leurs œuvres ont été utilisées pour entraîner une IA.
À lire aussi : Bard (Gemini) entraîné sur des médias français sans autorisation – Google écope d’une amende salée
Lors de la négociation de l’AI Act, les législateurs européens ont justement cherché à résoudre ce problème en ajoutant un « principe de transparence des sources ». Elle oblige les développeurs à publier un « résumé suffisamment détaillé » des données utilisées pour former leur outil. Mais la mise en œuvre de ce texte « mérite d’être précisée. C’est notamment le cas du périmètre des fournisseurs concernés par cette obligation, du niveau de précision des informations à fournir, de l’impact des secrets industriels et commerciaux sur la divulgation des informations ou encore de la forme de la divulgation ainsi imposée », est-il précisé dans la lettre.
Et si c’est bien au niveau européen que la mesure sera précisée, Paris compte bien peser dans la balance. Le « Bureau de l’IA », un nouvel organe européen, sera en charge d’« élaborer un modèle de résumé simple et efficace des données d’entraînement utilisées par les IA ». Et pour ce faire, il lancera prochainement des consultations, auxquelles la France compte bien participer. C’est tout l’objet de cette première mission, dont le rapport final pourrait être proposé lors de ces discussions. La lettre est adressée à Alexandra Bensamoun, membre du comité de l’IA et professeur en droit d’auteur, et Frédéric Pascal, professeur des universités spécialisé en intelligence artificielle.
Mission 2 : réfléchir à la rémunération des contenus culturels utilisés par l’IA
La seconde mission devra être réalisée par Joëlle Farchy, économiste de la Culture, et la même Alexandra Bensamoun. Il s’agit cette fois de se concentrer sur « la rémunération des contenus culturels utilisés par les systèmes d’intelligence artificielle ».
Les deux spécialistes sont invitées à « examiner les mécanismes juridiques » qui permettraient à la fois « une juste rémunération des ayants droit et une sécurité juridique pour les fournisseurs de modèles d’IA ». Il s’agira de « garantir aux ayants droit l’effectivité de leurs droits lors de l’utilisation des œuvres par les fournisseurs d’IA ». Les deux professeures doivent aussi « analyser les enjeux économiques sous-jacents à l’accès aux données protégées » par des droits d’auteur, « lorsque celles-ci sont utilisées par les IA ».
Des rapports rendus seulement fin 2024 et en 2025 : des délais trop longs ?
Il est demandé aux deux expertes de présenter un rapport final courant 2025 – les conclusions de la première mission sont attendues pour fin 2024 : deux délais qui interrogent. Ces rapports n’arriveront-ils pas trop tard, au vu des développements passés et actuels de ces outils ?
Si d’aucuns critiquent une initiative franco-française destinée à n’être qu’un coup d’épée dans l’eau dans un secteur réglementé au niveau européen, ou que d’autres agitent déjà le spectre d’une nouvelle taxe copie privée, « ces deux missions sont nécessaires, elles sont la suite logique au rapport de la Commission de l’intelligence artificielle », explique Mathilde Croze du cabinet Lerins, que nous avons interrogée.
Mais pour l’avocate spécialisée en droit des nouvelles technologies, qui travaille notamment les Voix, une association qui regroupe des artistes de voix off, il faudrait aussi qu’un autre travail soit mené, en parallèle.
« Dans quelle instance réfléchit-on à des mesures pour protéger sur le long terme le secteur de la création face à l’IA, en envisageant de mettre en place des quotas, ou en subventionnant des productions qui s’engageront à utiliser de l’humain, par exemple ? », s’interroge l’avocate. Car « qui financera, à terme, les retraites de tous ces gens, notamment les journalistes, les traducteurs, les comédiens, les graphistes, les techniciens, les ingénieurs du son qui seront remplacés par des outils d’IA ? Et plus généralement, avons-nous déjà renoncé à écouter, lire et voir des productions non déshumanisées ? », questionne-t-elle.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.