Pendant que le monde occidental ne cesse d’appeler à la régulation des intelligences artificielles, et que Joe Biden évoque l’idée d’un « devoir moral » qui pèserait sur ce secteur, la Chine a déjà sorti l’artillerie lourde : un corpus de règles à respecter pour tous les développeurs locaux d’IA. Le 11 avril dernier, la puissante autorité de régulation du numérique, la « Cyberspace Administration of China » (CAC), publiait un ensemble de 21 articles visant, entre autres, JP.com, Baidu, SenseTime et Alibaba. L’objet de cette réglementation : les modèles d’intelligence artificielle de ces champions locaux qui pourraient, à terme, devenir des chatbots conversationnels ou des générateurs d’images.
Jusqu’au 10 mai, ce corpus de règles, présenté comme une version provisoire, est ouvert aux commentaires. Il pourra ensuite être modifié avant de devenir une loi à part entière. Mais il s’agit d’ores et déjà de principes applicables, estime Emmanuel Lincot, spécialiste de la Chine et professeur à l’Institut Catholique de Paris. « Tout ce qui émane en tant que document de ce type d’organisation vaut loi. En définitive, c’est la spécificité d’un régime totalitaire. Ils pourront l’amender, si besoin. Mais en tout cas, les grandes lignes sont là ». Et les développeurs s’y conforment déjà, sous peine de voir leur service fermé. Car la CAC applique à la lettre les principes qu’elle édite. Cette semaine, l’autorité chinoise, qui surveille aussi le Web, a indiqué avoir supprimé 55 applications et 4 200 sites entre janvier et mars pour non-conformité.
Valeurs du socialisme, exactitude, propriété intellectuelle…
Que comprennent ces 21 nouveaux articles ? Comme c’est déjà le cas pour le Web, les entreprises développant des IA devront d’abord se conformer à un certain nombre de principes idéologiques. Le contenu généré par l’IA doit être conforme aux « valeurs fondamentales du socialisme » (article 4.1) et ne pas porter atteinte « au pouvoir de l’État » ou à « l’unité nationale ». Toutes références aux événements de Tian’anmen, ou aux difficultés ressenties par la population pendant les confinements devraient, par exemple, être supprimées.
Pour le reste, ces termes, volontairement larges et flous, peuvent conduire à toutes sortes d’interprétations. « En Chine totalitaire, on ne sait jamais vraiment où se trouve la limite entre le licite et l’illicite. À tout moment, rétroactivement, on peut vous reprocher d’avoir transgressé la loi parce que vous l’auriez mal interprétée. C’est ce qui pourrait permettre de casser les monopoles, comme pour ce qui s’est passé avec Alibaba et Jack Ma », rappelle Emmanuel Lincot.
Mais il ne s’agit pas que de principes idéologiques. La CAC exige, en plus, que les données générées par les modèles d’IA soient « exactes et véridiques », qu’elles ne soient pas discriminatoires et qu’elles respectent les droits de propriété intellectuelle. En cas de violation de ces règles, les entreprises se verront infliger une amende et leurs services seront suspendus. Une enquête criminelle pourrait même être ouverte (articles 19 et 20). Enfin, les sociétés devront aussi passer par une évaluation préalable, avant que leur système puisse être utilisé par le public (article 6).
À lire aussi : IA : l’étau réglementaire se resserre contre ChatGPT
La Chine prise entre le marteau et l’enclume
Pour les experts du Center for Information Technology Policy de Princeton, un centre de recherche interdisciplinaire américain, il s’agit de contraintes qui vont peser sur la façon dont les modèles sont construits. Car les IA génératives se nourrissent de données issues du Web sur lequel se trouvent une infinité d’informations… inexactes, fausses, ou couvertes par le droit d’auteur. Résultat, ces exigences « impliquent de s’attaquer à des problèmes ouverts de l’IA tels que les hallucinations et les biais, pour lesquels il n’existe actuellement pas de solutions efficaces », écrivent-ils. Comprenez : aux exigences d’exactitude, de non-discrimination et de respect du droit d’auteur, les géants du secteur répondent pour l’instant par : on y travaille. Et on n’a pas encore trouvé de solution adéquate.
Pour certains experts cités dans Foreign Policy, la Chine est prise entre le marteau et l’enclume. D’un côté, elle aspire toujours à devenir une superpuissance mondiale en matière d’intelligence artificielle. L’IA est depuis 2017 un secteur stratégique, ancré dans les nouvelles routes de la Soie. « À côté de la surveillance policière, le pays compte sur l’IA pour fluidifier ses villes aux milliards d’habitants, mais aussi pour pallier le futur manque de main d’œuvre de sa population vieillissante », souligne Emmanuel Lincot.
Mais de l’autre, ces nouvelles règles risquent d’entraver considérablement le développement et le déploiement de grands modèles de LLM. La Chine prendrait alors un train de retard sur l’Occident dans la course à l’IA, écrivent les experts. La CAC exige des développeurs chinois un niveau de contrôle technique qui n’a été atteint ni par les entreprises chinoises, ni par les leaders actuels du secteur comme OpenAI et Microsoft.
Des règles uniquement applicables pour l’IA destinée aux citoyens chinois ?
Les choses sont pourtant plus nuancées qu’elles n’y paraissent. « Comme toujours en Chine, vous avez des approches graduelles de tout ce qui a trait aux interdictions de l’usage d’un système. On peut imaginer effectivement que pour le grand public et pour l’IA à vocation exclusivement civile, ce texte de la CAC s’appliquera », analyse Emmanuel Lincot. En revanche, « dans des domaines protégés, sanctuarisés, tels que le complexe militaire ou industriel, on peut bien imaginer que ce texte sera totalement caduque », ajoute-t-il.
Pour les réseaux sociaux, les règles similaires n’ont pas empêché ByteDance de lancer une version chinoise conforme aux principes idéologiques du parti communiste chinois (Douyn) et une version sans cette limitation pour les pays occidentaux (TikTok).
À lire aussi : TikTok a-t-il, sous couvert de modération, censuré une liste de sujets sensibles ?
En attendant, les exigences du régulateur chinois ont déjà fait une victime. L’application ChatYuan, présentée début février comme le ChatGPT chinois, présentait trop de discordances avec la ligne du parti communiste chinois. Le chat conversationnel décrivait par exemple la guerre en Ukraine comme une « guerre d’agression », en contradiction avec la position pro-russe de Pékin. Résultat, l’application a été suspendue. Et depuis, malgré la volonté de son développeur qui œuvre à rendre son bot plus patriotique, le même message s’affiche : « Le service reprendra une fois le dépannage terminé ». Reprendra-t-il un jour ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Les I.A. font nuire au plus grand nombre (et peu importe l’origine).