Un nouveau « Monsieur IA » aux États-Unis, et un bureau de l’IA qui commence à recruter en Europe : de part et d’autre de l’Atlantique, les institutions continuent d’avancer dans leur volonté de réguler l’intelligence artificielle générative, cette technologie qui permet de générer du texte, des images ou de la vidéo. À Washington, le ministère de la Justice vient de nommer Jonathan Mayer, professeur à l’université de Princeton, au poste de « premier responsable de l’IA ». Celui qui est aussi chercheur en droit de la technologie, et qui a été conseiller de la vice-présidente Kamala Harris lorsqu’elle était sénatrice, sera chargé de conseiller le ministère américain sur les questions relatives à l’intelligence artificielle et à la cybersécurité. Le nouveau responsable permettra au ministère de « suivre l’évolution rapide des développements scientifiques et technologiques », a précisé le procureur général Merrick Garland, dans un communiqué publié jeudi 22 février.
Concrètement, le responsable de l’IA sera chargé de constituer une équipe d’experts techniques et politiques dans le domaine de la cybersécurité et de l’IA. Il devra aussi « déterminer l’impact de l’IA sur l’application de la loi ». Le décret Biden du 30 octobre 2023, qui impose aux développeurs d’IA de partager certaines informations avec l’administration avant le lancement de leurs systèmes, prévoyait aussi des dispositions à destination de certaines administrations. Ainsi, ces dernières sont invitées à renforcer leurs compétences en matière d’IA, en se dotant d’un responsable de l’IA.
Ces administrations sont aussi censées établir des lignes directrices sur l’utilisation de la technologie, dans leurs services. The Verge donne ainsi l’exemple théorique d’une IA qui, avant d’être utilisée par la Justice pour déterminer la durée d’une peine ou trancher des cas de libération conditionnelle, devrait d’abord être encadrée par de nouvelles normes.
Point intéressant, le ministère a publié un inventaire des IA déjà utilisées par cette administration. Outre des applications attendues comme la traduction automatique ou la transcription de la voix en texte, on trouve des systèmes de détection de coups de feu, ainsi qu’Amazon Rekognition. Ce logiciel d’analyse d’images et de vidéos, qui comprend des modules de reconnaissance faciale, serait en phase de test au sein du FBI. Pour l’instant, on ne sait pas si ces options de reconnaissance faciale ont été activées, détaille le média américain FedScoop.
En Europe, la phase de recrutement du bureau de l’IA en passe d’être lancée
De l’autre côté de l’Atlantique, les choses avancent aussi. Outre le Règlement européen sur l’IA (l’AI Act) en passe d’être formellement adopté par le Parlement européen en avril prochain, le « bureau de l’IA » devrait commencer sous peu à recruter ses équipes. Cet organisme tout juste créé sera chargé d’appliquer, en collaboration avec les 27 États-membres, « l’AI Act ». Et en attendant, les campagnes de recrutements pour le bureau de l’IA sont sur le point de commencer, selon la page d’informations de la Commission européenne mise à jour le 21 février dernier.
À lire aussi : AI Act : Tout comprendre au futur règlement sur l’intelligence artificielle en 5 points
Cette instance, prévue par le Règlement européen sur l’IA, devrait à terme comprendre près de 100 personnes, dont 80 agents contractuels à recruter, et 18 anciens membres de la DG Connect, détaille Contexte ce vendredi 23 février. En attendant, ce sont des membres de cette direction générale de la Commission européenne qui devront surveiller et évaluer les modèles à usage général comme GPT-3 ou Bloom.
À terme, ce bureau pourra « demander des informations et des mesures aux fournisseurs de modèles ». Il collaborera avec les 27 États membres de l’Union européenne et une communauté d’experts, précise la page de la Commission. Il aura la difficile tâche d’édicter des « actes d’exécution et des actes délégués » de l’AI Act. C’est cet organisme qui définira, par exemple, le référentiel de transparence auquel seront soumis les développeurs d’IA, lorsqu’ils utilisent des données protégées par le droit d’auteur pour entraîner leur modèle. Il pourrait aussi appliquer des sanctions.
À lire aussi : AI Act : pourquoi Paris n’a pas réussi à imposer sa ligne pro-innovation
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Communiqué du ministère de la Justice américain du 22 février