Sam Altman, PDG et cofondateur d’OpenAI, a témoigné devant les membres du Sénat américain ce mardi 16 mai 2023. Au cours de l’audience, l’entrepreneur a longuement pressé les législateurs de mettre en place un cadre réglementaire autour de l’intelligence artificielle. En miroir d’une myriade de personnalités, dont Steve Wozniak, Elon Musk ou Eric Schmidt, Sam Altman alerte sur les dangers inhérents de l’IA générative :
« Je pense que si cette technologie tourne mal, elle peut faire beaucoup de dégâts. Et nous voulons nous faire entendre à ce sujet ».
L’impact de l’IA sur l’emploi
Sans surprise, le PDG d’OpenAI estime que l’intelligence artificielle comporte autant de bénéfices que de risques. Selon lui, les IA génératives peuvent à la fois supprimer des emplois – 300 millions de jobs risquent d’ailleurs de disparaître selon Goldman Sachs – et créer de nouvelles professions.
Mais, pour le moment, les solutions déployées par la start-up, comme ChatGPT ou Dall-E, présentent plus d’avantages que de risques, tempère Altman. Le trentenaire considère néanmoins qu’il est « essentiel de veiller à leur sécurité pour notre travail » en s’associant avec les gouvernements.
À lire aussi : ces deux nouveautés vont tout changer à ChatGPT
Une agence pour superviser l’IA
Concrètement, Sam Altman a plaidé pour la création d’une agence fédérale chargée de délivrer des licences pour la création de nouveaux modèles d’IA. Sans l’accord de cette autorité, les géants de la technologie ne pourraient pas déployer de grands modèles linguistiques. L’entité serait également en mesure de mettre en place les règles et les tests qu’une IA doit absolument passer avant d’être mise à disposition des utilisateurs.
« Nous devons travailler ensemble pour trouver une approche totalement nouvelle », avance Sam Altman, prêt à collaborer avec les législateurs.
L’idée d’une agence dédiée a été reprise par plusieurs sénateurs. Ceux-ci souhaitent d’ailleurs que la future entité puisse obliger les entreprises à divulguer les dessous de leurs modèles d’IA. Par exemple, les législateurs voudraient que les concepteurs partagent des informations sur le fonctionnement des IA et sur les données avec lesquelles elles ont été formées.
Un manque de transparence
Notez qu’OpenAI refuse fermement de révéler quels types de données ont été utilisées pour entraîner ChatGPT. Comme l’a remarqué Gary Marcus, un expert de l’IA présent devant le sénat, OpenAI manque encore de transparence sur la manière dont ChatGPT a été formé.
Mettant en avant les risques en matière de sécurité, la start-up se contente de préciser qu’une base de données antérieures à 2021 a permis d’entraîner GPT-4, la dernière itération du modèle GPT derrière ChatGPT. Un « corpus de données » comprenant « des solutions correctes et incorrectes aux problèmes mathématiques, un raisonnement faible et fort, des énoncés contradictoires et cohérents, et représentant une grande variété d’idéologies et d’idées » a été utilisé, précise la société. Si l’agence conseillée par Sam Altman venait à voir le jour, elle pourrait bien réclamer des informations confidentielles qu’OpenAI n’a pas envie de divulguer…
Par ailleurs, les sénateurs réclament la création d’une réglementation antitrust visant à éviter les pratiques anticoncurrentielles. Ces futures mesures doivent éviter qu’un géant, comme Microsoft ou Google, ou qu’une start-up devenue un mastodonte, tel qu’OpenAI, ne prenne le contrôle complet du secteur de l’IA.
La régulation s’organise
Dans le reste du monde, la régulation de l’IA s’organise également. La Chine a en effet mis en place des règles très strictes pour réglementer l’intelligence artificielle, au risque de brider l’innovation. En Europe, le Conseil européen de la protection des données (CEPD) a créé un groupe de travail destiné à déterminer la position à adopter concernant ChatGPT et les autres robots conversationnels. En parallèle, « l’AI Act » a été adopté par le Parlement européen. Ce texte vise à encadrer l’activité des IA génératives sur le territoire européen.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : New York Times