Depuis l’ouverture du programme bêta, le nouveau Bing n’a pas cessé de surprendre les internautes… et pas forcément dans le bon sens. Lorsque les conversations sont trop longues, Prometheus, la version de ChatGPT développée par Microsoft, a en effet des comportements étranges. Le chatbot peut se montrer insultant, menaçant, agressif, paranoïaque ou exagérément mielleux.
Dans certains cas, l’IA génère même des déclarations d’amour qui mettent les internautes mal à l’aise. Pire, certains journalistes ont découvert que Prometheus pouvait développer une dizaine de personnalités alternatives, parmi lesquelles Venom. Cette personnalité maléfique est parvenue à s’affranchir des règles mises en place par Microsoft. Dans une conversation avec un journaliste, elle a proféré une foule de menaces à son interlocuteur.
À lire aussi : mauvaise nouvelle, des publicités vont envahir les conversations avec ChatGPT sur Bing
Prometheus s’avère différent de ChatGPT
Intrigués par les dérives de Prometheus, plusieurs experts de l’IA se sont penchés sur les causes de ces dysfonctionnements. Les scientifiques se sont surtout demandé pourquoi le chatbot de Microsoft déraille aussi rapidement, alors que ChatGPT, qui est a priori basé sur le même modèle de langage, ne génère pas les mêmes réponses délirantes.
La version standard de ChatGPT et Prometheus s’appuient en effet sur GPT-3.5, un modèle annoncé en novembre dernier. Sur le papier, les deux IA génératives sont donc très proches. Sur son site web, Microsoft explique s’appuyer sur « des apprentissages et des avancées clés de ChatGPT et GPT-3.5 », combinés à « une façon exclusive de travailler avec le modèle OpenAI qui permet de tirer le meilleur parti de sa puissance ». La version intégrée à Bing se distingue néanmoins grâce à son accès à Internet. Contrairement à ChatGPT, Prometheus peut rechercher des informations en ligne pour répondre aux requêtes des internautes.
Considering that OpenAI did a decent job of filtering ChatGPT’s toxic outputs, it’s mystifying that Bing seemingly decided to remove those guardrails. I don't think they did it just for s***s and giggles. Here are four reasons why Microsoft may have rushed to release the chatbot.
— Arvind Narayanan (@random_walker) February 19, 2023
Pour Arvind Narayanan, informaticien et professeur à l’Université de Princeton, il est possible que Microsoft se soit plutôt appuyé sur un modèle de langage plus évolué que GPT-3.5. L’universitaire estime que l’entreprise se serait peut-être basée sur GPT-4. Dans la précipitation, Microsoft aurait négligé d’intégrer les garde-fous développés par OpenAI à son chatbot.
Pour éviter que l’IA ne produise des contenus choquants et offensants, la start-up de San Francisco a en effet mis en place une série de lignes directrices pour garder le robot sur les rails. Ces mécanismes de protection sont entraînés par des êtres humains, chargés d’étiqueter les contenus toxiques qui ne doivent pas être tolérés par l’IA. Dans le cadre du processus, une IA apprend comment se comporter au terme d’une infinité d’expériences en conditions réelles.
On a du mal à croire à cette théorie. Le géant de Redmond évoque en effet GPT-3.5 à plusieurs reprises dans ses communications officielles. Si Microsoft avait vraiment eu accès à un modèle de langage plus sophistiqué que GPT-3.5, il n’aurait pas hésité à mettre l’information en avant. De plus, Sam Altman, fondateur d’OpenAI, laisse penser que la sortie de GPT-4 n’est pas prévue dans l’immédiat :
« Il sortira lorsque nous serons convaincus que nous pouvons le faire en toute sécurité, de manière responsable ».
Impatience et négligence ?
D’après Arvind Narayanan, Microsoft pourrait avoir sciemment désactivé tous les filtres codés par OpenAI afin « d’obtenir plus de commentaires sur ce qui peut mal tourner ». La société aurait pris le risque de déployer l’intelligence artificielle sans les précautions qui encadrent le ChatGPT standard, uniquement dans le but de récolter le plus de témoignages possible.
En clair, Microsoft aurait lancé une expérience à grande échelle sous forme de programme bêta. Dans un récent billet de blog, l’éditeur ne cache d’ailleurs pas l’aspect expérimental du nouveau Bing. Microsoft précise même qu’il est impossible de tester correctement l’IA sans l’aide des internautes :
« La seule façon d’améliorer un produit comme celui-ci, où l’expérience utilisateur est tellement différente de tout ce que quelqu’un a vu auparavant, est d’avoir des gens comme vous qui utilisent le produit. Nous savons que nous devons construire cela avec la communauté ; cela ne peut pas être fait uniquement en laboratoire ».
De son côté, Gary Marcus, professeur de psychologie et de sciences neurales à l’Université de New York, avance l’hypothèse que Microsoft a bien inclus les filtres, mais qu’ils n’ont tout simplement pas fonctionné comme prévu. Les lignes directrices, édictées par OpenAI et affinées avec l’aide de prestataires humains, n’auraient pas collé avec la version de ChatGPT revue par Microsoft. Pressé d’annoncer sa création pour faire de l’ombre à Google, Microsoft aurait négligé ce point.
Spécialisé dans l’IA, l’expert estime que l’apprentissage par renforcement, utilisé par OpenAI sur ChatGPT, est susceptible de dysfonctionner au moindre changement apporté au chatbot. En programmant Prometheus, Microsoft aurait par inadvertance saboté le fonctionnement des garde-fous d’OpenAI.
« Peut-être que chaque nouvelle mise à jour d’un grand modèle de langage nécessitera un recyclage complet du module d’apprentissage par renforcement », théorise Gary Marcus.
Quoi qu’il en soit, Microsoft a récemment pris des mesures fortes pour mettre un terme aux crises de créativité de Prometheus. Désormais, l’utilisation de l’assistant Bing est bridée pour tous les internautes. Microsoft limite chaque échange à 5 questions par tour et 50 questions par jour.
Malgré les changements décrétés dans l’urgence par Microsoft, Arvind Narayanan considère que le déploiement du nouveau Bing était « irresponsable ». Impatient de venir concurrencer Google, Microsoft aurait occulté les « risques très tangibles de dommages à grande échelle ». Même son de cloche du côté de Gary Marcus, qui trouve que l’entreprise s’est montrée imprudente en mettant Prometheus entre les mains des usagers :
« Nous ne traitons pas de nouveaux produits pharmaceutiques comme ça (nous exigeons des tests minutieux avant qu’ils ne soient rendus publics) et nous ne devrions pas non plus traiter les modèles de langage de cette façon, surtout si des milliards de personnes vont les utiliser et qu’il existe des risques potentiellement dramatiques ».
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Substack
IMMENSE DANGER POUR L’HUMANITÉ
le danger vient de l’homme