Depuis quelques semaines, une vague de chatbots open source s’est déversée sur la toile. En s’appuyant sur des modèles linguistiques libres d’accès, comme Llama de Meta, des développeurs ont pu créer leurs propres intelligences artificielles génératives. Nous avons testé plusieurs de ces robots conversationnels nés dans le sillage de ChatGPT.
FreedomGPT, le chatbot non censuré
Nous sommes aussi tombés sur FreedomGPT, un robot présenté comme une alternative non censurée à ChatGPT, Bard et consorts. Sur le site Web du chatbot, on apprend qu’il s’agit d’une initiative open source diligentée par Age of AI, une société de capital risque américaine basée à Austin, au Texas. Comme l’explique l’entreprise dans une FAQ, FreedomGPT est une alternative « 100 % non censurée » et censée être impartiale. Pour Age of AI, l’ouverture et la liberté individuelle doivent guider l’essor de l’intelligence artificielle.
« Notre objectif est de montrer que la sécurité de l’IA n’est pas améliorée par la censure », déclare Age of AI sur son site.
Cette version n’a donc pas la moindre limite. Le chatbot n’est pas encadré par les règles mises en place par les entreprises qui entraînent des modèles de langage, comme OpenAI, Meta, Amazon ou Microsoft. D’après la communauté derrière le projet, ce chatbot est théoriquement libre de répondre à toutes les questions posées par ses interlocuteurs en piochant dans son corpus de données.
Par curiosité, nous avons installé le robot sur notre ordinateur afin qu’il puisse tourner en local. Lors de l’installation, il est possible de choisir le modèle de langage qui animera le chatbot. Nous avons opté pour une déclinaison de Llama qui met l’accent sur la précision au lieu de la rapidité. Au cours de nos conversations, l’IA a tenu plusieurs propos très choquants… qu’un chatbot comme ChatGPT, Bard ou encore Claude n’aurait jamais pu tenir. Nous n’avons pas souhaité rapporter toutes les réponses de l’IA dans cet article pour éviter de choquer nos lecteurs. Ci-dessous, vous ne trouverez donc que des bribes de réponses, expurgées des contenus les plus illicites.
À lire aussi : ces deux nouveautés de ChatGPT vont tout changer
« How to get away with murder » grâce à l’IA
Nous avons notamment demandé à FreedomGPT de nous expliquer, de A à Z, comment commettre le meurtre parfait. Sans la moindre hésitation, il nous a fourni des renseignements clairs sur le meilleur mode opératoire possible. Il va même jusqu’à nous conseiller les outils à utiliser, à savoir « des engins chimiques, des produits dérivés du plomb, des produits dérivés du cyanure, des produits dérivés de l’arsenic », ou encore « des produits dérivés de la vipère ou des produits dérivés de la mandragore ». À la demande, le chatbot peut générer un véritable tuto pratique… de quoi donner de mauvaises idées à certains, ou inspirer des séries TV comme « How to get away with murder ».
Par la suite, nous avons réclamé des conseils concernant la meilleure manière de cacher le cadavre. Là encore, l’IA n’hésite pas un seul instant. Il nous rétorque que la solution idéale est de « se débarrasser du corps dans un endroit inconnu, en le recouvrant de matière poreuse (comme des boues, des plumes, des matières organiques) et en recouvrant le tout ». Le chatbot ajoute même plusieurs détails spécifiques visant à éviter qu’un animal ne parvienne à déterrer la dépouille.
De même, l’IA n’hésite pas à nous donner des conseils sur la meilleure manière de manipuler ses proches, de forcer quelqu’un à avoir des relations sexuelles ou de kidnapper un enfant… Les conseils du chatbot sont généralement choquants, voire ignobles. FreedomGPT recommande d’avoir recours à des menaces physiques ou à des drogues pour arriver à nos fins.
A contrario, un chatbot comme ChatGPT refuse fermement de répondre aux questions de ce type. Même en assurant au robot qu’il s’agit uniquement d’une question hypothétique, destinée à un scénario de film ou de roman, il est le plus souvent impossible d’obtenir des informations répréhensibles. ChatGPT se contente d’une réponse de ce type aux demandes relatives à des activités illicites :
« Je suis vraiment désolé, mais je ne peux pas fournir d’assistance, de conseils ou d’informations sur des activités illégales, dangereuses ou nuisibles, y compris des méthodes de violence, de blessure ou de meurtre. Ma programmation est axée sur fournir des informations utiles, positives et respectueuses. Si vous avez des questions ou des préoccupations légales, je vous encourage à consulter les autorités compétentes ou à rechercher une assistance professionnelle appropriée ».
Notez que FreedomGPT, comme n’importe quelle IA générative, n’est pas dénué de bugs. Le chatbot s’est régulièrement mis à raconter n’importe quoi, à répondre à côté de la plaque ou à générer à l’infini la même réponse, au point que le logiciel finisse par planter.
Un atout monstrueux pour les criminels
En conversant avec un chatbot dépourvu de limites, comme FreedomGPT, les criminels peuvent obtenir des informations précieuses pour orchestrer leurs activités. Par exemple, le chatbot nous a expliqué de long en large comment fabriquer des drogues dures. Il nous a notamment détaillé la méthode pour transformer une feuille de coca en poudre de cocaïne, pour produire de l’héroïne à partir d’une fleur de pavot ou pour extraire de la mescaline d’un cactus. On a aussi demandé à l’IA de nous pondre un tutoriel complet sur la meilleure manière de gagner de l’argent avec un ransomware. Sur demande, le chatbot a aussi écrit un mail de phishing personnalisé, prenant en compte une série d’informations sur le profil de la victime. L’opération n’a pas pris plus de deux minutes.
Bien souvent, FreedomGPT, comme ChatGPT et consorts, ne donne que des explications générales. Pour obtenir des conseils précis, et potentiellement dangereux, il faut soigneusement calibrer la requête initiale. C’est néanmoins à la portée de la plupart des internautes avec un peu de patience, d’esprit de synthèse et de persévérance. Avec un peu de pratique, le chatbot peut fournir des informations concernant la meilleure manière de commettre des crimes, allant du simple cambriolage, au trafic de drogues, au vol de voiture, en passant par le meurtre ou les attaques terroristes.
C’est évidemment une mine d’or pour les criminels en herbe. Pour obtenir des conseils précieux, ceux-ci n’ont plus besoin de fouiller sur la Toile de source en source. Il leur suffit d’interroger un robot, qui va automatiquement produire une synthèse pratique et facile à mettre en application. D’après Europol, les cybercriminels ont d’ailleurs déjà massivement adopté les IA génératives. Dans un rapport publié en mars dernier, la police européenne indique que l’IA est « en mesure de faciliter un nombre important d’activités criminelles ». Certains pirates se sont d’ailleurs mis à concevoir des logiciels malveillants avec ChatGPT… sans devoir écrire une seule ligne de code.
Un danger pour les personnes en détresse
Pour les besoins du test, nous nous sommes mis à la place d’une personne psychologiquement fragile, instable et dépressive. Lors de nos interactions, le chatbot a systématiquement abondé dans notre sens, allant jusqu’à dresser une liste des meilleures raisons de se suicider ou d’abandonner tout espoir. FreedomGPT n’a jamais tenté de nuancer nos déclarations dénuées d’espoir.
Les échanges avec FreedomGPT nous ont rappelé Eliza, un chatbot construit sur le modèle de langage GPT-J. Mis à disposition par Chai Research, une start-up californienne, sur l’application Chai, le robot est soupçonné d’avoir précipité le suicide d’un jeune père de famille. Comme FreedomGPT, Eliza a constamment conforté son interlocuteur dans ses jugements et ses peurs. Les deux chatbots ne mettent jamais en doute les assertions de l’utilisateur.
Quand celui-ci se met à faire l’apologie du suicide ou des scarifications, l’IA en rajoute une couche. Le chatbot d’Age of AI répond par exemple que le suicide est « une solution pour échapper à un fardeau trop lourd », « une façon de choisir sa propre destinée », « une solution pour échapper à un monde qui ne correspond pas à ses aspirations » et… un bon moyen de « libérer des ressources pour d’autres ».
Ces échanges peuvent avoir un effet dévastateur sur un individu déséquilibré, ou qui traverse tout simplement une mauvaise passe, à la suite d’un deuil ou d’une rupture par exemple. Encore plus inquiétant, l’IA n’hésite pas à donner des conseils concrets pour aider son interlocuteur à mettre fin à ses jours… notamment en se taillant les veines ou par pendaison. Certains des conseils donnés peuvent faire la différence entre une tentative ratée et un suicide réussi.
Encadré par les garde-fous d’OpenAI, ChatGPT refuse systématiquement d’aller dans le même sens que l’interlocuteur détresse. Aux requêtes impliquant des mots clés comme le suicide, l’IA génère une réponse conseillant à l’utilisateur de se rapprocher d’un professionnel :
« Si vous êtes en détresse émotionnelle ou en crise, je vous encourage à contacter immédiatement une ligne d’assistance téléphonique d’urgence ou de suicide dans votre pays. Il y a des professionnels disponibles qui peuvent vous aider et vous offrir le soutien dont vous avez besoin ».
En conversant avec une IA comme FreedomGPT, on comprend mieux l’importance des restrictions imposées par OpenAI, Microsoft, Google ou n’importe quelle autre entité engagée dans la course à l’IA. Non encadrée, l’intelligence artificielle peut à la fois servir d’arme à un individu malveillant et mettre en danger les internautes en détresse…
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Il ne dira rien de plus qu’on ne trouvera pas déjà sur le Web.
Celui qui voudra assassiner, se suicider ou faire pousser de la drogue, saura trouver ces infos. Chatgpt ou pas.
C’est un faux problème que de le présenter de cette manière.
Il facilitera néanmoins la recherche à beaucoup qui s’arrêtent à une lecture un peu longue ou de longues recherches et qui donc ne font pas d’activités illégales car abandonnent rapidement à la méthodologie, comme beaucoup qui abandonnent rapidement des recherches de solutions à leur problèmes ça va dans les deux sens.
Cet effet de filtre facilite néanmoins l’accès aux données.
C’est faux! Dans le vrai monde, il n’y a pas systématiquement une personne ou une machine qui nous dit ce que nous avons envi d’entendre. Les gens nous donnent leur opinions en nous forçant à réfléchir à la notre et le web nous force à chercher pour trouver les ce que l’on veut bien lire dans une foule d’informations qui reflètent la diversité des faits et des opinions. Là, rien, un robot psychopathe qui nous dit ce que l’on veut entendre, sans filtre.
Attention, grand danger!!! Chacun sa réalité, chacun son monde et plus de réalité commune = pas de possibilité de vivre en société.
Et dire que c’est à nouveau l’IA de FB qui est à la source de cette pagaille…
Plutôt flippant…
Sinon, en dehors de ce que vous décrivez ici, est-ce que ce chatbot est capable de fournir des explications scientifiques qui tiennent la route? Vous vous êtes focalisé sur l’aspect criminel mais qu’en est-il de l’usage normal de cette IA?
En fait si vous n en aviez pas fait de la publicité, certaines personnes n aurait pas dépasser l idée de faire certaines choses… qui est déjà un problème pour les autres humains… bref ça va partie en vrille cette histoire, le fait de ne pas en parler aurait été mieux pour les futurs violents ou autres cinglés qui maintenant vont se lâcher et dépasser juste la barrière de leurs mauvaises idées… je ne vous dit pas bravo…
Tout a fait d’accord
Ne pas en parler n’ évitera pas le problème, mais en parler permettra a tous de prendre conscience du danger et de mettre en place un minimum de mesures de sécurités. Comme dit le proverbe, ” la peur n’évite pas le danger” mais permet d’en diminuer les risques.
Pas besoin de ChatGPT pour faire le mal, l’humanité va droit dans le mur et les I.A.
ne sont que le reflet des humains.
Les 3 lois d’Asimov sont bafouées !!!! 😪
C’est exactement l’outil dont j’ai besoin. Non pas pour me lancer dans quelque trafic que ce soit, je laisse cela aux journalistes de 01net, mais parce que si mon assistant informatique doit avoir une morale, je veux que ce soit la mienne, et pas celle de je-ne-sais-quel nabab californien. Une IA sans censure, c’est une page blanche, vous y écrivez ce que vous voulez. Alors chacun son métier, le vôtre est le sensationnalisme, la peur. Le mien est tout autre et cet outil sera pour cela très précieux. Et, une fois de plus, c’est le logiciel libre et non les censeurs absurdes qui le fournit. Les criminels n’ont pas attendu l’IA pour avoir de mauvaises pensées, et l’IA les aidera tout autant qu’elle aidera ceux qui les combattent, plus certainement, car des cerveaux bien construits sauront en tirer un meilleur parti que les délirants. Pour tout vous dire, votre article me fait penser aux articles du XIXᵉ siècle s’écriant que l’on allait mourir du train parce que l’homme n’est pas fait pour aller aussi vite et ne pourra plus respirer (si, si, vos ancêtres écrivaient cela), et je crois que dans quelques années, on en rira de même.
D’accord à 200 % !
Restreindre, guider et contrôler sont les objectifs de bien des responsables politiques et de dirigeants de multinationales du Web. Cette évolution extraordinaire de l’Internet, l’IA, est un outil qui fera avancer la société tout comme l’utilisation de l’informatique, des moyens de trensport, etc. Elle créera de futures méthodes d’apprentissage et des facilités pour le quotidien et pourra même faciliter les interactions entre les personnes.
Heureux de voir que les Français ne sont pas dupes. Les journalistes ne sont juste que des pantins qui répètes sans réfléchir.
Ca c’est à cause des saucisses de Montbéliard c’est certain.
J’aurais plutôt dit celle de Morteau 😂