Passer au contenu

Grâce à l’IA de Meta, vous pouvez créer une musique en quelques secondes

Meta vient de lancer une nouvelle IA. Cette intelligence artificielle est capable de produire une musique à la demande sur base d’une courte description. On vous explique comment tester le modèle de langage ci-dessous.

Meta vient de lever le voile sur une nouvelle intelligence artificielle : MusicGen. Comme ChatGPT, Google Bard ou Claude d’Anthropic, cette IA s’appuie sur un modèle linguistique. Les chercheurs de Meta ont misé sur un modèle de type Transformer. Il s’agit d’un modèle d’apprentissage profond, l’un des socles principaux des IA, taillé pour engloutir une importante quantité d’informations. Sur base des données aspirées, le modèle peut alors produire ses propres contenus en toute autonomie.

Tout savoir sur MusicGen, la nouvelle IA de Meta

Grâce à ce modèle, l’IA est capable de générer une courte piste musicale en quelques secondes. Pour créer une piste de toute pièce, l’utilisateur n’a qu’à décrire ce qu’il souhaite avec une brève phrase. Il est notamment conseillé de décrire le type de musique recherché, d’inclure les instruments à placer et de préciser les émotions que la piste doit provoquer chez l’auditeur. Vous pouvez guider l’IA en lui fournissant un exemple de piste audio ou en lui demandant de s’inspirer d’une mélodie connue.

Pour entraîner l’IA, les chercheurs de Meta ont utilisé une base de données composée de 20 000 heures de musique sous licence. Le modèle a en effet été abreuvé avec des contenus en provenance d’un corpus interne, de Shutterstock ou encore d’un site comme Pond5, explique Meta sur Github.

Les ingénieurs de Meta ont ensuite testé plusieurs versions du modèle. Ils ont mis au point quatre déclinaisons de tailles différentes, afin que le modèle puisse tourner sur des ordinateurs peu performants. La première version, cantonnée à 300 millions de paramètres, met l’accent sur la rapidité et la portabilité au détriment de la précision.

La seconde itération grimpe à 1,5 milliard de paramètres. C’est cette version qui a obtenu les meilleurs retours des testeurs. La troisième déclinaison comprend 3,3 milliards, ce qui reste loin des autres modèles d’IA déjà sur le marché, dont Palm (540 milliards), LaMDA (137 milliards) ou encore GPT-3 (175 milliards). C’est ce modèle, plus imposant, qui s’est montré le plus précis. Les pistes audio étaient systématiquement très proches de la description rédigée. Enfin, un quatrième modèle, baptisé Melody, a été développé. Celui-ci prend en charge 1,5 milliard de paramètres et permet de donner un fichier audio à l’IA pour l’aider à produire la musique.

À lire aussi : ChatGPT, Bard et les autres IA ont un gros problème

Comment générer des musiques avec MusicGen ?

Si vous souhaitez tester MusicGen, il suffit de vous rendre sur la démo gratuite mise en ligne par Meta. Avant d’y accéder, vous devrez ouvrir un compte sur la plate-forme Hugging Faces, entièrement consacrée à l’IA. Le processus ne prend que quelques secondes.

Vous devrez ensuite décrire la musique que vous souhaitez concevoir. Notez que l’algorithme fonctionne aussi bien avec l’anglais qu’avec le français. Une fois que votre description a été entrée, l’IA va générer une piste de douze secondes qui correspond à votre demande. Comme toujours, la pertinence de la requête initiale conditionne la qualité du contenu produit. Plus vous prendrez le temps de calibrer votre demande, en rédigeant des consignes claires, plus la musique sera proche de ce que vous avez en tête. Vous pouvez alors télécharger la piste sur votre ordinateur.

Lors de nos tests, nous avons obtenu des résultats convaincants, bien que certaines pistes étaient plutôt brouillonnes. En règle générale, le modèle comprend et obéit correctement aux consignes. Les éléments demandés, comme des instruments, sont inclus. Par contre, l’ensemble manque parfois cruellement d’harmonie. Gardons à l’esprit qu’il ne s’agit encore que d’une démonstration.

Fidèle à ses habitudes, Meta a mis l’intégralité du code de MusicGen en accès libre. Cette approche open source doit permettre de stimuler la recherche sur l’intelligence artificielle. Le groupe de Mark Zuckerberg avait déjà procédé de la sorte avec LLaMA, pour Large Language Model Meta AI, son principal modèle linguistique. Rapidement adopté par les développeurs, le modèle a été utilisé pour concevoir une pléthore de chatbots différents, dont des alternatives non censurées.

La vague des musiques générées par IA

Ce n’est pas la première IA qui promet de transformer n’importe quel internaute en compositeur. En janvier, Google a dévoilé MusicLM. En miroir de MusicGen, ce modèle, accessible à titre expérimental par le biais de Google Labs, peut convertir un texte en audio.

L’essor des modèles consacrés à la création musicale représente un défi majeur pour l’industrie. Face à l’abondance des musiques générées par IA, des plates-formes comme Spotify ou Apple Music ont pris des mesures. Spotify a notamment supprimé des dizaines de milliers de titres créés par l’IA dans le cadre d’un grand nettoyage le mois dernier. Quelques semaines plus tôt, Apple Music s’est également mis à bannir les contenus produits par des algorithmes, à commencer par un faux duo entre les artistes Drake et The Weeknd. Ces campagnes de suppression ont été réclamées par plusieurs maisons de disques, dont Universal, qui estiment que les créations de l’IA représentent une atteinte au droit d’auteur. La multiplication de générateurs de musiques open source devrait contribuer à aggraver la situation…

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera

Source : Github


Florian Bayard
Votre opinion
  1. 12 secondes… c’est assez pour un DJ chevronné comme David Guetta pour créer un “sample” de base. Le reste, c’est de la variation, de la modulation, du vocal… Voilà qui va bouleverser le monde musical!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *