Après les annonces de Google, de Meta ou d’Amazon, Microsoft serait aussi en train de développer sa propre puce destinée à l’intelligence artificielle, « Athena ». La société développerait sous ce nom une puce maison qui permettrait aux agents conversationnels d’IA comme ChatGPT, et à ses futures versions améliorées, d’être entraînés. Le géant du numérique, qui a investi un milliard de dollars dans OpenAI, l’entreprise américaine à l’origine de ChatGPT, travaillerait dans le plus grand secret sur « Athena » depuis 2019. C’est ce qu’a révélé mardi 18 avril le média spécialisé The Information, s’appuyant sur deux de ses sources. Le projet, qui occuperait près de 300 personnes, aurait ensuite pris de l’envergure après l’engouement suscité par ChatGPT qui réunit près de 200 millions d’utilisateurs dans le monde.
Microsoft rejoindrait donc la liste des géants du digital qui développent aussi leurs propres puces dédiées à l’IA. Et les choses auraient bien avancé, puisque « Athena » serait déjà en train d’être testée par un petit groupe d’employés de Microsoft et d’OpenAI, expliquent nos confrères. Ces puces auraient deux fonctions : entraîner et faire fonctionner les systèmes de chatbot. Elles pourraient être disponibles dès l’année prochaine. On ne sait pas, pour l’instant, si ces composants en développement seraient exclusivement utilisés en interne, ou si les clients de la plateforme cloud Azure de Microsoft pourraient en bénéficier. Avec ce projet que l’entreprise n’a pas officiellement confirmé, le géant du numérique souhaiterait s’affranchir de sa très grande dépendance à Nvidia.
Microsoft compte sur ses puces pour faire des économies
Car dans le secteur, cette société américaine règne en maître. Qui veut se procurer des puces doit quasi obligatoirement passer par cette entreprise, qui détient plus de 95% du marché des puces utilisées pour le machine learning, selon le New Street Research. Ce quasi-monopole pose deux problèmes à Microsoft. Comme toutes les entreprises se ruent sur ces composants en pleine course vers l’IA, la société ne peut pas en acheter autant que nécessaire, expliquent nos confrères. Ensuite, le géant du numérique est contraint de payer chaque puce au prix fort : Athena lui permettrait de faire de sacrées économies.
À lire aussi : La Chine en passe de maîtriser la fabrication des puces… grâce à Huawei ?
Selon certains analystes, le coût d’une puce pourrait être réduit d’un tiers avec des semi-conducteurs fabriqués en interne. En sachant que ChatGPT nécessiterait plus de 30 000 puces A100 de Nvidia qui coûte 10 000 dollars l’unité – comptez 40 000 dollars pour la version améliorée de l’A100, la H100, les sommes en jeu sont colossales. Dylan Patel, un analyste de SemiAnalysis, cité par The Information, estime que faire fonctionner ChatGPT coûte près de 700 000 dollars par jour. Pour chaque requête, l’entreprise devrait débourser 0,36 centime de dollars. Et ce coût devrait exploser avec le déploiement du moteur de recherche de Microsoft, Bing, alimenté par l’IA. Ni Microsoft, ni Nvidia n’ont souhaité répondre aux demandes de commentaires de nos confrères.
À lire aussi : Que contient le Chips Act, l’accord de l’UE censé booster la production de semi-conducteurs en Europe ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : The Information