Nvidia : si ce nom ne vous dit rien, cela ne devrait bientôt plus être le cas. Ce fabricant américain de puces électroniques, moins connu du grand public qu’Apple ou Google, est le grand gagnant de la course à l’intelligence artificielle. Mercredi 23 août, l’heure était à la fête au sein de la firme californienne, après la publication de ses derniers résultats trimestriels. Car si le leader mondial des semi-conducteurs allait déjà bien, même très bien, il a littéralement pulvérisé les prévisions des économistes, notamment grâce à l’intelligence artificielle dont ses puces graphiques, indispensables à l’entraînement des IA génératives, sont conçues dans ses locaux de Santa Clara.
Le géant américain des processeurs annonçait, quelques heures plus tôt, qu’il avait pour la période allant de mai à juillet 2023, doublé son chiffre d’affaires par rapport à la même période l’année dernière : ce montant atteint les 13,5 milliards de dollars, contre 11 milliards pour les estimations des analystes. Le groupe présente un bénéfice net de 6,2 milliards de dollars contre 656 millions de dollars il y a un an, soit une progression de… 845 %.
Les A100 et H100 indispensables à l’entraînement des IA génératives
Jensen Huang, l’homme qui a co-fondé le groupe il y a plus de 30 ans, s’est félicité mercredi 23 août de ces résultats record, lors de la conférence téléphonique avec des analystes. L’entreprise, longtemps cantonnée à la fabrication de cartes graphiques des jeux vidéo, a eu la bonne idée de prendre le virage de l’IA il y a plus de 10 ans. Elle a désormais dépassé les 1 000 milliards de dollars de valorisation, et rejoint le club très fermé des entreprises les plus valorisées en Bourse dont font partie Apple, Alphabet et Amazon.
Car pour fonctionner, l’IA nécessite d’énormes quantités de processeurs graphiques (GPU ou Graphics Processing Unit) actuellement conçus par Nvidia, et fabriqués par TSMC, le géant taïwanais. La firme de Santa Clara a misé très tôt – bien avant les autres – sur l’IA. En 2007, l’entreprise avait commencé à investir des sommes faramineuses dans Cuda, un langage de programmation qui permet d’utiliser la puissance de calcul des GPU pour autre chose que le traitement des graphismes. De quoi préparer le terrain des futures A100 et H100 qui permettent aujourd’hui d’entraîner les IA génératives comme le ChatGPT d’OpenAI et tous ses concurrents.
La firme optimiste pour ses prochains mois
Résultat : le groupe est quasiment le seul, aujourd’hui, à concevoir ces GPU que tous les géants de l’IA achètent. Et face à ce constat, la firme américaine est très optimiste : elle pense que son envolée devrait être encore plus spectaculaire dans les mois à venir. Notamment parce que « ce milliard de dollars de centres de données (data centers qui existent actuellement dans le monde, ndlr) est en train de passer à l’informatique accélérée et à l’IA générative », explique le PDG de Nvidia, lors de la conférence téléphonique. L’entreprise prévoit un chiffre d’affaires de 16 milliards de dollars pour le troisième trimestre.
À lire aussi : Nvidia dévoile un super calculateur monstrueux taillé pour l’ère ChatGPT
Malgré tous ces feux verts, la firme californienne sait qu’elle ne doit pas se reposer sur ses lauriers. Elle est talonnée par d’autres géants des puces comme Intel et AMD. Et elle pourrait faire face à d’autres difficultés, comme les restrictions aux exportations américaines qui l’empêchent de vendre ses puces à la Chine. Le pays représente aujourd’hui près d’un quart de ses revenus.
À lire aussi : Comment les États-Unis ont privé la Chine de semi-conducteurs … pour le meilleur et pour le pire
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Résultats financiers trimestriels de Nvidia, Communiqué de presse