OpenAI organisera sa première conférence des développeurs le 6 novembre

OpenAI, l’une des startups d’IA les mieux financées du secteur, envisage de fabriquer ses propres puces d’IA.

Selon Reuters, les discussions sur les stratégies en matière de puces IA au sein de l’entreprise se poursuivent depuis au moins l’année dernière, alors que la pénurie de puces pour entraîner les modèles d’IA s’aggrave. OpenAI envisagerait un certain nombre de stratégies pour faire progresser ses ambitions en matière de puces, notamment l’acquisition d’un fabricant de puces IA ou un effort de conception de puces en interne.

Le PDG d’OpenAI, Sam Altman, a fait de l’acquisition de davantage de puces IA une priorité absolue pour l’entreprise, rapporte Reuters.

Actuellement, OpenAI, comme la plupart de ses concurrents, s’appuie sur du matériel basé sur GPU pour développer des modèles tels que ChatGPT, GPT-4 et DALL-E 3. La capacité des GPU à effectuer de nombreux calculs en parallèle les rend bien adaptés à la formation des utilisateurs les plus exigeants d’aujourd’hui. IA capable.

Mais le boom de l’IA générative – une aubaine pour les fabricants de GPU comme Nvidia – a mis à rude épreuve la chaîne d’approvisionnement des GPU. Microsoft est confronté à une pénurie de matériel serveur nécessaire au fonctionnement de l’IA, si grave qu’elle pourrait entraîner des interruptions de service, a averti la société dans un rapport sur les résultats de l’été. Et les puces IA les plus performantes de Nvidia seraient épuisées jusqu’en 2024.

Les GPU sont également essentiels pour exécuter et servir les modèles OpenAI ; l’entreprise s’appuie sur des clusters de GPU dans le cloud pour exécuter les charges de travail des clients. Mais ils ont un coût exorbitant.

Une analyse de l’analyste de Bernstein, Stacy Rasgon, a révélé que si les requêtes ChatGPT atteignaient un dixième de la taille de la recherche Google, il faudrait initialement environ 48,1 milliards de dollars de GPU et environ 16 milliards de dollars de puces par an pour rester opérationnel.

OpenAI ne serait pas le premier à créer ses propres puces IA.

Google dispose d’un processeur, le TPU (abréviation de « Tensor Processing Unit »), pour former de grands systèmes d’IA générative comme PaLM-2 et Imagen. Amazon propose des puces propriétaires aux clients AWS à la fois pour la formation (Trainium) et l’inférence (Inferentia). Et Microsoft travaillerait avec AMD pour développer une puce d’IA interne appelée Athena, qu’OpenAI serait en train de tester.

Certes, OpenAI est dans une position de force pour investir massivement dans la R&D. L’entreprise, qui a levé plus de 11 milliards de dollars en capital-risque, approche le chiffre d’affaires annuel d’un milliard de dollars. Et elle envisage une vente d’actions qui pourrait voir sa valorisation sur le marché secondaire atteindre 90 milliards de dollars, selon un récent rapport du Wall Street Journal.

Mais le matériel est une affaire impitoyable, en particulier les puces IA.

L’année dernière, le fabricant de puces IA Graphcore, dont la valorisation aurait été réduite d’un milliard de dollars après l’échec d’un accord avec Microsoft, a déclaré qu’il prévoyait de supprimer des emplois en raison de l’environnement macroéconomique « extrêmement difficile ». (La situation est devenue encore plus désastreuse au cours des derniers mois lorsque Graphcore a signalé une baisse de ses revenus et une augmentation des pertes.) Pendant ce temps, Habana Labs, la société de puces IA appartenant à Intel, a licencié environ 10 % de ses effectifs. Et les efforts de Meta en matière de puces d’IA personnalisées ont été confrontés à des problèmes, ce qui a conduit l’entreprise à abandonner une partie de son matériel expérimental.

Même si OpenAI s’engage à commercialiser une puce personnalisée, un tel effort pourrait prendre des années et coûter des centaines de millions de dollars par an. Reste à savoir si les investisseurs de la startup, parmi lesquels Microsoft, ont l’appétit pour un pari aussi risqué.

A lire également