Groq, une start-up qui développe des puces pour exécuter des modèles d'IA génératifs plus rapidement que les processeurs conventionnels, a annoncé lundi avoir levé 640 millions de dollars lors d'un nouveau tour de financement mené par Blackrock. Neuberger Berman, Type One Ventures, Cisco, KDDI et Samsung Catalyst Fund ont également participé.
Cette tranche, qui porte le total levé par Groq à plus d'un milliard de dollars et valorise l'entreprise à 2,8 milliards de dollars, est une victoire majeure pour Groq, qui cherchait initialement à lever 300 millions de dollars à une valorisation légèrement inférieure (2,5 milliards de dollars). Elle fait plus que doubler la précédente valorisation de Groq (~1 milliard de dollars) en avril 2021, lorsque la société avait levé 300 millions de dollars lors d'un tour mené par Tiger Global Management et D1 Capital Partners.
Yann LeCun, responsable scientifique de Meta en IA, deviendra conseiller technique de Groq et Stuart Pann, ancien directeur de la division fonderie d'Intel et ancien DSI de HP, rejoindra la startup en tant que directeur opérationnel, a également annoncé Groq aujourd'hui. La nomination de LeCun est un peu inattendue, compte tenu des investissements de Meta dans ses propres puces d'IA, mais elle donne sans aucun doute à Groq un allié puissant dans un secteur où la concurrence est féroce.
Groq, qui a émergé de la clandestinité en 2016, crée ce qu'il appelle un moteur d'inférence LPU (unité de traitement du langage). L'entreprise affirme que ses LPU peuvent exécuter des modèles d'IA génératifs existants dont l'architecture est similaire à celle de ChatGPT et GPT-4o d'OpenAI, à une vitesse 10 fois supérieure et avec une consommation d'énergie dix fois inférieure.
Jonathan Ross, PDG de Groq, est connu pour avoir contribué à l'invention de l'unité de traitement des tenseurs (TPU), la puce accélératrice d'IA personnalisée de Google utilisée pour entraîner et exécuter des modèles. Ross s'est associé à Douglas Wightman, entrepreneur et ancien ingénieur du laboratoire X Moonshot de la société mère de Google, Alphabet, pour cofonder Groq il y a près de dix ans.
Groq fournit une plateforme de développement basée sur LPU appelée GroqCloud qui propose des modèles « ouverts » comme la famille Llama 3.1 de Meta, Gemma de Google, Whisper d'OpenAI et Mixtral de Mistral, ainsi qu'une API qui permet aux clients d'utiliser ses puces dans des instances cloud. (Groq héberge également un terrain de jeu pour les chatbots basés sur l'IA, GroqChat, qu'elle a lancé à la fin de l'année dernière.) En juillet, GroqCloud comptait plus de 356 000 développeurs ; Groq affirme qu'une partie des recettes de la levée de fonds sera utilisée pour augmenter la capacité et ajouter de nouveaux modèles et fonctionnalités.
« Beaucoup de ces développeurs travaillent dans de grandes entreprises », a déclaré à TechCrunch Stuart Pann, directeur opérationnel de Groq. « Selon nos estimations, plus de 75 % des entreprises du Fortune 100 y sont représentées. »
Alors que l’essor de l’IA générative se poursuit, Groq est confronté à une concurrence croissante de la part des nouveaux venus dans le domaine des puces d’IA et de Nvidia, le redoutable acteur du secteur du matériel d’IA.
Nvidia contrôle environ 70 à 95 % du marché des puces d'IA utilisées pour former et déployer des modèles d'IA génératifs, et l'entreprise prend des mesures agressives pour maintenir sa domination.
Nvidia s'est engagé à lancer une nouvelle architecture de puce IA chaque année, plutôt qu'une année sur deux comme c'était le cas par le passé. Selon certaines informations, l'entreprise serait en train de créer une nouvelle unité commerciale axée sur la conception de puces sur mesure pour les entreprises de cloud computing et autres, y compris le matériel IA.
Outre Nvidia, Groq est en concurrence avec Amazon, Google et Microsoft, qui proposent tous – ou proposeront bientôt – des puces personnalisées pour les charges de travail d'IA dans le cloud. Amazon propose ses processeurs Trainium, Inferentia et Graviton, disponibles via AWS ; les clients de Google Cloud peuvent utiliser les TPU susmentionnés et, à terme, la puce Axion de Google ; et Microsoft a récemment lancé des instances Azure en avant-première pour son processeur Cobalt 100, avec des instances Maia 100 AI Accelerator à venir dans les prochains mois.
Groq pourrait également envisager de rivaliser avec Arm, Intel, AMD et un nombre croissant de startups sur un marché des puces IA qui pourrait atteindre 400 milliards de dollars de ventes annuelles au cours des cinq prochaines années, selon certains analystes. Arm et AMD en particulier ont des activités de puces IA florissantes, grâce aux dépenses d'investissement en hausse des fournisseurs de cloud pour répondre à la demande de capacité d'IA générative.
L'année dernière, D-Matrix a levé 110 millions de dollars pour commercialiser ce qu'elle qualifie de première plate-forme de calcul d'inférence en son genre. En juin, Etched est sorti de l'ombre avec 120 millions de dollars pour un processeur conçu sur mesure pour accélérer l'architecture dominante du modèle d'IA générative aujourd'hui, le Transformer. Masayoshi Son, de SoftBank, chercherait à lever 100 milliards de dollars pour une entreprise de puces électroniques destinée à concurrencer Nvidia. Et OpenAI serait en pourparlers avec des sociétés d'investissement pour lancer une initiative de fabrication de puces électroniques.
Pour se tailler une place, Groq investit massivement dans la sensibilisation des entreprises et des gouvernements.
En mars, Groq a acquis Definitive Intelligence, une société basée à Palo Alto proposant une gamme de solutions d'IA orientées vers les entreprises, pour former une nouvelle unité commerciale appelée Groq Systems. Groq Systems a pour mission de servir les organisations, notamment les agences gouvernementales américaines et les nations souveraines, qui souhaitent ajouter les puces de Groq aux centres de données existants ou construire de nouveaux centres de données utilisant les processeurs Groq.
Plus récemment, Groq s'est associé à Carahsoft, un sous-traitant informatique du gouvernement, pour vendre ses solutions aux clients du secteur public via les partenaires revendeurs de Carahsoft, et la startup a une lettre d'intention pour installer des dizaines de milliers de ses LPU dans le centre de données norvégien de l'entreprise européenne Earth Wind & Power.
Groq collabore également avec le cabinet de conseil saoudien Aramco Digital pour installer des LPU dans les futurs centres de données au Moyen-Orient.
En même temps qu'elle établit des relations avec ses clients, Groq, basée à Mountain View en Californie, se dirige vers la prochaine génération de ses puces. En août dernier, la société a annoncé qu'elle conclurait un contrat avec la société de semi-conducteurs Global Foundries pour la fabrication de LPU 4 nm, qui devraient offrir des gains de performances et d'efficacité par rapport aux puces 13 nm de première génération de Groq.
Groq indique qu'il prévoit de déployer plus de 108 000 LPU d'ici la fin du premier trimestre 2025.