Scale AI, qui fournit des services d'étiquetage de données aux entreprises qui souhaitent former des modèles d'apprentissage automatique, a levé un milliard de dollars de série F auprès d'un grand nombre d'investisseurs institutionnels et corporatifs de renom, dont Amazon et Meta.
La collecte de fonds est un mélange de financements primaires et secondaires et constitue la dernière d’une série d’investissements importants en capital-risque dans l’IA. Amazon a récemment clôturé un investissement de 4 milliards de dollars dans Anthropic, son rival d'OpenAI, et des sociétés comme Mistral AI et Perplexity sont également en train de lever davantage de tours de table d'un milliard de dollars à des valorisations élevées.
Avant ce cycle, Scale AI avait levé environ 600 millions de dollars au cours de ses huit années d'histoire, dont une série E de 325 millions de dollars en 2021 qui la valorisait à environ 7 milliards de dollars, soit le double de la valorisation de sa série D en 2020. Trois ans plus tard, et malgré Malgré les vents contraires qui l'ont amené à licencier 20 % de son personnel l'année dernière, Scale AI est désormais valorisé à 13,8 milliards de dollars – un signe des temps, alors que les investisseurs se démènent pour prendre de l'avance dans la ruée vers l'or de l'IA.
La série F était dirigée par Accel, qui a également dirigé la série A de la société et a participé aux cycles de capital-risque ultérieurs.
Outre Amazon et Meta, Scale AI a attiré un certain nombre de nouveaux investisseurs : les branches capital-risque de Cisco, Intel, AMD et ServiceNow ont participé, tout comme DFJ Growth, WCM et l'investisseur Elad Gil. Beaucoup de ses investisseurs existants sont également revenus : Nvidia, Coatue, Y Combinator, Index Ventures, Founders Fund, Tiger Global Management, Thrive Capital, Spark Capital, Greenoaks, Wellington Management et l'ancien PDG de GitHub, Nat Friedman.
Miser sur l’importance croissante des données
Les données sont l’élément vital de l’intelligence artificielle, c’est pourquoi les entreprises spécialisées dans la gestion et le traitement des données se portent bien actuellement. La semaine dernière, Weka a annoncé avoir levé 140 millions de dollars pour une valorisation post-financement de 1,6 milliard de dollars afin d'aider les entreprises à créer des pipelines de données pour leurs applications d'IA.
Fondée en 2016, Scale AI allie l'apprentissage automatique avec la surveillance « humaine dans la boucle » pour gérer et annoter de grands volumes de données, ce qui est vital pour la formation des systèmes d'IA dans des secteurs tels que les véhicules autonomes.
Mais la plupart des données ne sont pas structurées et les systèmes d’IA ont du mal à les utiliser dès le départ. Il doit être étiqueté, ce qui demande beaucoup de ressources, en particulier avec de grands ensembles de données. Scale AI fournit aux entreprises des données correctement annotées et préparées pour les modèles de formation. Il se spécialise également dans différentes industries ayant des besoins différents : un constructeur de voitures autonomes aura probablement besoin de données étiquetées provenant de caméras et de lidar, tandis que les cas d'utilisation du traitement du langage naturel (NLP) auront besoin de texte annoté.
Les clients de l'entreprise comprennent Microsoft, Toyota, GM, Meta, le ministère américain de la Défense et, depuis août dernier, OpenAI, le créateur de ChatGPT, qui exploite Scale AI pour permettre aux entreprises d'affiner ses modèles de génération de texte GPT-3.5.
Scale AI affirme qu’elle utilisera les nouveaux fonds pour contribuer à accélérer « l’abondance de données de pointe qui ouvriront la voie à l’intelligence artificielle générale ».
« L'abondance des données n'est pas une valeur par défaut, c'est un choix », a déclaré Alexandr Wang, PDG et co-fondateur de Scale AI, dans un communiqué de presse. « Cela nécessite de rassembler les meilleurs esprits de l’ingénierie, des opérations et de l’IA. Notre vision est celle d’une abondance de données, où nous disposons des moyens de production pour continuer à faire évoluer les LLM frontières de plusieurs ordres de grandeur supplémentaires. Nous ne devrions pas être limités par les données pour accéder au GPT-10.
