ZenML veut être le ciment qui unit tous les outils d’IA open source. Ce framework open source vous permet de créer des pipelines qui seront utilisés par les data scientists, les ingénieurs en apprentissage automatique et les ingénieurs de plateforme pour collaborer et créer de nouveaux modèles d’IA.
La raison pour laquelle ZenML est intéressant est qu’il permet aux entreprises de créer leurs propres modèles privés. Bien entendu, les entreprises ne construiront probablement pas de concurrent GPT 4. Mais ils pourraient construire des modèles plus petits qui répondent particulièrement bien à leurs besoins. Et cela réduirait leur dépendance à l’égard des fournisseurs d’API, tels qu’OpenAI et Anthropic.
« L’idée est qu’une fois passée la première vague de battage médiatique selon laquelle tout le monde utilise OpenAI ou des API à source fermée, [ZenML] permettra aux gens de créer leur propre pile », m’a dit Louis Coppey, associé de la société de capital-risque Point Nine.
Plus tôt cette année, ZenML a levé une extension de son cycle de démarrage de Point Nine avec la participation également de l’investisseur existant Crane. Au total, la startup basée à Munich, en Allemagne, a obtenu 6,4 millions de dollars depuis sa création.
Adam Probst et Hamza Tahir, les fondateurs de ZenML, ont déjà travaillé ensemble dans une entreprise qui construisait des pipelines ML pour d’autres entreprises d’un secteur spécifique. « Jour après jour, nous devions créer des modèles d’apprentissage automatique et mettre l’apprentissage automatique en production », m’a expliqué Adam Probst, PDG de ZenML.
À partir de ce travail, le duo a commencé à concevoir un système modulaire qui s’adapterait à différentes circonstances, environnements et clients afin qu’ils n’aient pas à répéter le même travail encore et encore — cela a conduit à ZenML.
Dans le même temps, les ingénieurs qui débutent dans l’apprentissage automatique pourraient prendre une longueur d’avance en utilisant ce système modulaire. L’équipe ZenML appelle cet espace MLOps — c’est un peu comme DevOps, mais appliqué au ML en particulier.
« Nous connectons les outils open source qui se concentrent sur des étapes spécifiques de la chaîne de valeur pour créer un pipeline d’apprentissage automatique – tout s’appuyant sur les hyperscalers, donc tout sur le dos d’AWS et de Google – ainsi que des solutions sur site. « , a déclaré Probst.
Le concept principal de ZenML est celui des pipelines. Lorsque vous écrivez un pipeline, vous pouvez ensuite l’exécuter localement ou le déployer à l’aide d’outils open source comme Airflow ou Kubeflow. Vous pouvez également profiter de services cloud gérés, tels que EC2, Vertex Pipelines et Sagemaker. ZenML s’intègre également aux outils ML open source de Hugging Face, MLflow, TensorFlow, PyTorch, etc.
« ZenML est en quelque sorte ce qui rassemble tout en une seule expérience unifiée : c’est multi-fournisseurs et multi-cloud », a déclaré Hamza Tahir, CTO de ZenML. Il apporte des connecteurs, de l’observabilité et de l’auditabilité aux flux de travail ML.
La société a d’abord publié son framework sur GitHub en tant qu’outil open source. L’équipe a accumulé plus de 3 000 étoiles sur la plateforme de codage. ZenML a également récemment commencé à proposer une version cloud avec des serveurs gérés – des déclencheurs d’intégrations et de déploiements continus (CI/CD) seront bientôt disponibles.
Certaines entreprises utilisent ZenML pour des cas d’utilisation industrielle, des systèmes de recommandation de commerce électronique, la reconnaissance d’images dans un environnement médical, etc. Les clients incluent Rivian, Playtika et Leroy Merlin.
Modèles privés spécifiques à l’industrie
Le succès de ZenML dépendra de l’évolution de l’écosystème de l’IA. À l’heure actuelle, de nombreuses entreprises ajoutent des fonctionnalités d’IA ici et là en interrogeant l’API d’OpenAI. Dans ce produit, vous disposez désormais d’un nouveau bouton magique qui peut résumer de gros morceaux de texte. Dans ce produit, vous disposez désormais de réponses pré-écrites pour les interactions avec le support client.
« OpenAI aura un avenir, mais nous pensons que la majorité du marché devra avoir sa propre solution » Adam Probst
Mais ces API présentent quelques problèmes : elles sont trop sophistiquées et trop coûteuses. « OpenAI, ou ces grands modèles de langage construits à huis clos, sont conçus pour des cas d’utilisation généraux et non pour des cas d’utilisation spécifiques. Donc, actuellement, c’est beaucoup trop formé et beaucoup trop cher pour des cas d’utilisation spécifiques », a déclaré Probst.
« OpenAI aura un avenir, mais nous pensons que la majorité du marché devra avoir sa propre solution. Et c’est pourquoi l’open source les intéresse beaucoup », a-t-il ajouté.
Le PDG d’OpenAI, Sam Altman, estime également que les modèles d’IA ne constitueront pas une situation universelle. « Je pense que les deux ont un rôle important. Nous nous intéressons aux deux et l’avenir sera un hybride des deux », a déclaré Altman en répondant à une question sur les petits modèles spécialisés par rapport aux modèles larges lors d’une session de questions-réponses à Station F plus tôt cette année.
L’utilisation de l’IA a également des implications éthiques et juridiques. La réglementation évolue encore beaucoup en temps réel, mais la législation européenne en particulier pourrait encourager les entreprises à utiliser des modèles d’IA formés sur des ensembles de données très spécifiques et de manières très spécifiques.
« Gartner affirme que 75 % des entreprises abandonnent [proofs of concept] « La mise en production aura lieu en 2024. Les années à venir seront probablement parmi les moments les plus marquants de l’histoire de l’IA, où nous entrerons enfin en production en utilisant probablement un mélange de modèles fondamentaux open source affinés sur des données propriétaires », a déclaré Tahir. m’a dit.
« La valeur du MLOps est que nous pensons que 99 % des cas d’utilisation de l’IA seront pilotés par des modèles plus spécialisés, moins chers et plus petits qui seront formés en interne », a-t-il ajouté plus tard dans la conversation.
Crédits images : ZenML