Il s’avère que lorsque vous réunissez deux experts en IA, qui travaillaient tous deux auparavant chez Meta et qui recherchaient une IA responsable, la magie opère. Les fondateurs de Patronus AI se sont réunis en mars dernier pour créer une solution permettant d’évaluer et de tester de grands modèles de langage en pensant aux secteurs réglementés où il y a peu de tolérance aux erreurs.
Rebecca Qian, qui est CTO de l’entreprise, a dirigé une recherche responsable en PNL chez Meta AI, tandis que son cofondateur, le PDG Anand Kannappan, a aidé à développer des cadres de ML explicables chez Meta Reality Labs. Aujourd’hui, leur startup passe un grand jour, se lançant furtivement, tout en rendant son produit largement disponible, et en annonçant également un tour de table de 3 millions de dollars.
L’entreprise est au bon endroit au bon moment, en construisant un cadre de sécurité et d’analyse sous la forme d’un service géré pour tester de grands modèles de langage afin d’identifier les zones qui pourraient poser problème, notamment la probabilité d’hallucinations, où le modèle constitue un répondre car il lui manque les données pour répondre correctement.
« Dans notre produit, nous cherchons vraiment à automatiser et à faire évoluer l’ensemble du processus et l’évaluation du modèle pour alerter les utilisateurs lorsque nous identifions des problèmes », a déclaré Qian à TechCrunch.
Elle dit que cela implique trois étapes. « Le premier est la notation, dans laquelle nous aidons les utilisateurs à noter des modèles dans des scénarios du monde réel, tels que la finance, en examinant des critères clés tels que les hallucinations », a-t-elle déclaré. Ensuite, le produit crée des cas de test, ce qui signifie qu’il génère automatiquement des suites de tests contradictoires et teste les modèles par rapport à ces tests. Enfin, il compare les modèles à l’aide de divers critères, en fonction des exigences, afin de trouver le meilleur modèle pour un travail donné. « Nous comparons différents modèles pour aider les utilisateurs à identifier le meilleur modèle pour leur cas d’utilisation spécifique. Ainsi, par exemple, un modèle peut avoir un taux d’échec et d’hallucinations plus élevé qu’un autre modèle de base », a-t-elle déclaré.

Crédits images : Patronus IA
L’entreprise se concentre sur des secteurs hautement réglementés où de mauvaises réponses pourraient avoir de lourdes conséquences. « Nous aidons les entreprises à garantir la sécurité des grands modèles linguistiques qu’elles utilisent. Nous détectons les cas où leurs modèles produisent des informations sensibles pour l’entreprise et des résultats inappropriés », a expliqué Kannappan.
Il affirme que l’objectif de la startup est d’être un tiers de confiance lorsqu’il s’agit d’évaluer des modèles. « Il est facile pour quelqu’un de dire que son LLM est le meilleur, mais il doit y avoir une perspective impartiale et indépendante. C’est là que nous intervenons. Patronus est le gage de crédibilité », a-t-il déclaré.
L’entreprise compte actuellement six employés à temps plein, mais ils affirment qu’étant donné la rapidité avec laquelle l’espace se développe, ils prévoient d’embaucher davantage de personnes dans les mois à venir, sans s’engager sur un nombre exact. Qian affirme que la diversité est un pilier clé de l’entreprise. « C’est quelque chose qui nous tient profondément à cœur. Et cela commence au niveau de la direction chez Patronus. À mesure que nous grandissons, nous avons l’intention de continuer à mettre en place des programmes et des initiatives pour nous assurer de créer et de maintenir un espace de travail inclusif », a-t-elle déclaré.
L’amorçage de 3 millions de dollars d’aujourd’hui a été dirigé par Lightspeed Venture Partners avec la participation de Factorial Capital et d’autres investisseurs providentiels de l’industrie.