Intrinsic, soutenu par Y Combinator, construit une infrastructure pour les équipes de confiance et de sécurité

Il y a quelques années, Karine Mellata et Michael Lin se sont rencontrés alors qu’ils travaillaient au sein de l’équipe d’ingénierie de fraude et de risque algorithmique d’Apple. Les deux ingénieurs, Mellata et Lin, ont contribué à résoudre les problèmes d’abus en ligne, notamment le spam, le botting, la sécurité des comptes et la fraude des développeurs, pour la clientèle croissante d’Apple.

Malgré leurs efforts pour développer de nouveaux modèles pour suivre l’évolution des schémas d’abus, Mellata et Lin ont estimé qu’ils prenaient du retard – et ont dû reconstruire les éléments essentiels de leur infrastructure de confiance et de sécurité.

« Alors que la réglementation exerce une surveillance accrue sur les équipes pour centraliser leurs réponses quelque peu ponctuelles en matière de confiance et de sécurité, nous avons vu une véritable opportunité pour nous de contribuer à moderniser cette industrie et à construire un Internet plus sûr pour tous », a déclaré Mellata à TechCrunch dans une interview par courrier électronique. « Nous rêvions d’un système capable de s’adapter comme par magie aussi rapidement que les abus eux-mêmes. »

Mellata et Lin ont donc co-fondé Intrinsic, une startup qui vise à donner aux équipes de sécurité les outils nécessaires pour prévenir les comportements abusifs sur leurs produits. Intrinsic a récemment levé 3,1 millions de dollars lors d’un tour de table auquel ont participé Urban Innovation Fund, Y Combinator, 645 Ventures et Okta.

La plate-forme d’Intrinsic est conçue pour modérer le contenu généré par les utilisateurs et par l’IA, en fournissant une infrastructure permettant aux clients (principalement les sociétés de médias sociaux et les marchés de commerce électronique) de détecter et d’agir sur le contenu qui enfreint leurs politiques. Intrinsic se concentre sur l’intégration de produits de sécurité, en orchestrant automatiquement des tâches telles que l’interdiction d’utilisateurs et le signalement du contenu à examiner.

« Intrinsic est une plateforme de modération de contenu IA entièrement personnalisable », a déclaré Mellata. « Par exemple, Intrinsic peut aider une société d’édition qui génère du matériel marketing à éviter de donner des conseils financiers, ce qui entraîne des responsabilités juridiques. Ou nous pouvons aider les marchés à détecter des inscriptions telles que des coups de poing américains, qui sont illégales en Californie mais pas au Texas.

Mellata fait valoir qu’il n’existe pas de classificateurs disponibles dans le commerce pour ces types de catégories nuancées, et que même une équipe de confiance et de sécurité disposant de ressources suffisantes aurait besoin de plusieurs semaines, voire mois, de temps d’ingénierie pour ajouter de nouvelles catégories de détection automatisée dans -maison.

Interrogé sur les plates-formes rivales comme Spectrum Labs, Azure et Cinder (qui est presque un concurrent direct), Mellata dit qu’il voit Intrinsic se démarquer par (1) son explicabilité et (2) ses outils considérablement étendus. Intrinsic, a-t-il expliqué, permet aux clients de « l’interroger » sur les erreurs qu’il commet dans les décisions de modération de contenu et propose des explications sur son raisonnement. La plateforme héberge également des outils de révision manuelle et d’étiquetage qui permettent aux clients d’affiner les modèles de modération sur leurs propres données.

« La plupart des solutions conventionnelles de confiance et de sécurité ne sont pas flexibles et n’ont pas été conçues pour évoluer en cas d’abus », a déclaré Mellata. « Les équipes de confiance et de sécurité aux ressources limitées recherchent plus que jamais l’aide des fournisseurs et cherchent à réduire les coûts de modération tout en maintenant des normes de sécurité élevées.

En l’absence d’audit tiers, il est difficile de dire à quel point les modèles de modération d’un fournisseur donné sont précis – et s’ils sont sensibles aux types de biais qui affectent les modèles de modération de contenu ailleurs. Mais Intrinsic, dans tous les cas, semble gagner du terrain grâce aux « grandes entreprises établies » qui signent en moyenne des contrats dans la fourchette « à six chiffres ».

Les plans à court terme d’Intrinsic consistent à augmenter la taille de son équipe de trois personnes et à étendre sa technologie de modération pour couvrir non seulement le texte et les images, mais aussi la vidéo et l’audio.

« Le ralentissement plus généralisé de la technologie suscite davantage d’intérêt pour l’automatisation pour la confiance et la sécurité, ce qui place Intrinsic dans une position unique », a déclaré Mellata. « Les COO se soucient de réduire les coûts. Les responsables de la conformité se soucient de réduire les risques. Intrinsèque aide dans les deux cas. Nous sommes moins chers et plus rapides et détectons bien plus d’abus que les fournisseurs existants ou les solutions internes équivalentes.

A lire également