Hawk AI, une plateforme de lutte contre le blanchiment d'argent et de prévention de la fraude pour les banques, lève 17 millions de dollars

Hawk AI, une société allemande développant des solutions intelligentes de lutte contre le blanchiment d’argent (AML) et de prévention de la fraude indirecte pour les institutions financières, a levé 17 millions de dollars dans le cadre d’un cycle de financement de série B.

Auparavant, Hawk AI avait levé 10 millions de dollars et, avec 17 millions de dollars supplémentaires en banque, la société a déclaré qu’elle prévoyait de renforcer ses plans de développement de produits et d’expansion mondiale. Le tour de série B a été mené par Sands Capital, avec la participation de Picus Capital, DN Capital, Coalition et BlackFin Capital Partners.

On estime que jusqu’à 2 000 milliards de dollars de gains mal acquis sont blanchis chaque année, ce qui représente jusqu’à 5 % du PIB mondial, avec seulement 1 % de ces profits illégaux récupérés. Et c’est là que Hawk AI établit son stand.

Fondée à Munich en 2018, Hawk AI sert à améliorer la façon dont les banques et les sociétés de paiement gèrent leurs risques de conformité grâce à un système de surveillance AML modulaire et natif du cloud qui promet le « plus haut niveau d’explicabilité » dans son moteur de prise de décision alimenté par l’IA, ce qui est essentiel pour les audits et les enquêtes réglementaires.

« Les institutions financières et les régulateurs doivent être en mesure de comprendre et de faire confiance aux décisions basées sur l’IA », a déclaré Tobias Schweiger, cofondateur et PDG de Hawk AI, à TechCrunch. « L’explicabilité complète d’une telle IA est la clé pour établir la confiance et l’acceptation. »

Hawk AI : Surveillance des transactions AML, résultats explicables Crédits image: Faucon IA

Hawk AI propose des produits tels que le filtrage des paiements, le filtrage des clients, la surveillance des transactions, la fraude aux transactions et la notation du risque client, ce qui permet à ses clients de créer leur propre modèle de notation du risque en combinant des données statiques (par exemple, des données produit ou géographiques) avec des données dynamiques ( par exemple les données de transaction telles que les rapports d’activités suspectes).

Parmi ses clients figurent la plateforme européenne de gestion des dépenses Moss, la société américaine de traitement des paiements North American Bancard et la banque brésilienne Banco do Brasil Americas.

Boîte noire

Outre les anciens titulaires de l’espace tels que Verafin, BAE Systems et Oracle, il existe d’autres nouveaux venus notables dans cet espace, notamment la licorne de fraude financière Feedzai et Feature Space soutenu par VC. Cependant, Hawk AI vante ses informations d’identification natives du cloud et son modèle commercial SaaS comme l’un de ses principaux différenciateurs, par rapport aux déploiements sur site maladroits de nombreux acteurs hérités.

Mais l’entreprise tient à souligner qu’elle se concentre sur le monde de la « boîte noire » dans lequel les algorithmes d’IA et d’apprentissage automatique habitent généralement – comprendre pourquoi un algorithme a pris une décision spécifique est essentiel, et les entreprises doivent être en mesure de justifier pourquoi un client a été signalé. comme un fraudeur potentiel.

Hawk AI : Évaluation du risque client Crédits image: Faucon IA

Il convient de noter que d’autres logiciels de détection d’anomalies donnent un aperçu des facteurs qui ont conduit à un indicateur. Mais Hawk AI affirme que sa technologie en instance de brevet indique également aux utilisateurs quelle est la «gamme attendue» de comportement normal, en donnant un score pour chaque facteur de risque en utilisant le langage humain naturel. La société affirme que ce contexte est essentiel pour évaluer si un cas est qualifié d’activité suspecte ou non.

« Pour Hawk AI, l’explicabilité est composée de deux domaines », a déclaré Schweiger. « Quelle est la justification d’une décision individuelle basée sur l’IA, et comment les algorithmes qui contribuent à l’IA ont-ils été développés ? Les responsables de la conformité doivent avoir de la transparence sur les deux.

A lire également