L’IA entre soupçon et discernement: une révolution silencieuse en LCB-FT?

Ces deux dernières années, l’association LCB-FT Fr a collaboré avec Quentin Rodriguez, professionnel de la conformité et étudiant-chercheur menant une enquête sur l’utilisation de l’IA dans la LCB-FT dans le cadre de son MBA Management et Data science à l’IAE de Paris. Pour évaluer la pertinence de l’intelligence artificielle dans le dispositif de surveillance des opérations, il a interrogé des dizaines de chargés de conformité, et nous dévoile aujourd’hui une synthèse de ses résultats. N’hésitez pas à nous contacter si vous souhaitez en savoir davantage sur les travaux de monsieur Rodriguez.

Du Machine Learning au Sensemaking : concilier automatisation IA et responsabilité humaine en LCB-FT

Les établissements bancaires font face à une inflation d’alertes générées par leurs outils LCB-FT. L’essentiel du travail de qualification repose encore sur des opérationnels sous pression. Le sensemaking, dans ce contexte, correspond à la co-création de sens collectif durant la transformation d’une alerte brute où les analystes assemblent des indices fragmentaires en un récit cohérent, grâce à l’appui des citoyens qui apportent du contexte et les justificatifs. L’IA permet d’accélérer le tri et réduire les sollicitations, mais ne supprime pas la nécessité d’un jugement humain. Un nouveau rôle se dessine : celui d’«arbitre», qui décide en contrôlant la cohérence de ses sources d’information, et la protection des droits citoyens, toujours via une approche par les risques.

Une perception renforcée des alertes IA

Relation entre la clarté perçue de l’interface IA (Q8) et l’explicabilité perçue (Q19): une clarté accrue de l’interface est positivement corrélée à l’explicabilité perçue.

Ce résultat suggère que plus l’interface est jugée compréhensible, plus les analystes estiment pouvoir donner du sens aux décisions de l’IA, au risque toutefois d’une confiance excessive. 

A l’issue de notre enquête, il apparaît que 61 % des répondants trouvent qu’une alerte issue de l’intelligence artificielle est plus souvent qualifiée en examen renforcé ou en déclaration de soupçon qu’une alerte issue d’un autre mécanisme de remontée. Les analystes considèrent donc ces alertes comme plus complètes et plus robustes.

Explicabilité : promesse ou illusion

Les résultats statistiques révèlent une tension : une interface plus claire de l'outil de monitoring renforce la confiance des analystes, mais peut paradoxalement accentuer le biais d’automatisation : plus la technologie semble transparente, plus l’analyste tend à suivre ses recommandations avec moins de remise en question.

Hibernation des faux positifs : un nouvel outil

Plutôt que de clôturer une alerte jugée peu significative, les modèles permettent désormais de l’hiberner : elle est mise en sommeil, mais reste active en arrière-plan. Si d’autres signaux faibles s’accumulent (nouveaux flux, cumul d’anomalies, informations externes), l’alerte est automatiquement réactivée pour réexamen.

Justice procédurale et légitimité

La légitimité d’un dispositif LCB-FT repose aussi sur sa perception par les clients et les collaborateurs eux même. Les contrôles ne sont acceptés que s’ils sont vécus comme équitables et motivés. L’IA, en introduisant une chaîne décisionnelle partiellement automatisée, doit être encadrée et garantir une justice procédurale. Cela passe par :

  • Une chaîne de responsabilité algorithmique et déontologique, retraçant qui a paramétré, validé et utilisé l’outil,

  • Un contrôle moral, où l’analyste vérifie la cohérence et assume la responsabilité finale de la décision,

  • Une décision équitable, adaptée au client et à ses droits, et proportionnée au risque,

  • Un recentrage décisionnel de l’analyste arbitre, qui place l’humain au cœur du jugement.

Vers une gouvernance hybride

La perspective est celle d’un modèle centralisé au départ pour assurer cohérence et maîtrise des risques avant d’évoluer vers un fonctionnement semi-centralisé à mesure que les établissements gagnent en maturité. La mise en œuvre de ces solutions suppose une gouvernance rigoureuse :

  • Vérification et registre des hyperparamètres avec suivi post-intégration par l’éditeur, pour garder la maîtrise,

  • Formation des analystes et managers à la prise de décision en environnement semi-automatisé : sensibilisation aux biais cognitifs, RGPD, AI Act,

  • Audit continu des explications, afin d’éviter les «illusions de transparence» et les incidents data,

  • Documentation claire de chaque alerte hibernée, avec critères de réactivation et traçabilité complète.

L’avenir de la LCB-FT dépendrait moins de la puissance des modèles que de la capacité à orchestrer un écosystème humain-machine aligné sur la régulation et légitime aux yeux des citoyens.

Quentin Rodriguez

Suivant
Suivant

Sanctions européennes contre l’Iran: on fait le point