Skip to main content Skip to navigation

L’état de la criminalité financière en 2024 : télécharger notre dernière étude

Comment l’IA et l’apprentissage automatique aident à prévenir et à détecter la fraude

Fraude Articles

Intelligence artificielle et apprentissage automatique sont-ils interchangeables ?

Le terme générique d’intelligence artificielle (IA) englobe toutes les méthodes par lesquelles les machines imitent la connaissance humaine, entre autres la prise de décision, l’analyse des données et la capacité à résoudre des problèmes. L’une des méthodes les plus courantes est l’apprentissage automatique (ML) qui est souvent considérée synonyme de l’IA. Pourtant, ces technologies apparentées répondent à deux définitions différentes puisque l’IA est la catégorie parente dont l’apprentissage automatique est une sous-catégorie. Selon le MIT (Massachusetts Institute of Technology), l’apprentissage automatique est une alternative à la programmation traditionnelle « qui laisse les ordinateurs apprendre à s’auto-programmer à partir de leur expérience. »

Types d’apprentissage automatique

Il existe trois grands types d’apprentissage automatique :

  • L’apprentissage supervisé – Le système apprend à interpréter des données à partir des exemples que lui fournissent en amont les humains. Sur la base des références de données libellées ainsi fournies, par exemple des photos de visages d’adulte et d’enfant, le système essaie d’identifier correctement les nouvelles données qu’il reçoit. Dans l’hypothèse où, par exemple, un enfant serait confondu par erreur avec un adulte, les humains apportent les corrections nécessaires pour améliorer la fiabilité ultérieure du système.
  • L’apprentissage non supervisé – Le système s’appuie sur un algorithme pour découvrir des points de données qui présentent les mêmes caractéristiques. Après une série d’étalonnages, il utilise ces similitudes pour identifier des groupes, parfois appelés clusters. Ainsi, le système peut identifier un groupe majeur de nouveaux clients âgés de 97 à 100 ans. Si les humains peuvent naturellement établir un groupe spécifique répondant à des critères de recherche prédéfinis, l’apprentissage automatique peut découvrir quant à lui de nombreux groupes nouveaux en identifiant des similitudes inattendues dont les humains ne tiennent pas compte.
  • L’apprentissage par renforcement – Parfois appelé agent, le système apprend par tâtonnement à résoudre des problèmes. Les humains commentent la réussite ou l’échec de l’agent et l’aident à analyser ses tentatives successives, renforçant ainsi ses actions les plus efficaces. Ce processus peut aider les humains à résoudre plus efficacement des difficultés ou à trouver de nouvelles solutions aux problèmes qu’ils ont eux-mêmes du mal à résoudre.

Les avantages de l’IA et de l’apprentissage automatique pour détecter la fraude

L’IA et l’apprentissage automatique peuvent aider les équipes humaines de détection des fraudes à gagner en efficacité et en rentabilité. Dans une publication de 2021, le GAFI a étudié comment l’IA peut aider les établissements à analyser et réagir aux menaces criminelles grâce à sa vitesse et à sa précision automatisées et à classer et organiser les données de risque pertinentes.

Cette publication a mis en avant comment l’apprentissage automatique peut détecter des « anomalies et valeurs aberrantes » et « améliorer la qualité et l’analyse des données ». Par exemple, des algorithmes d’apprentissage profond intégrés à des outils dotés de fonctions d’apprentissage automatique ont pu accomplir une tâche de manière répétée en exploitant les résultats pour prendre des décisions précises concernant de futurs apports de données. Le GAFI a suggéré plusieurs moyens pour déployer l’IA et les outils d’apprentissage automatique, notamment au niveau de la supervision des transactions et du reporting automatisé des données.

Les établissements pourraient notamment être amenés à utiliser l’IA pour :

  • Définir intuitivement des seuils de supervision des transactions frauduleuses après une analyse des données de risques. Lorsqu’un client approche ou dépasse un seuil défini, les outils d’apprentissage automatique peuvent alors décider de déclencher une alerte à la fraude sur la base des éléments connus sur le profil ou la situation financière du client.
  • Détecter des groupes de clients dont les caractéristiques indiquent qu’ils sont à plus gros risque d’être victimes ou auteurs de fraudes.
  • Découvrir des exemples de fraude dans le cadre de recherches de couvertures médiatiques négatives en utilisant le traitement du langage naturel (TALN).
  • Définir une hiérarchisation des alertes en faisant passer au premier plan celles qui présentent les plus hauts risques pour les analyser en priorité et perdre moins de temps avec les faux positifs.
  • Détecter les anomalies de manière efficace en dépassant les différentes règles pour procéder à une analyse complète des données. La détection des anomalies enrichie par l’IA pointe avec précision les comportements atypiques ou anormaux en étudiant de multiples signaux faibles dont l’association détermine un plus gros risque que s’ils étaient pris séparément.

À partir de là, les analystes humains peuvent approfondir leurs investigations et décider de prendre des mesures complémentaires par rapport à l’activité du client.

Utilisation de l’IA et de l’apprentissage automatique pour gérer les fraudes : les bonnes pratiques 

En 2022, le groupe Wolfsberg a défini cinq bonnes pratiques pour garantir une utilisation responsable de l’IA et de l’apprentissage automatique afin de gérer le risque de criminalité financière. Tout système reposant sur l’intelligence artificielle doit justifier de différents critères :

  1. Objectif légitime – Les établissements doivent définir clairement la portée des outils d’IA et préparer un plan de gouvernance tenant compte des risques en cas de mauvais usage. Les évaluations de risques doivent notamment prendre en compte l’éventualité d’un détournement des données et du biais algorithmique. De fait, le modèle de gouvernance n’est pas une nouveauté et les établissements ne partent pas de rien puisqu’il est possible d’adapter aux modèles d’IA les cadres existants de gouvernance et de gestion des risques. Ces derniers doivent aider les établissements à comprendre et à gérer efficacement les risques spécifiques liés à l’utilisation de l’IA.
  2. Utilisation proportionnée –L’IA et l’apprentissage automatique sont des outils puissants, mais leur utilité dépend de l’usage qu’en font les humains. Les établissements sont tenus d’utiliser judicieusement le pouvoir de l’intelligence artificielle, notamment de gérer tous les risques et d’évaluer régulièrement qu’ils restent proportionnels aux avantages de la lutte contre la criminalité financière tels que la hiérarchisation des alertes fondée sur le risque et la détection des liens cachés ou des risques de fraude.
  3. Conception et expertise technique – Compte tenu de la complexité et du potentiel inhérents à l’IA/le ML, il est essentiel que les équipes qui les utilisent – et celles qui les supervisent – en comprennent bien le fonctionnement. Les experts concepteurs de la technologie doivent pouvoir en expliquer et valider raisonnablement les résultats. Ils doivent savoir en définir clairement les objectifs, comprendre les limites et maîtriser le moindre revers tel que le biais algorithmique. Selon la définition du GAFI, l’explicabilité doit « permettre de comprendre le fonctionnement des solutions et la manière dont elles produisent leurs résultats ». Ce critère est indispensable pour le processus de décision des enquêteurs et pour documenter correctement le processus en jeu.
  4. Responsabilité et supervision – Les cadres de gouvernance doivent concerner l’ensemble du cycle de vie de l’IA et prouver l’efficacité de la supervision et de la responsabilité. Les établissements restent responsables de l’utilisation de l’outil, même si l’IA est fournie par un prestataire ou par un partenaire. Au-delà de former les équipes à la bonne utilisation de l’intelligence artificielle, les établissements doivent instaurer des freins et des contrepoids éthiques pour veiller à ce que la technologie et son utilisation respectent leurs valeurs et les attentes réglementaires. Par ailleurs, il est important que les équipes comprennent que la responsabilité ultime d’élaborer des programmes de LCB/FT conformes et performants incombe aux responsables de la conformité et à l’établissement.
  5. Ouverture et transparence – Les établissements se doivent de trouver le juste équilibre entre les attentes de transparence des autorités de régulation en matière d’IA et leurs propres exigences de confidentialité, surtout par rapport aux données ou informations des clients qui pourraient fournir des renseignements dans le cadre d’une éventuelle enquête. Un dialogue constant avec les autorités de régulation et une communication claire avec les clients peuvent aider. Pour respecter cette bonne pratique, les établissements doivent par ailleurs vérifier que les décisions de détection des risques prises par l’IA qu’ils utilisent sont clairement motivées et documentées. Cette explicabilité donnera aux analystes une base fiable pour mener des recherches en continu, ce qui garantira une traçabilité claire.

Atténuation des risques avec l’explicabilité de l’IA

Pour respecter les cinq bonnes pratiques du groupe Wolfsberg, les établissements doivent choisir une solution de gestion des risques fondée sur l’IA qui intègre l’explicabilité pour échapper au phénomène risqué de « boîte noire » : autrement dit, utiliser les décisions d’un système d’IA sans comprendre pourquoi il les a prises. L’impératif d’explicabilité est une condition fondamentale pour établir la confiance et garantir une utilisation responsable des technologies. Selon la définition du GAFI, l’explicabilité signifie que les solutions ou les systèmes technologiques sont « capables d’être expliqués, compris et pris en compte ».

La finalité de l’explicabilité va au-delà d’une simple conformité aux attentes du régulateur. Les investigateurs qui maîtrisent les outils d’IA à leur disposition peuvent prendre rapidement des décisions informées, responsables et efficaces. Des explications claires permettent aussi aux établissements d’évaluer en permanence leurs processus et d’en améliorer les performances et l’impartialité, mais aussi d’atténuer des problèmes imprévus tels que le biais algorithmique.

L’un des moyens les plus utiles et les plus pratiques d’expliquer les décisions d’IA consiste à utiliser un modèle dit « approche ensembliste. » Cette approche regroupe en les superposant plusieurs petites fonctionnalités d’IA dont chacune peut être indentifiée et expliquée comme faisant partie de la décision globale. Cette granularité contribue à ce que les choses restent compréhensibles par des humains plutôt que de s’appuyer sur un système de « boîte noire » qui exécute des fonctions complexes sans segmentation claire.

Des solutions antifraude externalisées ou sur site

La création d’une solution antifraude peut amener à débattre du développement en interne ou externalisé du programme en question. Certains établissements optent pour une solution interne pour diverses raisons dont la rentabilité perçue, la maîtrise interne, la possibilité de l’affiner ou encore la connaissance fine. Mais beaucoup préfèreraient investir dans d’autres projets le temps, l’énergie et les ressources déployées pour développer des solutions antifraude. Considérant la richesse toujours plus grande de l’offre de solutions spécialisées, efficaces et rentables fondées sur l’IA et l’apprentissage automatique, les établissements peuvent s’intéresser à des outils externalisés de gestion des risques capables de répondre à leurs besoins et adaptables à leurs profils de risque et pratiques métier uniques.

Les établissements doivent chercher des solutions qui leur permettent d’automatiser leurs processus de conformité antifraude, y compris l’entrée en relation d’affaires et la vérification de l’identité, le filtrage et la surveillance ainsi que la supervision des transactions. Des solutions hybrides peuvent être une bonne formule pour ceux qui souhaitent améliorer leurs systèmes internes existants sans trop les bouleverser. Par exemple, une IA sur mesure peut venir compléter un système existant de supervision des transactions en l’améliorant sans devoir le refondre. Une IA qui utilise un modèle ensembliste explicable peut s’avérer une solution efficace en termes de coûts et de gestion des risques pour améliorer les outils propriétaires des entreprises et garantir ainsi des performances supérieures, une prise de décision plus rapide et une infrastructure de gestion des risques plus complète.

Ce qu’il faut retenir

L’intelligence artificielle et l’apprentissage automatique peuvent accomplir certaines tâches plus efficacement que l’analyste le plus chevronné. Si certains craignent que cela ne signifie à terme qu’il sera possible de se passer des humains, beaucoup de chercheurs et régulateurs rappellent que la technologie n’est pas une solution de remplacement mais un outil qui facilite et complète l’expertise humaine. Les humains pouvant toutefois être jugés légalement responsables des décisions prises par l’IA, ils doivent prendre des mesures pour corriger toutes les erreurs qui violent les droits de l’homme. Par ailleurs, l’IA/l’apprentissage automatique peuvent faire gagner du temps aux équipes humaines afin que ces dernières puissent se consacrer à des missions plus valorisantes qui sont hors de portée de la technologie, notamment effectuer une recherche complexe sur des activités à haut risque que le système leur a présentées ou bien confirmer la meilleure mesure à prendre face à une alerte de risque.

Comme n’importe quel outil puissant, l’intelligence artificielle et l’apprentissage automatique doivent être déployés de manière responsable en respectant scrupuleusement les bonnes pratiques dès le départ. En appliquant ces principes, les établissements peuvent être mieux parés que jamais à affronter un paysage de risques LCB-FT qui évolue rapidement.

Demandez une présentation

Découvrez comment l’IA et l’apprentissage automatique peuvent détecter de nouveaux risques pour les établissements.

Demandez une présentation gratuite

Publié initialement 04 juillet 2023, mis à jour 20 décembre 2023

Avertissement : Ce document est destiné à des informations générales uniquement. Les informations présentées ne constituent pas un avis juridique. ComplyAdvantage n'accepte aucune responsabilité pour les informations contenues dans le présent document et décline et exclut toute responsabilité quant au contenu ou aux mesures prises sur la base de ces informations.

Copyright © 2024 IVXS UK Limited (commercialisant sous le nom de ComplyAdvantage)