Demandez une présentation
Découvrez comment l’IA et l’apprentissage automatique peuvent détecter de nouveaux risques pour les établissements.
Demandez une présentation gratuiteLe terme générique d’intelligence artificielle (IA) englobe toutes les méthodes par lesquelles les machines imitent la connaissance humaine, entre autres la prise de décision, l’analyse des données et la capacité à résoudre des problèmes. L’une des méthodes les plus courantes est l’apprentissage automatique (ML) qui est souvent considérée synonyme de l’IA. Pourtant, ces technologies apparentées répondent à deux définitions différentes puisque l’IA est la catégorie parente dont l’apprentissage automatique est une sous-catégorie. Selon le MIT (Massachusetts Institute of Technology), l’apprentissage automatique est une alternative à la programmation traditionnelle « qui laisse les ordinateurs apprendre à s’auto-programmer à partir de leur expérience. »
Il existe trois grands types d’apprentissage automatique :
L’IA et l’apprentissage automatique peuvent aider les équipes humaines de détection des fraudes à gagner en efficacité et en rentabilité. Dans une publication de 2021, le GAFI a étudié comment l’IA peut aider les établissements à analyser et réagir aux menaces criminelles grâce à sa vitesse et à sa précision automatisées et à classer et organiser les données de risque pertinentes.
Cette publication a mis en avant comment l’apprentissage automatique peut détecter des « anomalies et valeurs aberrantes » et « améliorer la qualité et l’analyse des données ». Par exemple, des algorithmes d’apprentissage profond intégrés à des outils dotés de fonctions d’apprentissage automatique ont pu accomplir une tâche de manière répétée en exploitant les résultats pour prendre des décisions précises concernant de futurs apports de données. Le GAFI a suggéré plusieurs moyens pour déployer l’IA et les outils d’apprentissage automatique, notamment au niveau de la supervision des transactions et du reporting automatisé des données.
Les établissements pourraient notamment être amenés à utiliser l’IA pour :
À partir de là, les analystes humains peuvent approfondir leurs investigations et décider de prendre des mesures complémentaires par rapport à l’activité du client.
En 2022, le groupe Wolfsberg a défini cinq bonnes pratiques pour garantir une utilisation responsable de l’IA et de l’apprentissage automatique afin de gérer le risque de criminalité financière. Tout système reposant sur l’intelligence artificielle doit justifier de différents critères :
Pour respecter les cinq bonnes pratiques du groupe Wolfsberg, les établissements doivent choisir une solution de gestion des risques fondée sur l’IA qui intègre l’explicabilité pour échapper au phénomène risqué de « boîte noire » : autrement dit, utiliser les décisions d’un système d’IA sans comprendre pourquoi il les a prises. L’impératif d’explicabilité est une condition fondamentale pour établir la confiance et garantir une utilisation responsable des technologies. Selon la définition du GAFI, l’explicabilité signifie que les solutions ou les systèmes technologiques sont « capables d’être expliqués, compris et pris en compte ».
La finalité de l’explicabilité va au-delà d’une simple conformité aux attentes du régulateur. Les investigateurs qui maîtrisent les outils d’IA à leur disposition peuvent prendre rapidement des décisions informées, responsables et efficaces. Des explications claires permettent aussi aux établissements d’évaluer en permanence leurs processus et d’en améliorer les performances et l’impartialité, mais aussi d’atténuer des problèmes imprévus tels que le biais algorithmique.
L’un des moyens les plus utiles et les plus pratiques d’expliquer les décisions d’IA consiste à utiliser un modèle dit « approche ensembliste. » Cette approche regroupe en les superposant plusieurs petites fonctionnalités d’IA dont chacune peut être indentifiée et expliquée comme faisant partie de la décision globale. Cette granularité contribue à ce que les choses restent compréhensibles par des humains plutôt que de s’appuyer sur un système de « boîte noire » qui exécute des fonctions complexes sans segmentation claire.
La création d’une solution antifraude peut amener à débattre du développement en interne ou externalisé du programme en question. Certains établissements optent pour une solution interne pour diverses raisons dont la rentabilité perçue, la maîtrise interne, la possibilité de l’affiner ou encore la connaissance fine. Mais beaucoup préfèreraient investir dans d’autres projets le temps, l’énergie et les ressources déployées pour développer des solutions antifraude. Considérant la richesse toujours plus grande de l’offre de solutions spécialisées, efficaces et rentables fondées sur l’IA et l’apprentissage automatique, les établissements peuvent s’intéresser à des outils externalisés de gestion des risques capables de répondre à leurs besoins et adaptables à leurs profils de risque et pratiques métier uniques.
Les établissements doivent chercher des solutions qui leur permettent d’automatiser leurs processus de conformité antifraude, y compris l’entrée en relation d’affaires et la vérification de l’identité, le filtrage et la surveillance ainsi que la supervision des transactions. Des solutions hybrides peuvent être une bonne formule pour ceux qui souhaitent améliorer leurs systèmes internes existants sans trop les bouleverser. Par exemple, une IA sur mesure peut venir compléter un système existant de supervision des transactions en l’améliorant sans devoir le refondre. Une IA qui utilise un modèle ensembliste explicable peut s’avérer une solution efficace en termes de coûts et de gestion des risques pour améliorer les outils propriétaires des entreprises et garantir ainsi des performances supérieures, une prise de décision plus rapide et une infrastructure de gestion des risques plus complète.
L’intelligence artificielle et l’apprentissage automatique peuvent accomplir certaines tâches plus efficacement que l’analyste le plus chevronné. Si certains craignent que cela ne signifie à terme qu’il sera possible de se passer des humains, beaucoup de chercheurs et régulateurs rappellent que la technologie n’est pas une solution de remplacement mais un outil qui facilite et complète l’expertise humaine. Les humains pouvant toutefois être jugés légalement responsables des décisions prises par l’IA, ils doivent prendre des mesures pour corriger toutes les erreurs qui violent les droits de l’homme. Par ailleurs, l’IA/l’apprentissage automatique peuvent faire gagner du temps aux équipes humaines afin que ces dernières puissent se consacrer à des missions plus valorisantes qui sont hors de portée de la technologie, notamment effectuer une recherche complexe sur des activités à haut risque que le système leur a présentées ou bien confirmer la meilleure mesure à prendre face à une alerte de risque.
Comme n’importe quel outil puissant, l’intelligence artificielle et l’apprentissage automatique doivent être déployés de manière responsable en respectant scrupuleusement les bonnes pratiques dès le départ. En appliquant ces principes, les établissements peuvent être mieux parés que jamais à affronter un paysage de risques LCB-FT qui évolue rapidement.
Découvrez comment l’IA et l’apprentissage automatique peuvent détecter de nouveaux risques pour les établissements.
Demandez une présentation gratuitePublié initialement 04 juillet 2023, mis à jour 20 décembre 2023
Avertissement : Ce document est destiné à des informations générales uniquement. Les informations présentées ne constituent pas un avis juridique. ComplyAdvantage n'accepte aucune responsabilité pour les informations contenues dans le présent document et décline et exclut toute responsabilité quant au contenu ou aux mesures prises sur la base de ces informations.
Copyright © 2024 IVXS UK Limited (commercialisant sous le nom de ComplyAdvantage)