Intelligence artificielle L’IA dans la compliance : la « compliance augmentée »

Pour approfondir le sujet

Sur le même thème :

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...

L’IA dans la compliance : la « compliance augmentée »

L’amende record de 9 milliards de dollars (environ 8,85 milliards d’euros) infligée par le régulateur américain à BNP Paribas en 2014 pour la violation de la loi d’embargo sur l’Iran, Cuba et le Soudan est encore présente dans bien des mémoires. Les plus avertis se rappellent, courant 2018, de l’affaire Société Générale, confrontée à des allégations de corruption avec le fonds souverain libyen, qui s’est soldée par le paiement d’une pénalité de 1,3 milliard de dollars aux autorités américaines.

Tribune exclusive de Julien Briot-Hadart et Luc Julia.

Entre les deux cas, qui sont fort peu représentatifs de l’évolution de la réponse pénale au niveau européen et américain, subsiste le message d’une accélération du temps de la régulation du secteur bancaire et, par extension, du secteur financier.

Les autorités de supervision nationales et européennes sanctionnent les établissements les moins résilients en matière de prévention de ces infractions, qu’il s’agisse d’un abandon du champ éthique dans la conduite des opérations au sein de leurs équipes ou du silence de la banque sur l’existence d’une transaction suspecte ou manifestement frauduleuse.

La vigilance attendue est d’une particulière intensité, au point que, parfois, ce que l’on demande à la banque est de détecter dans la transaction la plus insignifiante le signe d’une potentielle infraction.

Lourde de conséquences, cette vigilance conduit parfois les banques à renoncer à offrir leurs services à des clients localisés dans un paradis fiscal ou dans un territoire dans lequel l’indice de corruption est élevé.

Dans un contexte de forte interconnexion et digitalisation des organisations, les missions qui incombent aux fonctions Compliance s’avèrent de plus en plus complexes et contraignantes dans la mesure où le périmètre de connaissance (réglementaire, métier, business…) et de contrôle se révèle vaste et en continuelle augmentation avec en corollaire des risques de dysfonctionnements croissants et multiformes.

Une certaine méfiance n’a pas tardé à se faire sentir parmi les professionnels. Ces derniers considèrent les tâches de conformité comme un « centre de coût » ralentissant le temps de passation des transactions et apportant des contraintes dans le choix des clients, des partenaires ou des sous-traitants. Les fonctions compliance devenues au fil du temps très consommatrices en ressources humaines (en moyenne entre 2,4 à 3,7 % des effectifs totaux d’une organisation en 2019).

Il est donc totalement compréhensible de voir les banques se tourner vers des solutions numériques innovantes, la plus intéressante d’entre elles étant l’intelligence artificielle.

Les départements de compliance peuvent aujourd’hui s’appuyer sur les nouvelles technologies (IA, machine learning, base orientée graphe …) afin de détecter des signaux ou comportements caractéristiques de dysfonctionnements répréhensibles ou délictuels tels que le non-respect des process internes, la violation de réglementations ou plus spécifiquement la détection de schémas d’intrusion, de corruption, de collusion et de fraude dont nous constatons, trop souvent impuissants, l’augmentation continuelle tant en matière de complexité que de fréquence.

Les IA ne sont cependant que des outils et n’imitent en rien le cerveau humain. Il faudra toujours l’humain pour traiter les cas inédits. Seulement les cas répétitifs pourront être traités par les IA. On parle de « simplicité intellectuelle ».

L’IA offre des capacités de traitement d’un grand volume de données qui permettent de mieux pointer les transactions frauduleuses. On peut dire que nous allons vers une « intellectualisation » du compliance officer.

L’intérêt de cette innovation est la capacité technique de ses outils à apprendre au fur et à mesure de leur utilisation à l’aide des données. Mais c’est aussi là qu’elle botte en touche. La donnée est sa ressource indispensable, sans laquelle l’algorithme ne rend pas de meilleurs résultats que l’humain. Il lui en faut des milliers pour une seule tâche que l’on songe à lui confier.

Ce processus soumet le dispositif à des erreurs potentielles, provenant d’abord de la qualité des données qu’il a consultées pour s’exécuter, mais aussi par l’effet de la nouveauté du problème, différent de ceux qui se retrouvent dans les données traitées. Ici, cette innovation ne marque donc pas l’arrêt des intuitions, l’originalité des approches ou simplement la richesse de l’expérience qui permettent, parfois mieux que l’automatisation numérique, de déceler des situations frauduleuses ou de bloquer des transactions suspectes.

Contributeur expert

Julien Briot Hadart

Julien Briot-Hadar est un expert en compliance doté d’une solide expérience dans le financeme

Partager l'article

Deux ans après l’arrivée de ChatGPT, comment la GenAI transforme la recherche en ligne et le marketing

Alors que ChatGPT vient de fêter son second anniversaire et compte aujourd'hui plus de 300 millions d'utilisateurs hebdomadaires, le rapport "Online Search After ChatGPT:...

Llama 3.3 70B : Meta dévoile son dernier ajout à la famille Llama 3, un modèle particulièrement efficace

Alors que Meta prépare le lancement des premiers modèles Llama 4 pour le début de l'année prochaine, l'entreprise a dévoilé en fin de semaine...

AgentLab, un framework open source pour le développement et l’évaluation des agents Web

Lancé par ServiceNow, AgentLab est un framework open source visant à faciliter le développement et l'évaluation d'agents Web. Son objectif principal est de soutenir...

Pleias : des modèles de langages ouverts pour une IA éthique et transparente

Pleias, une start-up française, annonce le lancement de sa première famille de grands modèles de langage (LLM), définissant de nouvelles références en matière...