4
LE DOSSIER 16 L ’analytique est en train de révo- lutionner la fonction Conformité. La mise en œuvre des différents outils et techniques que sont le data mining et le machine learning, régulière- ment masqués par un affichage marke- ting autour de l’intelligence artificielle, est souvent pertinente car ils apportent de formidables capacités d’analyse. Si l’on devait décrire les évolutions à l’œuvre, il semble que nous assistons à trois tendances lourdes. L’exploitation de la donnée de plus en plus haut au sein des feuilles de route stratégiques des Compliance Officers Après les efforts de ressources très im- portants consentis par les banques au cours des dernières années, le domaine de la lutte contre la criminalité financière constitue un terrain d’expérimentation privilégié des projets analytiques. Il s’agit de mettre en œuvre des techniques qui cherchent à améliorer les dispositifs existants tout en s’appuyant sur des ap- proches graduelles ciblées sur les étapes précises des processus afin de les faire gagner en efficacité : surveillance des opérations, cartographie des risques, scoring clientèle, screening des listes des personnes politiquement exposées (PPE) et gel des avoirs, etc. Tribune de Francis Wolinski, Directeur Analytics et Data Science, Blueprint Strategy Data mining et machine learning au service de la Compliance : état des lieux et tendances Un an après la parution du livre blanc « La révolution de la Compliance Analytics – Usages et perspectives pour les banques et assurances », le sujet de l’exploitation de la donnée pour mieux servir les objectifs des fonctions conformité n’a pas perdu en pertinence, bien au contraire. L’émergence d’un véritable écosystème dédié à l’analytique... ...AI for Finance, Insurtech Business Week, Paris Regtech Forum pour n’en citer que quelques-uns. Ils témoignent que nombre d’acteurs, tant des institutionnels que des start-up, se positionnent sur un marché en pleine expansion. De nombreux outils et plateformes émergent et dessinent un spectre extrêmement large d’ap- plications : détection automatique de données sensibles dans les fichiers et bases de données, détection de fraude à l’assurance, détection en temps réel de fraudes dans les transactions bancaires, recommandations de stratégies d’inves- tissement ou de couverture, tableau de bord réglementaire, dématérialisation de la diligence Know Your Customer (KYC), etc. L’adoption de l’analytique par les régulateurs Il s’agit pour eux d’identifier les champs d’innovation prioritaires pour enrichir les méthodes de contrôle. Grâce aux nom- breuses données recueillies auprès des établissements assujettis, l’une des prio- rités affichées de l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) est de fournir aux équipes de contrôle des ou- tils innovants de traitement des données facilitant leurs analyses et les aidant à définir leurs propositions d’action. En outre, le moteur de cet essor est ali- menté par trois « carburants » distincts : les données de plus en plus accessibles, les techniques de traitement de ces données qui se sont réellement démo- cratisées, et surtout, la réglementation qui s’est considérablement renforcée sur nombre de sujets opérés par la Confor- mité : loi Sapin 2, RGPD, réglementation LCB-FT, etc. QUELQUES CAS D’USAGE POUR LA LCB-FT Concernant la lutte contre le blanchiment de capitaux et le financement du ter- rorisme, quelques cas d’usage illustrent l’état de l’art, avec pour point commun le souci d’améliorer et d’optimiser le dispositif d’identification et de détec- tion des risques grâce à une meilleure exploitation de la donnée. Évaluation de la qualité des données Il s’agit presque toujours de la première étape réalisée dans les missions avec l’évaluation de la disponibilité, de la complétude et de la qualité des données. Cette étape, qui peut apparemment sembler anodine, est en fait essentielle

Data mining et machine learning au service de la ......mining et le machine learning, régulière - ment masqués par un affichage marke-ting autour de l’intelligence artificielle,

  • Upload
    others

  • View
    6

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Data mining et machine learning au service de la ......mining et le machine learning, régulière - ment masqués par un affichage marke-ting autour de l’intelligence artificielle,

LE DOSSIER

16

L’analytique est en train de révo-lutionner la fonction Conformité. La mise en œuvre des différents outils et techniques que sont le data

mining et le machine learning, régulière-ment masqués par un affichage marke-ting autour de l’intelligence artificielle, est souvent pertinente car ils apportent de formidables capacités d’analyse. Si l’on devait décrire les évolutions à l’œuvre, il semble que nous assistons à trois tendances lourdes.

L’exploitation de la donnée de plus en plus haut au sein des feuilles de route stratégiques des Compliance OfficersAprès les efforts de ressources très im-portants consentis par les banques au cours des dernières années, le domaine de la lutte contre la criminalité financière constitue un terrain d’expérimentation privilégié des projets analytiques. Il s’agit de mettre en œuvre des techniques qui cherchent à améliorer les dispositifs existants tout en s’appuyant sur des ap-proches graduelles ciblées sur les étapes précises des processus afin de les faire gagner en efficacité : surveillance des opérations, cartographie des risques, scoring clientèle, screening des listes des personnes politiquement exposées (PPE) et gel des avoirs, etc.

Tribune de Francis Wolinski, Directeur Analytics et Data Science, Blueprint Strategy

Data mining et machine learning au service de la Compliance :

état des lieux et tendancesUn an après la parution du livre blanc « La révolution de la Compliance Analytics – Usages et perspectives pour les banques et assurances », le sujet de l’exploitation de la donnée pour mieux servir les objectifs des fonctions conformité n’a pas perdu en pertinence, bien au contraire.

L’émergence d’un véritable écosystème dédié à l’analytique... ...AI for Finance, Insurtech Business Week, Paris Regtech Forum pour n’en citer que quelques-uns. Ils témoignent que nombre d’acteurs, tant des institutionnels que des start-up, se positionnent sur un marché en pleine expansion. De nombreux outils et plateformes émergent et dessinent un spectre extrêmement large d’ap-plications : détection automatique de données sensibles dans les fichiers et bases de données, détection de fraude à l’assurance, détection en temps réel de fraudes dans les transactions bancaires, recommandations de stratégies d’inves-tissement ou de couverture, tableau de bord réglementaire, dématérialisation de la diligence Know Your Customer (KYC), etc.

L’adoption de l’analytique par les régulateurs Il s’agit pour eux d’identifier les champs d’innovation prioritaires pour enrichir les méthodes de contrôle. Grâce aux nom-breuses données recueillies auprès des établissements assujettis, l’une des prio-rités affichées de l’Autorité de Contrôle Prudentiel et de Résolution (ACPR) est de fournir aux équipes de contrôle des ou-tils innovants de traitement des données

facilitant leurs analyses et les aidant à définir leurs propositions d’action.

En outre, le moteur de cet essor est ali-menté par trois « carburants » distincts : les données de plus en plus accessibles, les techniques de traitement de ces données qui se sont réellement démo-cratisées, et surtout, la réglementation qui s’est considérablement renforcée sur nombre de sujets opérés par la Confor-mité : loi Sapin 2, RGPD, réglementation LCB-FT, etc.

QUELQUES CAS D’USAGE POUR LA LCB-FTConcernant la lutte contre le blanchiment de capitaux et le financement du ter-rorisme, quelques cas d’usage illustrent l’état de l’art, avec pour point commun le souci d’améliorer et d’optimiser le dispositif d’identification et de détec-tion des risques grâce à une meilleure exploitation de la donnée.

Évaluation de la qualité des donnéesIl s’agit presque toujours de la première étape réalisée dans les missions avec l’évaluation de la disponibilité, de la complétude et de la qualité des données. Cette étape, qui peut apparemment sembler anodine, est en fait essentielle

Page 2: Data mining et machine learning au service de la ......mining et le machine learning, régulière - ment masqués par un affichage marke-ting autour de l’intelligence artificielle,

17

COMPLIANCES // NUMÉRO 6 // HIVER 2019

car elle conditionne la performance et la pertinence des outils mis en œuvre en aval. Le bilan des contrôles de l’ACPR publié en septembre 2019 indique d’ail-leurs : « Dans ce domaine, le contrôle de la qualité des données en amont de leur intégration dans les outils de LCB-FT et le paramétrage de ces outils s’avèrent particulièrement critiques ». Un facteur parfois limitant est le degré d’autonomie insuffisant des équipes conformité face aux maîtrises d’ouvrage informatiques pour l’accès aux données comme pour leur analyse. Le recours à des outils d’évaluation et de correction des don-nées peut faire gagner un maximum de temps dans cette phase préalable.

Alignement et complétude des référentiels de risque LCB-FT : Les outils de la conformité regorgent de référentiels : clients, produits et services, secteurs d’activités, géographie, etc. Ces référentiels ont souvent été construits de manière empirique, à partir de sys-tèmes d’information hétérogènes, et de surcroît, sans forcément de connexion avec les risques gérés par la conformité. Une seconde étape, souvent nécessaire, consiste soit à fournir un référentiel de risque, soit à compléter, à homogénéi-ser, voire à standardiser les référen-

tiels existants (avec les codifications standard ISO, NAF…). Concernant le référentiel Clients, le choix de la maille d’analyse est souvent un enjeu primor-dial. Faut-il l’appliquer à l’échelle de chaque compte ? Ou bien de chaque client, même si celui-ci détient plusieurs comptes ? Ou bien des relations d’af-faires prises plus globalement ? Là encore, les systèmes d’information exis-tants n’apportent pas immédiatement la vision souhaitée par la Conformité, et en conséquence, un travail d’intégra-tion des données et de rapprochements entre différentes bases peut être rendu nécessaire.

Segmentation fine des risques et des typologies LCB-FTUne fois les données qualifiées et les référentiels alignés, le travail d’analyse des données proprement dit peut s’ef-fectuer. Les techniques mises en œuvre relèvent des bases de données, des sta-

tistiques, du data mining et de la data visualisation. Obtenir rapidement le degré d’exposition géographique d’un portefeuille de clients et de leurs tran-sactions à partir d’une liste donnée des pays à risque élevé ; calculer la propor-tion d’une partie de la clientèle, comme les personnes politiquement exposées, en volume et comparer avec leurs actifs sous gestion ; croiser les années des en-trées en relation avec les secteurs d’ac-tivités, ou encore les formes juridiques de personnes morales, etc. Guidées par l’expertise métier, certaines visualisa-tions apportent ainsi un éclairage crucial pour segmenter de manière pertinente la clientèle et ses expositions aux poches de risques sous-jacentes. Grâce à ces analyses, la classification des risques peut ainsi être définie en cohérence avec l’exposition réelle aux risques LCB-FT. Élaborée à partir d’une analyse fondée sur les données réelles, elle est égale-ment plus crédible qu’une approche

Page 3: Data mining et machine learning au service de la ......mining et le machine learning, régulière - ment masqués par un affichage marke-ting autour de l’intelligence artificielle,

LE DOSSIER

18

classique de type top down et à dire d’expert.

Optimisation du modèle de scoring des relations d’affairesDans la prolongation de la segmentation des risques, les méthodes de machine learning peuvent être mises en œuvre pour optimiser le modèle de scoring LCB-FT de la clientèle : par exemple, en permettant de réduire les caractéris-tiques pertinentes à prendre en compte. En effet, bien souvent les modèles de scoring reposent sur un nombre important d’informations (10, 15 ou 20, voire plus). Cette accumulation génère évidemment des coûts de collecte et de mise à jour de ces informations lors du processus KYC. Après analyse, il s’avère souvent que re-lativement peu de variables sont en fait réellement pertinentes pour construire un modèle de scoring performant. Ainsi, ces analyses peuvent démontrer qu’il est possible de réduire le nombre des va-riables prises en compte, tout en conser-vant une performance comparable du modèle. Inversement, lors d’évolutions réglementaires ou de périmètre du portefeuille, il peut être nécessaire d’ajouter une variable au modèle ou bien d’en modifier une existante (par exemple, l’échange automatique d’in-formations fiscales, le poids de certains secteurs d’activités ou de géographies, les typologies de certaines personnes morales…).

Dans ce cas, l’approche analytique permettra de mesurer et d’anticiper les impacts de ce changement de calibrage sur la distribution des scores des clients. C’est un exercice très utile pour préve-nir le risque de dérapage de coûts des processus en aval, comme par exemple les revues périodiques KYC dont la fré-quence est fondée sur le niveau de risque du client.

Page 4: Data mining et machine learning au service de la ......mining et le machine learning, régulière - ment masqués par un affichage marke-ting autour de l’intelligence artificielle,

19

COMPLIANCES // NUMÉRO 6 // HIVER 2019

ANALYSE PROSPECTIVEAvec l’avènement de l’IA, qui rappe-lons-le relève plutôt des techniques de data mining et d’apprentissage automa-tique (machine et deep learning, réseaux bayésiens…), il est clair que la fonction comme les outils de la conformité vont fortement évoluer dans les années à venir.

Il est toujours difficile d’essayer de pré-dire ce type d’évolutions, premièrement parce qu’elles dépendent fortement des évolutions réglementaires mêmes, deuxièmement parce que les technolo-gies évoluent à une vitesse vertigineuse, enfin parce que tout l’écosystème de la banque, des assurances et même des banques centrales avec les cryptomon-naies, est lui-même disrupté : géants du web (GAFAM, BATX), start-up (fintechs, assurtechs, regtechs), technologies (IA, blockchain, cryptomonnaies, paiements mobiles ou instantanés), etc.

Toutefois, on peut envisager plusieurs tendances.

Augmented CompliancePlutôt que de voir des robots informa-tiques remplacer les spécialistes de la conformité, on peut imaginer qu’à moyen terme, le chargé de conformité sera assisté ou « augmenté » par des logiciels « intelligents » qui l’aideront à prendre les bonnes décisions, et ce, en permanence : entrer ou non en rela-tion d’affaires, demander ou non telle information complémentaire, effectuer ou non un suivi renforcé, examiner ou non une transaction particulière, etc. Il est vraisemblable que les outils mis à disposition des chargés de conformité comporteront systématiquement des fonctions d’analyse et de croisement automatique des informations transmises et qu’ils fourniront aux utilisateurs des

alertes, des éléments de priorisation, des mécanismes réflexes qui faciliteront leur travail en automatisant les tâches fasti-dieuses, tout en leur laissant le contrôle de certaines opérations.

Real Time ComplianceLes modèles et les outils actuels sur lesquels repose la fonction Conformité sont relativement statiques, même les outils de surveillance des transactions effectuent des analyses sur des périodes de temps relativement limitées. Il est probable que la fonction Conformité de demain devra prendre en compte tout un ensemble d’informations au fil de l’eau, et ce, afin de suivre au plus près non seulement l’évolution et le comportement de sa propre clientèle, mais aussi l’évolution réglementaire mondiale (législations et sanctions) ainsi que les nouveaux schémas de fraude susceptibles d’apparaître. Les risques portés par la clientèle devront être recalculés en permanence, voire en temps réel, comme on le voit déjà avec les paiements instantanés. Les référentiels de risques mêmes (produits, secteurs, pays, schémas de fraudes, etc.) seront mis à jour régulièrement, et ce, au gré d’une actualité spécialisée.

Éthique et IALa relative autonomie des systèmes re-levant de l’IA, en étant en mesure de prendre des décisions, pose le problème de l’explicabilité, de l’intelligibilité et de l’auditabilité de ces systèmes. Leur acceptation sociale passe nécessaire-ment par la capacité des humains à comprendre les décisions prises et les paramètres pris en compte. Il est pos-sible que l’Europe – à la suite du RGPD, s’attaquant, comme la loi Informatique et libertés édictée 40 ans auparavant, à la problématique de la collecte et de l’utilisation des données à caractère

personnel – s’attache à se doter d’un instrument législatif visant à réguler les programmes d’IA, notamment en ce qui concerne les questions d’éthiques. Dès lors qu’une réglementation sera imposée, ou bien que certaines grandes entre-prises se dotent d’une charte d’IA, il est possible que la fonction conformité ait également en charge de s’assurer que les IA développées et mises en œuvre respectent effectivement la réglemen-tation ou la charte.

Les techniques de data mining et de machine learning prennent assurément pied dans la fonction conformité. Notre expérience de missions relevant de la Compliance Analytics, menées en parti-culier dans le domaine de la LCB-FT, nous permet de constater des cas d’usage et des contextes métiers d’ores et déjà relativement variés, alors même que leur application gagne d’autres thématiques réglementaires.

En ce qui concerne la prospective de l’uti-lisation de ces techniques, les possibilités offertes par l’Augmented Compliance qui instaurera une interaction et une coopé-ration entre les chargés de conformité et les systèmes d’IA ainsi que la Real Time Compliance qui prendra en compte au fil de l’eau l’ensemble des modifications et des évolutions afférentes à la fonction constituent deux tendances structurantes.

Enfin, l’avènement des systèmes rele-vant de l’IA, poseront sans doute des questions d’éthique qui, si elles finissent encadrées par une nouvelle réglemen-tation, entreront probablement à leur tour dans le champ de la Conformité : en bref, pas de « compliance par l’IA », sans « compliance de l’IA ». //