Etude
Construire un système fiable d’intelligence artificielle
Les clients interagissent de plus en plus avec les entreprises du secteur financier (FS) par le biais de canaux numériques. Pour accompagner cette réduction des interactions humaines, les entreprises s’appuient sur l'Intelligence Artificielle (IA) et l'analyse des données pour mieux comprendre et servir les besoins des clients. La combinaison d'un canal numérique et de l'utilisation de l'IA présente des opportunités mais aussi des risques, notamment en ce qui concerne les questions de gouvernance et de conformité.
Prenons le cas de la détection et du suivi des clients vulnérables dans un parcours numérique
Sans l'IA et l'analyse des données, il est difficile de détecter des modèles de comportements vulnérables et donc de fournir en temps utile un soutien et des solutions appropriées. Toutefois, l'utilisation de l'IA nécessite une réflexion approfondie – la protection des données, les exigences en matière de conduite des activités, ainsi qu'un examen et une remise en question rigoureux et réguliers des résultats sont essentiels pour une utilisation sécurisée des modèles d’IA.
Par ailleurs, les entreprises du secteur sont désormais soumises à une pression sociétale pour définir une raison d’être qui aille au-delà du simple profit commercial. Ce contexte apporte une troisième dimension à l'utilisation de l'IA et des informations sur les clients - l'utilisation éthique des données.
Dans ce rapport, nous examinons l'alignement et le décalage potentiel entre les exigences réglementaires en matière de conduite des activités et celle relative à la protection de la vie privée
Nous exposons comment l'éthique interagit avec la réglementation et les décisions et compromis à envisager lors de l'utilisation de solutions basées sur l'IA. Nous illustrons via une étude de cas : l’identification et la réponse aux situations de vulnérabilité lors d’un parcours client et les actions et solutions que les établissements peuvent mettre en place pour avoir des solutions d’IA dignes de confiance. Nous concluons en plaidant en faveur de nouvelles orientations réglementaires afin d’éliminer l'incertitude et permettre ainsi aux entreprises d'innover en toute confiance. Notre analyse et réflexions autour de ces différentes questions visent à informer et aider dirigeants, organes de surveillance, et responsables chargés de l'AI à répondre à ces problèmes complexes
Ce rapport s'appuie sur un précédent document sur l'IA et la gestion des risques, dans lequel nous avons exploré la nature dynamique des modèles d'IA et le risque qui en résulte ainsi que les implications en matière de gestion. Nous n'avons pas repris ici les éléments clés du rapport précédent, mais ils restent pertinents. Les défis et les solutions proposées dans ce rapport sont pertinentes pour de nombreuses juridictions, notamment dans l'UE..
Qu'entend-on par IA et systèmes d'IA ?
Il n'y a pas de consensus sur une définition précise de l'IA. Par "IA" et "systèmes d'IA", nous entendons la théorie et le développement de systèmes informatiques capables d'exécuter des tâches humaines qui requièrent normalement une intelligence humaine. Cela se fait en utilisant diverses techniques telles que l'apprentissage machine, l'apprentissage profond et le traitement du langage naturel. Pour une description détaillée, veuillez consulter notre document sur l'IA et la gestion des risques.
Construire une IA digne de confiance : les points clés
Building trustworthy AI
${sous_titre}
A comprehensive approach to conduct, data protection and ethics