Solutions

Trustworthy AI - Stratégie

Définir l'étalon de mesure par rapport auquel les équipes, les produits, les services, les processus et les outils seront jugés. Assurer une gouvernance et une infrastructure de contrôle appropriées.

La première étape pour établir des pratiques d'Intelligence Artificielle durables et éthiques vise à développer une stratégie complète.

Avant même d'envisager la conception ou la mise en œuvre d'un modèle d'IA, les organisations doivent déterminer les enjeux contextuels qui pourraient se présenter et ce qui peut être fait pour les résoudre.

Les aspects à clarifier à ce stade sont : le contexte spécifique dans lequel l'IA sera utilisée, l'impact potentiel de l'IA sur l'entreprise et sur le grand public, ainsi que les moyens d'atténuer les risques liés à l'usage de l’IA. L'établissement d'une stratégie solide en matière d'IA n'a jamais été aussi primordial. Le "Trustworthy AI Framework" de Deloitte aide les organisations à comprendre pourquoi et comment elles peuvent adresser ce sujet.

Nos use cases en fonction des stratégies adoptées

Défi

Une entreprise de médias prévoit d'automatiser certaines parties du processus de recrutement et de tirer davantage parti de l'efficacité des décisions prises par l'IA. Lorsqu'il s'agit de débattre de la question de savoir si l'IA est équitable et si elle peut prendre des décisions objectives, les opinions des collaborateurs diffèrent considérablement.

Certains affirment qu'il devrait y avoir un quota de genre pour les nouvelles embauches qui reflète le taux de diversité actuel de l'entreprise, tandis que d'autres pensent que le quota de genre devrait s'appliquer à l'éventail des candidats.

Avec des perceptions aussi différentes de ce qui est juste et de ce qui ne l'est pas, la première étape consiste à s'entendre sur une définition commune de l'équité. En outre, les individus sous-estiment souvent leurs propres biais cognitifs et préjugés implicites - ils peuvent même en être totalement inconscients, et c'est ainsi que les biais se retrouvent dans nos données et algorithmes.


Solution

En collaboration avec l'entreprise, nous développons une approche basée sur la participation de plusieurs parties prenantes afin de garantir la diversité et l'inclusion à un stade précoce et de convenir d'une définition adéquate de l'équité. Nos experts disposent ainsi d'une base pour organiser des ateliers de sensibilisation aux préjugés implicites et cognitifs.

Nous rédigeons également un code de conduite qui limitera toute utilisation potentiellement abusive de l'IA. La meilleure façon de lutter contre les préjugés, est de sélectionner des données d'entraînement appropriées. Nous veillons non seulement à ce que les données sous-jacentes soient représentatives, mais aussi à ce que l'équipe qui développe l'IA soit suffisamment diversifiée pour être sensible aux dangers des préjugés.


Résultats

En incluant des parties prenantes directement et indirectement concernées par l'IA, l'entreprise est en mesure d'intégrer différents points de vue dans sa définition de l'équité. Les ateliers ont également révélé l'existence de préjugés involontaires et délibérés au sein de l'entreprise, donnant à la direction l'occasion de résoudre ces problèmes tout en créant les meilleures conditions pour des pratiques d'IA équitables.


Défi

Une entreprise de services publics souhaite utiliser l'IA pour prédire les cyberattaques et protéger son infrastructure critique, mais elle n'est absolument pas consciente des défis techniques, des réglementations en vigueur et des risques potentiels. Avec si peu d'expérience en matière d'IA, la direction craint que l'entreprise et son infrastructure subissent d’importantes conséquences si elle se trompe dans ses prédictions.


Solution

L'équipe projet commence par l'indentification des risques potentiels, propose des mesures préventives adaptées et conseille la société de services publics sur les garanties nécessaires pour éviter les difficultés propres à l'IA. Deloitte apporte son soutien à la mise en place d'une infrastructure technologique appropriée qui garantira le bon fonctionnement du système d'IA.

Une équipe d'experts inspecte et teste les systèmes de l'entreprise afin de détecter toute lacune technologique ou opérationnelle qui pourrait empêcher l’utilisation d’une application robuste de l'IA. Il est particulièrement important de déterminer si l'architecture du système existant est compatible avec les exigences techniques et réglementaires du système d'IA prévu. Ensuite, sur la base des résultats de l'analyse, l'équipe conçoit une architecture fiable.

Résultat

Les recommandations de nos équipes aident le client à adopter une approche axée sur la gestion des risques du projet d'IA, en identifiant les problèmes dès le début et en prenant les précautions appropriées. L'entreprise dispose ainsi d'une base solide pour la mise en place de l’IA.


Défi

Une FinTech cherche à développer des produits basés sur l'IA dans le cadre de l'Open Banking. Compte tenu de l'ampleur des exigences réglementaires et de la nécessité d’appliquer des règles plus strictes en matière de protection des informations personnelles sensibles, l'entreprise ne sait pas quelles sont les réglementations actuellement en vigueur et comment s'y conformer pour ce nouveau projet.


Solution

Le projet commence par la rédaction d'un nouveau concept de protection des données pour la Fintech. La première étape consiste à identifier les nombreuses exigences réglementaires pour une utilisation des données et de l'IA conforme à la loi dans le secteur financier. Dans le « RegTech Lab » de Deloitte, l'équipe de la FinTech et deux équipes d'experts du « Center for Data Privacy » et du « Center for Regulatory Strategy » élaborent une proposition de solution.

Cela comprend, entre autres mesures, des contrôles de conformité vis-à-vis des projets de loi et des directives, pour lesquels le règlement général sur la protection des données (RGPD) et la nouvelle directive sur les services de paiement (PSD2) jouent tous deux un rôle important. Ensuite, Deloitte a élaboré un modèle complet de gouvernance des données qui garantit la conformité avec les réglementations que nous avons identifiées. L’équipe projet conçoit des instructions pratiques concernant l'accès aux données (droits d’accès), le stockage des données et le traitement des données.


Résultat

Le cadre garantissant la confidentialité des données qui en résulte permet à la FinTech de développer des outils d'IA performants et conformes à la réglementation.


Défi

Une entreprise lance une gamme d’équipements indispensables pour une maison connectée, tels que des assistants domestiques, ayant pour but de fournir aux clients un système de surveillance centralisé. Afin de fournir aux clients les fonctionnalités dont ils ont besoin et d'utiliser le système de manière optimale, les assistants domestiques doivent collecter et stocker un ensemble de données : par exemple, à savoir si les lumières de la maison sont allumées ou éteintes. Mais comme le système est toujours connecté au monde extérieur, il est très vulnérable. Des « criminels » pourraient pirater le système et utiliser les données pour savoir si le propriétaire est chez lui et organiser un cambriolage.


Solution

L'équipe cyber de Deloitte a accompagné l'entreprise afin d’élaborer des mesures préventives avant de mettre en place le service d’assistant domestique, en utilisant une approche axée sur une identification des menaces pour définir tous les risques imaginables, y compris le vol de données à un stade précoce et élaborer des contre-mesures efficaces.

Enfin, Deloitte organise une série d'ateliers de travail et de sessions dans notre « Cyber Lab » pour former les collaborateurs à des pratiques d'IA responsables et sécurisées, en les aidant à prendre conscience des enjeux liés aux applications critiques et des cyberattaques potentielles.


Résultat

Ces solutions de maison connectée qui se concentrent sur la sécurité des données peuvent conduire l'entreprise à disposer d'un avantage concurrentiel important, car le système permet d'anticiper les risques cybernétiques et les collaborateurs sont préparés à réagir le plus rapidement possible aux cyberattaques.


Défi

Une clinique privée est à la recherche d’une solution basée sur l’IA qui puisse récupérer les données du patient afin de prescrire le médicament le plus approprié. L'objectif est de fournir un traitement plus efficace tout en réduisant les coûts de personnel. Cependant, au cours de la phase initiale de développement et de conception du projet, plusieurs questions clés restent sans réponse : le système donne-t-il un avis ferme ou des recommandations ? Qui sera responsable et/ou rendra des comptes, et quelles pourraient être les autres implications potentielles ?


Solution

L'équipe de Deloitte effectue ses premières évaluations d'impact et ses tests dans la clinique afin de déterminer si le système d'IA prévu est responsable sur le plan éthique et s'il répond aux attentes des patients. En même temps, nos experts en la matière travaillent en étroite collaboration avec le personnel de la clinique afin de développer une "chaîne de responsabilité" qui déterminera les mesures à prendre et les responsables si le système d'IA prescrit le mauvais médicament, désavantage certains patients ou prescrit un dosage incorrect. L'équipe participe à un atelier pour attribuer et définir les rôles et les responsabilités des différentes parties prenantes à toutes les phases du cycle de vie de l'IA.

Dans le même temps, les chefs de projet évaluent la maturité digitale des collaborateurs et les sensibilisent aux questions éthiques dans le cadre du « Corporate Digital Responsibility Lab » de Deloitte. L'équipe d'experts conseille également la clinique lorsqu'elle établit les directives techniques et opérationnelles pour les phases ultérieures du projet. Ils soutiennent la clinique lors du déploiement du cadre de gouvernance de l'IA et des mécanismes de surveillance et les testent dans un laboratoire pratique. Cela permet à la direction de la clinique d'identifier, de surveiller et d'auditer systématiquement tous les risques/objectifs.


Résultat

Les collaborateurs de la clinique sont désormais plus conscients de ce qui constitue une utilisation responsable de l'IA et des risques et objectifs potentiels à inclure dans leur stratégie et leurs processus de révision. En outre, la clinique a une idée claire des parties prenantes, responsables des différentes phases du cycle de vie de l'IA.


Défi

Une compagnie d'assurance souhaite utiliser l'IA pour prendre des décisions plus rapides et plus précises dans le calcul des primes d'assurance. Idéalement, le calculateur doté d'IA fournira non seulement des meilleurs résultats, mais rendra également le processus plus facile à comprendre pour diverses parties prenantes.

Lorsque les primes d'assurance augmentent, la plupart des clients veulent en connaître la raison, et en vertu de l'article 22 du règlement général sur la protection des données (RGPD), ils en ont parfaitement le droit. Les développeurs doivent comprendre pleinement le fonctionnement de leur IA afin d'améliorer la transparence de ces décisions automatisées. En fin de compte, il est important que la solution d'IA calcule les primes d'assurance aussi précisément que possible et qu'elle le fasse d'une manière simple et facile à comprendre.


Solution

Nos experts utilisent l'outil d'évaluation des parties prenantes de Deloitte pour identifier qui est impliqué dans chaque étape du processus, du développement à la prise de décision basée sur l'IA. Nous recueillons les commentaires de toutes les parties prenantes (développeurs, assureurs, clients potentiels) et utilisons leurs intérêts et leurs préférences pour déterminer le type d'explications dont ils ont besoin.

Par exemple, une explication globale pour aider la compréhension du modèle lui-même ou une explication locale pour clarifier une décision automatisée spécifique - comment présenter les explications, et s'il faut les afficher sous forme de visualisation ou avec du texte.

L'objectif est de s'assurer que le processus de prise de décision est totalement transparent, sans mettre en péril la précision du système basé sur l'IA ni enfreindre les réglementations. En même temps, nous établissons un cadre systématique qui facilite la documentation des données que nous recueillons et utilisons, ce qui est important si nous devons retracer le processus décisionnel.


Résultat

L'identification des parties prenantes dès le début du processus permet à la compagnie d'assurance de rédiger quelques approches différentes de la solution d'IA et de les comparer, pour aboutir finalement à une solution qui fournit des explications simples à toutes les parties prenantes concernées ainsi que des calculs de primes aussi précis que possible.


Agissez maintenant !

Une IA digne de confiance commence par une stratégie solide. Il est fort probable que vous découvriez des défis majeurs avant même le début du cycle de vie de l'IA - et ces défis dicteront la direction que prendra le projet.

Des experts dédiés à ces problématiques travailleront avec vous pour élaborer une stratégie d'IA personnalisée, axée sur l’humain, qui aborde de front les défis technologiques et éthiques. C'est là qu'intervient le « Trustworthy AI Framework » de Deloitte, un outil efficace pour vous aider à identifier et à minimiser vos risques.

Nous vous soutiendrons dès vos premiers pas dans la mise en œuvre de l’IA dans votre organisation.

Nos offres Trustworthy AI

Vous souhaitez en savoir plus sur notre Trustworthy AI Framework ?

Nos experts

Nicolas Fleuret

Nicolas Fleuret

Responsable Risk Advisory

Nicolas a rejoint Deloitte en 2009 et est responsable des activités Risk Advisory. Avant de rejoindre Deloitte, Nicolas a passé 15 ans auprès des autorités financières en France, où il a occupé plusie... En savoir plus

Richard Eudes

Richard Eudes

Managing Director, Risk Advisory

Directeur en charge des activités Data, Technology & Analytics, Richard accompagne de nombreuses organisations dans leurs projets Data et d'Intelligence Artificielle, pour différents secteurs d'activi... En savoir plus