Solutions

Trustworthy AI - Développement

Nos experts vous accompagneront dans la définition de vos objectifs et le cadrage des travaux. Les éventuelles contraintes seront évaluées pour déterminer la faisabilité ou non du projet. Les développeurs seront en lien direct avec les parties prenantes afin de déterminer l'architecture de base, les fonctionnalités et d’affiner les exigences en matière de données dans le but de respecter les considérations en matière d'explicabilité, d'équité et de confidentialité.

L'élaboration d'une solution d'IA adaptée à une organisation nécessite une planification et une mise en œuvre précise suivi d’une phase de contrôle pour anticiper les risques éventuels.

Laissées au hasard, les nouvelles technologies de ce type peuvent réserver des surprises. C'est le cas de tout système conçu par l'homme, et l'IA ne fait pas exception.

L'IA présente un grand nombre de caractéristiques qui lui sont propres et auxquelles il faut prêter une attention particulière pour que l’ensemble de la solution fonctionne correctement. Les cas d'utilisation suivants, basés sur les six dimensions du "Trustworthy AI Framework" de Deloitte pour une IA digne de confiance, illustrent parfaitement ces principes.

Nos use cases en fonction des stratégies adoptées

Défi

Une banque recherche un algorithme pour affiner ses décisions en matière de risque de crédit. Les autorités réglementaires s'attendent à ce que cet algorithme utilise uniquement des critères standards (par exemple, les cotes de crédit, la situation professionnelle, le revenu disponible) et qu'il empêche la discrimination de groupes spécifiques (par sexe, identité ethnique ou origine socio-économique).


Solution

Deloitte a développé l’application Guardian et d'autres outils pour identifier et mesurer les biais dans les données brutes, les données d'entraînement et la conception du modèle. Grâce à Guardian, nous pouvons détecter, analyser et évaluer les biais dès le début du processus de préparation des données et pour un large éventail de modèles d'IA.

Cela permet de garantir que les données sous-jacentes d'un cas d'utilisation particulier sont représentatives et que les résultats ne sont pas faussés par des biais involontaires. Le dispositif de suivi de Guardian surveille la puissance prédictive par rapport au degré de biais perçu des modèles successifs.


Résultats

Le modèle de risque de crédit de la banque prend des décisions uniquement sur la base de critères stricts sans discrimination (potentiellement illégale) sur des aspects interdits (ethnicité, sexe, religion ...) qui pourraient entraîner des décisions préjudiciables et injustes. La banque n'a donc pas à craindre d'atteinte à sa réputation ou de sanctions des régulateurspour cause de discrimination avec ses modèles d'IA.


Défi

Un constructeur automobile lance un nouveau parc de voitures dotées d'une fonction de détection automatique des voies de circulation sur la route : une automatisation de niveau 4 selon l'échelle de conduite automatisée de la Society of Automotive Engineers (SAE). Le système a des difficultés à détecter les travaux routiers, car il n'existe pas encore de normes définitives et établies.


Solution

Pendant la phase de développement, Deloitte envisage déjà de multiples fonctionnalités pour réduire les risques. L'accent est mis sur le développement de structures de modélisation résilientes et de modèles critiques pour se protéger contre les risques potentiels tels que des imprévus.

En utilisant des techniques de pointe, telles que le lissage aléatoire ou les réseaux adverses génératifs, nous formons des réseaux neuronaux profonds pour qu'ils soient robustes et pertinents face à un large panel de travaux routiers.

Le processus de développement comprend également des stress tests et des tests contradictoires pour déployer l'algorithme dans différents contextes et réentraîner l'IA pour les situations où le modèle ne serait pas suffisamment robuste.

Résultat

La fonction de détection des voies de circulation donne des résultats fiables dans toutes les situations spécifiées par le service d'assurance qualité du client. Le constructeur automobile répond aux normes réglementaires et la nouvelle flotte fonctionne en toute sécurité et comme prévu.


Défi

Une entreprise de télécommunications travaille sur un système d'IA pour prédire en fonction du marché et des attentes, quel produit proposer à ses clients et à quel prix. Au cours de la phase de développement, l'entreprise se rend compte que l'ensemble des données dont elle dispose est trop épars pour fournir des résultats pertinents, car seul un sous-ensemble de clients a donné son consentement pour l'utilisation des données en vertu du règlement général sur la protection des données (RGPD). L'entreprise a des données supplémentaires en sa possession, mais ne dispose pas des autorisations nécessaires pour les utiliser en raison de la protection des données.


Solution

Deloitte s'appuie sur son cadre d'anonymisation pour développer le système d'IA d'une manière conforme au RGPD. Il existe deux approches principales, la construction de données d'entraînement synthétiques et l'anonymisation des ensembles de données existants avec des méthodes de pointe telles que la confidentialité différentielle ou le "k-anonymty".

Ces méthodes garantissent que les pirates ne peuvent pas remonter du résultat de l'IA jusqu'à une ligne individuelle dans le jeu de données utilisées, ce qui nous permet de masquer l'influence d'un individu particulier sur le résultat et de protéger la vie privée de chaque individu.


Résultat

Le modèle final est conforme aux réglementations actuelles sur la confidentialité des données et peut résister aux attaques de désidentification. L'entreprise de télécommunications est en mesure d'utiliser des données hautement sensibles comme données d'apprentissage tout en respectant des restrictions légales.

Sachant que le système est robuste, l'entreprise peut désormais concentrer tous ses efforts sur l'obtention des meilleures performances du modèle.


Défi

Un organisme de réglementation doit mettre en place un système plus efficace pour détecter les délits financiers tels que les délits d'initié. L'agence avait appliqué avec succès l'IA pour découvrir des tendances de plus en plus nuancées.

Cependant, les criminels testent des moyens de manipuler l'algorithme de détection de l'agence pour dissimuler leur activité illégale sous le seuil de détection. Dès que le modèle est disponible en ligne, les blanchisseurs d'argent observent comment il se comporte et tentent d'inverser sa méthodologie. Leur objectif est de faire en sorte que le modèle perçoive leurs transactions frauduleuses comme légitimes.


Solution

Nos experts précisent l'environnement et les critères qui permettront au modèle de fonctionner en toute sécurité, en définissant des scénarios de menaces potentielles dès le début du processus de conception afin d'aborder les vecteurs d'attaque possibles pendant la phase de modélisation.

La conception du système tient compte à la fois des cybermenaces traditionnelles et des risques spécifiques à l'IA, par exemple en cas de fuite des données ou des modèles internes vers le public.

Cette double vulnérabilité souligne l'importance de développer le système dans une infrastructure sécurisée où l'accès est restreint et où le modèle peut rester confidentiel. En outre, nous n'utilisons que des logiciels sécurisés pour développer le modèle et des techniques de pointe pour entraîner l'IA, comme l'ajout de bruit aux données d'entraînement.


Résultat

En garantissant la "Security by Design", l'organisme de réglementation peut déployer son modèle en étant sûr d'avoir pris en compte les potentiels risques. De plus, l'organisme évite de devoir consacrer un budget important aux experts en sécurité supplémentaires pendant la phase de post-développement pour combler les failles de sécurité du système d'IA.


Défi

Une banque est en train de mettre au point un « robot-advisor » doté d'une IA, conçu non seulement pour aider les clients à constituer leur portefeuille idéal, mais aussi pour acheter et vendre automatiquement des actifs. La banque remarque un problème potentiel dans le fait de donner au « robot-advisor » l'entière responsabilité de la bonne gestion de chaque portefeuille.

Après tout, un robot peut ne pas enregistrer entièrement tout ce qui se passe dans son environnement, par exemple les changements de comportement d'achat des traders individuels, et peut dépasser les seuils de risque prédéfinis.


Solution

Dans un domaine aussi complexe que la bourse, notre équipe a ajouté des limites de contrôle et un "frein d'urgence" au logiciel du « robot-advisor », grâce auxquels le client peut désactiver l'autonomie si le robot se comporte de manière erratique en raison de changements importants dans les variables environnementales ou ne respecte pas les seuils de risque prédéfinis.

Le système surveille des indicateurs clés définis à l'avance, par exemple le volume quotidien des transactions ou le risque actuel du portefeuille d'un client, afin de suivre l'évolution des marchés financiers et des seuils de risque prédéfinis. Le système intègre également un système d'alerte précoce qui avertit les gestionnaires du robot des changements potentiels et leur rappelle de maintenir le « robot-advisor » à jour en réentraînant périodiquement les algorithmes sous-jacents.

Des pistes d'audit complètent la solution : elles capturent les données réglementaires importantes et les changements dans le cycle de vie du modèle, par exemple les changements de volatilité de l'« active trading », et les enregistrent de manière transparente et chronologique.


Résultat

Malgré la complexité de l'environnement boursier, la banque peut exploiter le « robot-advisor » en toute sécurité. Le "frein de secours" et le système d'alerte précoce limitent le risque de perte pour les clients, tandis que les pistes d'audit permettent à la banque de retracer les mauvaises décisions prises par le système, de les corriger et d'éviter qu'elles ne se reproduisent à l'avenir.


Défi

Un hôpital prévoit de lancer un assistant virtuel assisté par l'IA pour aider les médecins à prendre des décisions plus rapides et plus judicieuses et à détecter les maladies avec plus de précision. L'imagerie IRM assistée par l'IA, par exemple, peut détecter automatiquement des tumeurs potentiellement malignes. Quels que soient les avantages du système, les médecins et les patients attendent de l'algorithme qu'il révèle comment il est parvenu à son diagnostic.

Cela est nécessaire pour empêcher les médecins de recommander des traitements inefficaces qui risquent davantage de mettre les patients en danger que de les soigner. Lorsqu'il s'agit d'une question vitale, il est primordial que le système d'IA explique pleinement son processus de prise de décision.


Solution

Notre équipe d’experts met en œuvre un modèle d'IA de pointe qui améliore la précision du diagnostic et offre la transparence souhaitée. Grâce à l’application LUCID [ML], développée par nos soins, le système peut expliquer les facteurs de décision au niveau global et/ou local. Les principaux déterminants des résultats attendus sont visualisés de manière à indiquer quelles régions de l'image déterminent le diagnostic. LUCID [ML] articule les facteurs de décision dans le modèle de manière simple, ce qui aide les médecins à comprendre et à valider le processus.


Résultat

L'hôpital dispose désormais d'un système de détection du cancer utilisant un réseau de neurones de haute technologie qui offre précision, transparence et traçabilité. Grâce à cette capacité de détecter les signes les plus subtils de tumeurs malignes, les médecins ont de meilleures chances de sauver des vies ; avec le tableau de bord ergonomique de transparence, les médecins et les patients ont davantage confiance dans la qualité du diagnostic.


Agissez maintenant !

Nos experts vous accompagnent pour répondre aux attentes des organismes de réglementation, notamment en ce qui concerne la compréhension et l’équité de l’IA.  

Nos data scientists expérimentés développent des solutions d'IA ou adaptent vos systèmes d'IA existants, en respectant les principes du "Trustworthy AI Framework" de Deloitte et en veillant toujours à ce que votre solution d'IA apporte une valeur ajoutée fiable et sécurisée à votre entreprise au quotidien.

Nos offres Trustworthy AI

Vous souhaitez en savoir plus sur notre Trustworthy AI Framework ?

Nos experts

Nicolas Fleuret

Nicolas Fleuret

Responsable Risk Advisory

Nicolas a rejoint Deloitte en 2009 et est responsable des activités Risk Advisory. Avant de rejoindre Deloitte, Nicolas a passé 15 ans auprès des autorités financières en France, où il a occupé plusie... En savoir plus

Richard Eudes

Richard Eudes

Managing Director, Risk Advisory

Directeur en charge des activités Data, Technology & Analytics, Richard accompagne de nombreuses organisations dans leurs projets Data et d'Intelligence Artificielle, pour différents secteurs d'activi... En savoir plus