Solutions

L'intelligence Artificielle digne de confiance

Une technologie clé pour répondre aux défis actuels.

L'intelligence artificielle (IA) aura un impact sur notre vie quotidienne dans tous les secteurs de l'économie. Toutefois, pour tenir ses promesses, nous devons être prêts à accorder notre confiance à ses résultats. Nous avons donc besoin de modèles d'IA qui répondent à un certain nombre de critères.

Depuis que le terme a été inventé dans les années 1950, l'IA fascine le monde. Mais l'inquiétude concernant son omniprésence a cédé progressivement la place à une vision réaliste : l'IA est une technologie ou un ensemble de technologies sophistiquées à haut potentiel, susceptible d'offrir des avantages économiques, scientifiques et sociétaux considérables. Au cours des dix prochaines années, les experts s'attendent à des répercutions économiques de l'IA entre 12 et 16 milliards d'euros dans le monde.

Correctement mise en place, l'IA nous permet d’être plus performant. Cependant, une bonne mise en œuvre n'est pas automatique, cela requiert des compétences, de l'expérience et de la rigeur. Les boîtes à outils open source ont effectivement "démocratisé" le développement de logiciels et elles ont entraîné une prolifération rapide des outils basés sur l'IA, qu'ils soient conçus par des experts ou des débutants. Cette dynamique présente à la fois des opportunités et des risques.


La qualité des modèles varie considérablement et ces modèles d'IA ne peuvent pas être tenus eux-mêmes responsables des résultats erronés. Ces réalités posent plusieurs problèmes de gouvernance, reconnus par les chercheurs, les praticiens, les chefs d'entreprise et les régulateurs. La réglementation de l'IA proposée par la Commission Européenne reconnaît ces risques. Elle répond au besoin de qualité des données, de transparence, d'équité, de sécurité, de robustesse et surtout d'éthique dans l'application de l'IA. Si la réglementation se concentre sur le "Quoi", notre objectif est de vous guider sur le "Comment".

Un grand nombre de nos clients utilisent déjà l'IA, mais des inquiétudes sur sa fiabilité subsistent. Pour résoudre ce défi, nous avons interrogé des data scientists, des informaticiens, des mathématiciens, ainsi que des experts en risque, en éthique et en économie à travers le monde entier. Le résultat : un "Trustworthy AI Framework", résumant les critères clés que l'IA doit satisfaire pour gagner notre confiance :

L'IA digne de confiance doit être équitable et impartiale

Sans contrôles appropriés, l'IA risque de perpétuer les préjugés inhérents aux données sur lesquelles elle a été entraînée. Des décisions erronées aux discriminations illégales en passant par les atteintes à la réputation, les conséquences sont considérables. Comment pouvons-nous intégrer l'équité dans l'IA ?

Une préoccupation courante concernant l'IA est de savoir comment contourner les préjugés introduits par les humains au cours des processus de développement des algorithmes. A l'instar de tout modèle, l'exactitude prédictive dépend largement de la qualité des données d'entrée. Avec des algorithmes entraînés sur des données, les modèles d'IA sont particulièrement sensibles. Si les données d'entraînement ne sont pas représentatives, les modèles d'IA seront probablement systématiquement biaisés. Un autre danger est la perpétuation des préjugés humains historiques intégrés au modèle.

Pour éviter le préjudice causé par les biais d'entrainement, les entreprises doivent déterminer ce qui constitue l'équité et identifier les failles au sein de leurs algorithmes et de leurs données et mettre en place des contrôles pour éviter les résultats imprévus.


L'IA digne de confiance doit être robuste et fiable

Les potentielles défaillances des modèles doivent être anticipées, et leurs impacts maîtrisés. Que se passe-t-il lorsque les modèles d'IA sont confrontés à des données inattendues ? Échouent-ils ? Si oui, échouent-ils de manière prévisible ?

En utilisant des méthodes statisticiennes, une attention particulière doit être apportée pour garantir la fiabilité des résultats des modèles d'IA. Les nouvelles méthodes peuvent offrir de grands avantages pour les cas de test, mais ne pas être transférables à d'autres. En l'absence de connaissances spécialisées et de vérifications rigoureuses, les modèles peuvent être compromis.

Pour que l'IA soit largement adoptée, elle doit être aussi fiable et robuste que les systèmes, les processus traditionnels et les personnes qu'elle vient renforcer. Les entreprises doivent s'assurer que leurs algorithmes produisent les résultats escomptés pour chaque nouvel ensemble de données. Elles ont également besoin de processus définis pour gérer les problèmes et les incohérences qui peuvent survenir.


L'IA digne de confiance doit préserver la vie privée

L'IA doit être conçue pour offrir un pouvoir prédictif élevé sans devoir s'appuyer sur des données privées ou sensibles. Comment s'assurer que seules les données autorisées sont utilisées, que la vie privée est préservée ?

Le volume, la profondeur et l'étendue des données disponibles augmentent rapidement d'année en année. Les organisations à la pointe de la technologie utilisent des techniques d'IA pour en récolter la valeur. Pourtant, toutes les données ne sont pas forcément traitées de la même manière. Les données privées ou sensibles méritent un traitement spécifique comme la réglementation l'exige.

Deloitte rend possible une IA digne de confiance en instaurant avec ses clients un cadre qui assure la protection et la confidentialité des données comme préconisé par les régulateurs. La RGPD fournit un cadre général, mais d'autres lois peuvent être applicables en fonction du champ d’application de l'IA. Les organisations doivent s'assurer que la vie privée des consommateurs est respectée, que les données des clients ne sont pas exploitées au-delà de l'usage prévu et déclaré, et que les consommateurs peuvent accepter ou refuser de partager leurs données.


L'IA digne de confiance doit être sûre et sécurisée

Pour réaliser leur potentiel, les modèles d'IA doivent être déployés, tout en maximisant la sécurité face aux éventuelles cyberattaques et autres risques. Comment s'assurer que tous les vecteurs d'attaques sont suffisamment évalués et sécurisés ?

Basés sur les données et dans le cas du Deep Learning, la labélisation par des experts, les modèles d'IA permettent aux organisations d'appliquer leur expertise à une plus grande échelle. Pour que l'effet multiplicateur prenne racine, les modèles d'IA doivent "sortir du lab" et entrer dans des environnements de production, où ils sont, comme tout modèle, exposés au monde extérieur et donc vulnérables aux cyberattaques.

Pour être digne de confiance, l'IA doit être protégée contre les risques, y compris les risques de cybersécurité, qui pourraient entraîner des dommages physiques et/ou numériques. Les entreprises doivent examiner et traiter en profondeur tous les types de risques, puis communiquer ces risques aux utilisateurs.


L'IA digne de confiance doit être responsable et redevable

Les sujets de l'IA sont-ils correctement informés et ont-ils consenti au traitement qui sera fait par l'IA ? Le succès et la disponibilité des méthodes open-source ont suscité un grand intérêt dans les modèles d'IA. Les modèles peuvent être facilement mis à jour en fonction des nouvelles données. La prolifération des modèles d'IA introduit un défi de gouvernance qui lui est propre : de nombreux modèles ne sont pas comptabilisés et présentent des niveaux de qualité différents.

Qui est responsable si un modèle échoue ? Le développeur, l'examinateur, le chef de produit, l'ingénieur en apprentissage automatique ou la direction générale ? La personne qui connaît intimement les rouages du modèle ou celle qui peut être amenée à témoigner devant un organisme public ?

Le fondement d'une IA digne de confiance est un cadre de gouvernance d'entreprise de bout en bout, qui se concentre sur les risques et les contrôles du système. Pour mettre en place une IA responsable, le cadre ne doit pas seulement intégrer toutes les parties du cadre de l'IA, mais aussi définir qui est responsable et qui doit rendre compte de ses résultats.


L'IA fiable doit être transparente et explicable

L'explication du fonctionnement interne d'un modèle d'IA facilite sa compréhension. La transparence inspire la confiance. Pourtant, les réseaux neuronaux les plus performants sont connus pour être les plus opaques. Comment obtenir le meilleur des deux mondes ?

Si les modèles d'IA peuvent exceller en termes de précision, ils laissent beaucoup à désirer en termes de transparence. L'opacité augmente avec la complexité du modèle : les modèles non linéaires peuvent bien refléter le monde qu'ils approchent, mais sont difficiles à appréhender. Une compréhension limitée se traduit par une acceptation limitée.

Pour que l'IA soit digne de confiance, l’ensemble des parties prenantes ont le droit de comprendre comment leurs données sont utilisées et comment le système d'IA prend des décisions. Les organisations doivent être prêtes à élaborer des algorithmes, des attributs et des corrélations facilement contrôlables.


Notre accompagnement

La confiance doit être présente au cœur de l'IA. Pour s'assurer que la confiance est intégrée « by design », nous devons rendre opérationnelles les caractéristiques de confiance dans les processus qui donnent naissance aux produits et services d'IA. Cela inclut non seulement les étapes essentielles du développement de l'IA, mais aussi le cycle de vie et son écosystème : 

  • Largement défini par la culture, la stratégie, l'état d'esprit en matière de contrôle, ainsi que par la gestion des produits et les compétences techniques de l'organisation qui développe la solution d’IA.
  • Également défini par des facteurs externes : environnement réglementaire, normes et valeurs sociétales.

Des délais restreints, des budgets limités et d'autres pressions augmentent le risque d'erreurs dans les processus de création de système d’IA. Un accompagnement rigoureux est nécessaire pour garantir une IA de confiance « By Design » : de la conception au prototypage, de l'intégration aux tests, et finalement au pilotage et à la gouvernance générale.

Nos offres Trustworthy AI

Les bénéfices clients

Une technologie de confiance dans votre industrie et/ou votre secteur

Découvrir nos use cases par secteur :

Vous souhaitez en savoir plus sur notre Trustworthy AI Framework ?

Nos experts

Nicolas Fleuret

Nicolas Fleuret

Responsable Risk Advisory

Nicolas a rejoint Deloitte en 2009 et est responsable des activités Risk Advisory. Avant de rejoindre Deloitte, Nicolas a passé 15 ans auprès des autorités financières en France, où il a occupé plusie... En savoir plus

Richard Eudes

Richard Eudes

Managing Director, Risk Advisory

Directeur en charge des activités Data, Technology & Analytics, Richard accompagne de nombreuses organisations dans leurs projets Data et d'Intelligence Artificielle, pour différents secteurs d'activi... En savoir plus