Article
6 minute read 01 December 2021

Garder l'IA privée : le chiffrement homomorphe et l'apprentissage fédéré peuvent être à la base d'une IA plus privée et plus sûre

Ces technologies émergentes de sauvegarde des données utilisées dans les applications d'IA sont aujourd'hui disponibles et efficaces. Le défi consiste maintenant à les rendre plus pratiques

Le cryptage homomorphe (HE) et l'apprentissage fédéré (FL) sont deux technologies différentes mais apparentées qui visent à résoudre le même problème : comment les tâches d'IA telles que l'apprentissage automatique peuvent-elles être effectuées de manière plus privée et plus sûre ? Deloitte Global prévoit que, sous l'effet de l'urgence croissante de cette question, le marché combiné de l'HE et du FL connaîtra une croissance à deux chiffres en 2022 pour atteindre plus de 250 millions de dollars US. D'ici 2025, nous prévoyons que ce marché dépassera les 500 millions de dollars américains.1

Plus les données sont sûres, plus l'IA peut être utilisée à grande échelle

HE et FL, qui font partie d'un groupe de technologies connues sous le nom de technologies d'amélioration de la confidentialité (PET),2 sont des outils destinés à rendre l'IA plus privée et plus sûre. HE permet à l'apprentissage automatique d'utiliser les données pendant qu'elles sont cryptées ; tout autre apprentissage automatique doit d'abord décrypter les données, ce qui les rend vulnérables. FL distribue l'apprentissage automatique aux dispositifs locaux ou périphériques plutôt que de conserver toutes les données au même endroit où un seul piratage pourrait tout exposer, ce qui est le cas avec l'apprentissage automatique centralisé. Ils ne s'excluent pas mutuellement : HE et FL peuvent être utilisés en même temps. 

Le principal moteur de la croissance du marché de l'HE/FL est la demande florissante d'approches plus privées et sécurisées de l'IA. Tout le monde sait que l'IA est une technologie clé dans de nombreux secteurs, mais de multiples acteurs se concentrent désormais sur la confidentialité et la sécurité comme jamais auparavant. Les entreprises qui utilisaient l'IA considèrent l'HE et le FL comme un moyen de réduire les risques futurs. Cela est particulièrement vrai pour les entreprises du cloud qui utilisent l'IA, car les données doivent être transmises vers et depuis le cloud et traitées hors site, ce qui introduit des problèmes potentiels de confidentialité et de sécurité. Les régulateurs réglementent l'IA d'une nouvelle manière3, et HE et FL peuvent permettre aux entreprises de mieux se conformer à ces réglementations. Les très grands marchés, notamment ceux de la santé et de la sécurité publique, sont très sensibles aux implications de l'IA en matière de confidentialité et de sécurité, et ils commencent à étudier l'HE et le FL pour répondre à ces préoccupations. 

L'HE et le FL sont des technologies relativement nouvelles, et toutes deux sont plus complexes que les solutions d'IA traditionnelles. Chacune d'entre elles, bien qu'efficace, présente des inconvénients. Le calcul avec l'HE est plus lent que le calcul avec des données non cryptées ; le FL nécessite des processeurs plus puissants sur les appareils périphériques ainsi qu'une connectivité rapide et très fiable entre le matériel central des centres de données, où réside le principal logiciel d'IA, et la périphérie, où l'apprentissage a lieu. (Dans ce cas, le terme "périphérie" peut désigner un appareil tel qu'un smartphone ou un appareil ménager situé à quelques centaines de mètres des robots dans une usine, par exemple).

Les obstacles sont toutefois moins importants qu'il y a quelques années. D'une part, les technologies sans fil Wi-Fi 6 et 5G, avec leur vitesse et leur fiabilité accrues, sont de plus en plus répandues, ce qui rend plus pratique le recours aux périphériques. Certains fournisseurs rendent également l'HE et le FL plus faciles à utiliser en publiant des outils open-source pour rendre le processus plus accessible aux non-experts.4 Mais les véritables gains en termes de praticité proviennent des améliorations du coût/de la performance des processeurs. Alors que l'HE était auparavant un trillion de fois plus lente que l'informatique non cryptée, elle est aujourd'hui, dans certains cas, seulement 20 % plus lente grâce à de nouveaux processeurs spécialisés.5 De même, les processeurs périphériques nécessaires pour alimenter le FL deviennent plus puissants, moins chers et plus largement déployés. L'HE complète est actuellement gourmande en processeurs, et des avancées significatives dans les processeurs optimisés pour l'HE pourraient réduire considérablement son temps et son coût.6

Normalement, nous ne prenons pas la peine de faire des prédictions sur des technologies aussi peu importantes en termes de dollars que HE et FL. Pourquoi faisons-nous une exception ? En partie parce que ces deux technologies sont à la croisée des chemins. Les régulateurs du monde entier commencent à élaborer des règles spécifiques à l'IA, et bien que le GDPR existe depuis 2016, il n'a pas été le dernier mot en matière de réglementation de la vie privée : De nouvelles règles sur le sujet sont publiées chaque mois, et l'application du GDPR est peut-être en train de passer à un autre niveau. En raison de ces réglementations, les vendeurs et les utilisateurs sont susceptibles de voir que l'utilisation de l'IA deviendra plus difficile dans un nombre croissant de juridictions et d'industries. Et HE et FL pourraient aider les entreprises à répondre à ces exigences réglementaires, élargissant considérablement leurs possibilités d'utiliser l'IA.

L'autre raison majeure pour laquelle nous parlons de HE et FL maintenant est de savoir qui les utilise. Selon un récent référentiel des TEP, il existe 19 pilotes, produits et preuves de concept annoncés publiquement pour le chiffrement homomorphe et l'analytique fédérée (un autre terme pour l'apprentissage fédéré) combinés. Cela ne semble pas beaucoup... mais parmi les entreprises qui les proposent figurent Apple,7 Google, Microsoft, Nvidia, IBM et le National Health Service du Royaume-Uni, et parmi les utilisateurs et les investisseurs figurent la DARPA, Intel, Oracle, Mastercard et la Banque Scotia. Les industries impliquées dans ces premiers projets sont également parmi les plus importantes. Les cas d'utilisation sont menés par la santé et les soins sociaux et la finance, leur utilisation dans le numérique et la criminalité et la justice n'étant pas non plus négligeable (figure 1).8

La ligne de fond 

Alors que certaines des plus grandes entreprises du monde adoptent l'HE et le FL, les organisations intéressées par la confidentialité et la sécurité des données sensibles devraient continuer à surveiller ces technologies et d'autres PET, même s'il est peu probable que la plupart d'entre elles trouvent l'HE ou le FL immédiatement utiles en 2022. Les plus intéressés seront probablement :

  • Les fournisseurs de cloud et les utilisateurs de cloud.9
  • Les organisations dans des secteurs particulièrement sensibles tels que les soins de santé, la finance et le secteur public, notamment la criminalité et la justice. 
  • Les entreprises qui souhaitent partager et comparer des données avec leurs concurrents, mais sans exposer les "joyaux de la couronne" de la propriété intellectuelle.
  • Les responsables de la sécurité informatique et leurs équipes

Comme pour d'autres technologies émergentes telles que l'informatique quantique (abordée ailleurs dans Prédictions TMT 2022), les organisations qui explorent les HE et FL peuvent faire plusieurs choses pour se préparer à ce qui les attend probablement :

Comprendre l'impact sur l'industrie. Quelles répercussions les TEP, y compris l'HE et le FL, pourraient-elles avoir sur leur propre industrie ainsi que sur les industries adjacentes ? Que signifierait une IA plus privée et sécurisée d'un point de vue stratégique, opérationnel et concurrentiel ? Pour comprendre cela, les dirigeants doivent se tenir au courant des progrès de la technologie et surveiller la façon dont les pairs, les concurrents et les partenaires de l'écosystème investissent dans cette technologie et l'expérimentent.

Créez une stratégie. Les organisations doivent réunir des personnes compétentes pour élaborer une stratégie de TEP. Pour l'instant, la stratégie peut consister à ne rien faire, mais les dirigeants peuvent se préparer à l'avenir en identifiant un événement déclencheur - tel qu'un développement concurrentiel ou technologique - qui signale la nécessité de commencer ou d'augmenter les investissements et l'exploration. Il faut nommer un responsable qui possède les compétences, les connaissances et le statut organisationnel nécessaires pour exécuter la stratégie le moment venu.

Surveiller les développements technologiques et industriels. La stratégie HE et FL doit évoluer en fonction de l'état de la technologie et du marché. Les dirigeants doivent ajuster la stratégie pour refléter ces changements et s'assurer de ne pas laisser passer l'événement déclencheur sans agir.

Introduire la cybersécurité plus tôt. La cybersécurité n'est souvent intégrée aux processus d'IA qu'au cours de la phase de déploiement. Au lieu de cela, les entreprises peuvent souhaiter faire intervenir la cybersécurité plus tôt, en même temps qu'elles utilisent l'IA et l'AF. Cette approche plus collaborative entre l'IA et la cybernétique est susceptible d'améliorer la confidentialité et la sécurité tout en minimisant les risques de transparence et de responsabilité.

Les technologies de protection de la vie privée et de sécurité, y compris l'IE et la FL, sont des outils, pas des panacées. Mais si aucun outil n'est parfait, l'HE et le FL sont des ajouts précieux au mélange. En aidant à protéger les données qui sont au cœur de l'IA, elles peuvent étendre l'IA à des utilisations de plus en plus puissantes, avec la promesse de bénéficier aux individus, aux entreprises et aux sociétés.


  1. Reportlinker, “Federated learning solutions market research report by application, by vertical - Global forecast to 2025 - Cumulative impact of COVID-19 ,” press release, May 14, 2021; MarketWatch, “Global Homomorphic encryption market size forecast 2021–2027 ,” August 2, 2021.View in Article
  2. Holger Roth, Michael Zephyr, and Ahmed Harouni, “Federated learning with homomorphic encryption ,” NVIDIA Developer blog, June 21, 2021.View in Article
  3. See companion piece, “Prediction on AI regulation.”View in Article
  4. Sergio De Simone, “Google open-sources fully homomorphic encryption transpiler ,” InfoQ, June 29, 2021; Flavio Bergamaschi, “IBM releases fully homomorphic encryption toolkit for MacOS and iOS; Linux and Android coming soon ,” IBM Research Europe, June 4, 2020; Dennis Fisher, “Microsoft open sources SEAL homomorphic encryption library ,” Decipher, December 3, 2018.View in Article
  5. Roth, Zephyr, and Harouni, “Federated learning with homomorphic encryption .”View in Article
  6. Scientific Computing World, “Optical accelerator enables fully homomorphic encryption  ,” August 25, 2021.View in Article
  7. Keeping AI private: Homomorphic encryption and federated learning can underpin more private, secure AI is an independent publication and has not been authorized, sponsored, or otherwise approved by Apple Inc.­ ­View in Article
  8. Centre for Data Ethics and Innovation, "Repository of Use Cases ,” accessed October 6, 2021.View in Article
  9. TechTarget, “Homomorphic encryption ,” accessed October 6, 2021.
    View in Article

Les auteurs tiennent à remercier Lukas Kruger pour sa contribution à ce chapitre.

Image de couverture par : Jaime Austin

Risk Advisory (Cyber Risk)

Il est une réalité, essentielle, que toutes les organisations doivent aujourd’hui accepter et intégrer, car elle est devenue en quelques années un marqueur fondamental de notre époque : le risque cyber est partout.

Ariane Bucaille

Ariane Bucaille

Global Technology Sector Leader