Article
8 minute read 01 December 2021

L'IA se ferme en grand : la réglementation de l'IA devient (encore plus) sérieuse

En 2022, l'IA fera l'objet d'un examen réglementaire intensifié, avec des implications qui résonnent dans tous les secteurs

Bien que la réglementation soit généralement en retard sur l'innovation technologique, il semble qu'elle rattrape enfin les applications de l'intelligence artificielle (IA), notamment l'apprentissage automatique, l'apprentissage profond et les réseaux neuronaux. Deloitte Global prévoit que l'année 2022 sera marquée par de nombreuses discussions sur une réglementation plus systématique de l'IA, et que plusieurs propositions seront formulées, même si leur mise en œuvre effective n'interviendra probablement qu'à partir de 2023. Certaines juridictions pourraient même tenter d'interdire complètement des sous-domaines entiers de l'IA, tels que la reconnaissance faciale dans les espaces publics, le scoring social et les techniques subliminales. 

Nous savons pourquoi, mais savons-nous comment ? 

Normalement, les prédictions sont précises et quantifiées, mais ce n'est généralement pas possible lorsqu'on parle de changements réglementaires. Pourtant, nous avons de bonnes raisons de croire que les réglementations en matière d'IA seront en passe de devenir plus répandues et plus strictes au cours de l'année prochaine. Dès 2021, il existe des propositions détaillées de l'Union européenne1 et des documents d'orientation de la Federal Trade Commission (FTC) aux États-Unis2 sur une réglementation plus stricte de l'IA. Et la Chine propose de multiples réglementations autour des entreprises technologiques, dont certaines incluent la réglementation de l'IA.3

Pourquoi maintenant et pas avant ? Nous voyons plusieurs raisons :

  • L'IA en 2022 sera plus puissante qu'il y a seulement cinq ans. Grâce à des processeurs spécialisés beaucoup plus rapides, à de meilleurs logiciels et à des ensembles de données plus importants, l'IA peut faire plus, et à un coût plus abordable, que jamais.4 Par conséquent, l'IA devient omniprésente et omniprésente - ce qui attire à son tour un examen réglementaire plus approfondi.
  • Certains régulateurs s'inquiètent des conséquences de l'IA sur l'équité, les préjugés, la discrimination, la diversité et la vie privée. Par exemple, l'outil fondamental de l'IA d'aujourd'hui est l'apprentissage automatique, qui a fait l'objet d'un examen approfondi de la part des régulateurs et d'autres personnes en raison d'éventuels préjugés sociaux.5
  • Les réglementations en matière d'IA sont un outil concurrentiel au niveau géopolitique. Si un pays ou une région peut établir la norme mondiale en matière de réglementation de l'IA, cela peut donner un avantage concurrentiel aux entreprises opérant dans ce pays ou cette région et désavantager les étrangers.

Certains régulateurs se sont fait entendre sur les dangers de l'IA. Par exemple, dans un document publié en août 2021, la commissaire américaine à la FTC, Rebecca Kelly Slaughter, a écrit : "Des preuves de plus en plus nombreuses révèlent que les décisions algorithmiques peuvent produire des résultats biaisés, discriminatoires et injustes dans une variété de sphères économiques à fort enjeu, notamment l'emploi, le crédit, les soins de santé et le logement".6 Elle a ajouté que, bien que la FTC dispose de certains outils existants qui peuvent être utilisés pour mieux réglementer l'IA, "une nouvelle législation pourrait aider à traiter plus efficacement les préjudices générés par l'IA et la prise de décision algorithmique".7

Trouver comment réglementer efficacement l'IA ne sera pas chose aisée. L'un des problèmes fondamentaux est que de nombreux calculs de l'IA ne sont pas "explicables" : L'algorithme prend des décisions, mais nous ne savons pas pourquoi il a pris telle ou telle décision. Ce manque de transparence rend la réglementation de l'IA exponentiellement plus difficile que celle des technologies plus explicables et vérifiables qui ont souvent éclairé la prise de décision au siècle dernier. Les réglementations visent à empêcher les décisions prises par l'IA d'avoir des conséquences négatives, telles que la partialité et l'injustice, mais comme les systèmes d'IA responsables de ces décisions sont difficiles à comprendre et à auditer, il peut être difficile de prévoir quand des conséquences négatives se produiront - jusqu'à ce que des personnes ou des institutions aient été touchées.

 Un autre problème potentiel est la qualité des données de formation. Le projet de règlement de l'Union européenne sur l'IA précise que "les ensembles de données de formation, de validation et de test doivent être pertinents, représentatifs, exempts d'erreurs et complets". Toutefois, à l'échelle des données requises pour l'apprentissage automatique, cette norme, en particulier la stipulation selon laquelle elles doivent être "exemptes d'erreurs et complètes", fixe une barre extrêmement élevée que la plupart des entreprises et des cas d'utilisation pourraient ne pas être en mesure de respecter8.

 

 À mesure que l'IA devient utilisée partout, tout le monde a des raisons de se préoccuper de la manière dont elle est réglementée, car ces réglementations peuvent déterminer l'étendue des avantages et des inconvénients que son utilisation pourrait entraîner. Les grandes parties prenantes suivantes devraient être particulièrement intéressées :

Les utilisateurs d'outils d'IA. Les régulateurs sont susceptibles de sévir dans les cas où le biais algorithmique ou d'autres problèmes nuisent à des catégories de personnes. De multiples études montrent que les biais codés par l'IA peuvent entraîner des discriminations en fonction du sexe, de la race, de la sexualité, de la richesse ou du revenu, etc. Ces préjugés ont généralement pour effet de désavantager davantage les personnes déjà défavorisées. Cela s'explique par le fait que l'intelligence artificielle n'est pas vraiment artificielle à 100 % : elle doit être entraînée sur des ensembles de données, qui peuvent refléter les préjugés humains. Le résultat est que l'IA formée sur ces ensembles de données n'élimine pas les préjugés humains, mais les amplifie souvent.   

Un exemple célèbre de biais induit par les jeux de données est celui d'une entreprise qui essayait d'embaucher plus de femmes, mais qui savait que l'outil d'IA continuait à recruter des hommes. Peu importe les efforts déployés par l'entreprise pour éliminer les préjugés, ils ont persisté en raison des données d'entraînement, et l'entreprise a donc cessé d'utiliser l'outil d'IA.9

Les réglementations relatives à l'IA affecteront l'utilisation des outils d'IA par les différentes industries et fonctions au sein de celles-ci à des degrés différents. Par exemple, l'IA dans les ressources humaines, spécifiquement pour l'embauche ou la gestion des performances, risque d'être profondément affectée.10 Il existe déjà de multiples cas où des décisions alimentées par l'IA en matière de recrutement, d'embauche, de promotion, de mesures disciplinaires, de licenciement et de rémunération ont posé problème.

Les régulateurs peuvent également être particulièrement préoccupés par les plateformes Internet qui modèrent le contenu généré par les utilisateurs, dont beaucoup s'appuient fortement sur l'IA pour le faire. Modérer quotidiennement des millions de contenus en temps réel est essentiellement impossible, ou du moins inabordable, sans l'IA. Cependant, une étude réalisée en 2020 affirme que les systèmes de modération algorithmique "restent opaques, ne sont pas soumis à l'obligation de rendre des comptes et sont mal compris" et "pourraient exacerber, au lieu de les résoudre, de nombreux problèmes liés à la politique de contenu mise en œuvre par les plateformes ".11

Du point de vue de l'industrie, le secteur public - la santé, l'éducation, les avantages sociaux, le zonage, la sécurité publique, le système de justice pénale et bien d'autres - peut être profondément affecté. Par exemple, la reconnaissance faciale dans les espaces publics pour l'application de la loi et la justice pénale est déjà largement utilisée, mais c'est l'une des technologies que les réglementations de l'Union européenne envisagent d'interdire, à quelques exceptions près.12 La réglementation sera également un enjeu important pour les soins de santé et l'éducation du secteur privé, affectant des questions telles que les notes, les bourses, les prêts étudiants et les actions disciplinaires. Le secteur des services financiers sera probablement lui aussi confronté à des implications substantielles, car il utilise l'IA pour tout renseigner, depuis les scores de crédit, les prêts et les hypothèques jusqu'aux assurances et à la gestion de patrimoine.    

Les industries telles que la logistique, l'exploitation minière, la fabrication, l'agriculture et d'autres secteurs pourraient être moins touchées. Les algorithmes d'IA de ces industries peuvent bien sûr présenter des problèmes, mais ils ont tendance à porter sur la précision et les erreurs plutôt que sur la partialité. Cependant, bien que ces problèmes soient moins susceptibles d'entraîner des dommages humains directs, ils peuvent avoir un impact environnemental.

Vendeurs d'outils d'IA. Des dizaines d'entreprises technologiques vendent des outils ou des solutions d'IA pure. Certaines d'entre elles proposent des sous-ensembles de la technologie de l'IA susceptibles d'être plus fortement réglementés ou interdits ; certaines ne proposent même que ces sous-ensembles. Des dizaines d'autres fournissent des solutions globales comportant des composants ou des fonctionnalités d'IA qui pourraient être affectés par la réglementation. Les hyperscalers, en particulier, ont des raisons de surveiller de près les régulateurs. Tous ont des offres d'IA en tant que service qui pourraient être affectées à des degrés divers ; les réglementations pourraient les empêcher de vendre certains services dans certaines zones géographiques, ou les entreprises pourraient même être tenues responsables de l'utilisation de leurs services d'IA par les clients. 

Les utilisateurs d'IA qui sont aussi des vendeurs. De nombreuses plateformes et applications Internet technologiques sont de gros utilisateurs des mêmes technologies d'IA qu'elles vendent directement, qu'elles utilisent pour exécuter leur modèle commercial, ou les deux. Parmi ces technologies, on trouve la reconnaissance faciale, la détection des sentiments et la prédiction du comportement, qui sont toutes des caractéristiques de l'IA susceptibles d'être litigieuses. 

Les régulateurs et la société. Ceux qui établissent les règles sont confrontés à des défis qui leur sont propres, à savoir trouver un équilibre entre les avancées technologiques en évolution rapide et les préoccupations des parties prenantes. Ils auront besoin que les objectifs politiques mondiaux et nationaux soient clairement définis, afin de pouvoir élaborer des lois, des règlements et des codes de conduite qui y répondent. Une approche réglementaire agile, fondée sur l'amélioration, sera probablement plus efficace qu'une législation inflexible fondée sur des règles. Enfin, bien que les régulateurs et les objectifs sociétaux soient globalement liés, ils sont séparés, distincts et parfois non alignés. 

La ligne de fond

Au cours des deux prochaines années, un certain nombre de scénarios pourraient se produire. 

 Tout d'abord, les parties prenantes touchées par les réglementations adoptées et mises en œuvre pourraient supprimer les fonctionnalités liées à l'IA dans certaines juridictions ou cesser complètement leurs activités dans certaines juridictions, ou encore poursuivre leurs activités, se voir infliger des amendes et les payer dans le cadre de leurs activités. 

 Deuxièmement, il est possible que de grands marchés importants tels que l'Union européenne, les États-Unis et la Chine adoptent des réglementations contradictoires en matière d'IA, ce qui empêcherait les entreprises de se conformer à toutes ces réglementations. 

Troisièmement, il est également possible qu'un ensemble de réglementations en matière d'IA devienne la norme, comme cela a été le cas avec le règlement général sur la protection des données de l'Union européenne concernant la vie privée, ce qui pourrait simplifier la conformité transfrontalière. 

Quatrièmement, il est même possible que les fournisseurs et les plateformes d'IA se regroupent au sein d'un consortium et mènent une conversation sur la manière dont les outils d'IA devraient être utilisés et sur la façon dont ils peuvent devenir plus transparents et vérifiables - adoptant un degré d'autorégulation qui atténuerait la perception des régulateurs selon laquelle la surveillance doit être imposée d'en haut.

Même si ce dernier scénario se réalise, il est peu probable que les régulateurs se retirent complètement. Il est presque certain que de nouvelles réglementations sur l'IA seront adoptées à très court terme. Bien que l'on ne sache pas exactement à quoi ressembleront ces réglementations, il est probable qu'elles affecteront sensiblement l'utilisation de l'IA.


  1. European Commission, Proposal for a regulation of the European Parliament and of the council laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) and amending certain Union legislative acts, EUR-Lex, April 21, 2021.View in Article
  2. Elisa Jillson, “Aiming for truth, fairness, and equity in your company’s use of AI ,” Federal Trade Commission, April 19, 2021.View in Article
  3. Arjun Kharpal and Evelyn Cheng, “The latest target of China’s tech regulation blitz: algorithms ,” CNBC, September 9, 2021.View in Article
  4. As one example, moving to specialized AI chips can see literally thousandfold improvements; Saif Khan and Alexander Mann, AI chips: What they are and why they matter , Center for Security and Emerging Technology (CSET), April 2020.View in Article
  5. James Manyika, Jake Silberg, and Brittany Presten, “What do we do about the biases in AI? ,” Harvard Business Review, October 25, 2019.View in Article
  6. Rebecca Kelly Slaughter, “Algorithms and economic justice: A taxonomy of harms and a path forward for the Federal Trade Commission ,” Yale Journal of Law & Technology, August 2021.View in Article
  7. Ibid.View in Article
  8. European Commission, Artificial Intelligence Act.View in Article
  9. Jeffrey Dastin, “Amazon scraps secret AI recruiting tool that showed bias against women ,” Reuters, October 10, 2018.View in Article
  10. Tom Simonite, “New York City proposes regulating algorithms used in hiring ,” Wired, January 8, 2021.View in Article
  11. Robert Gorwa, Reuben Binns, and Christian Katzenbach, “Algorithmic content moderation: Technical and political challenges in the automation of platform governance ,” Big Data & Society 7, no. 1 (2020).View in Article
  12. European Commission, Artificial Intelligence Act.
    View in Article

Les auteurs tiennent à remercier les personnes suivantes pour leur contribution à ce chapitre : Beena Ammanath, Ralf Esser, Lukas Kruger, Susie Samet, and Nick Seeber.

Image de couverture par : Jaime Austin

 

Risk Advisory (Regulatory Risk)

Les équipes Regulatory Risk aident les entreprises à répondre aux demandes d’un paysage réglementaire complexe tout en restant flexible pour s’adapter à un environnement changeant. Votre approche permet-elle d'assurer la conformité, préserver la valeur et propulser votre performance ?

Ariane Bucaille

Ariane Bucaille

Global Technology Sector Leader