《AI时代的抉择 — 以“信”筑基,行稳“智”远》报告

新闻稿

德勤发布《AI时代的抉择 — 以“信”筑基,行稳“智”远》报告

不足一成亚太地区企业拥有实现可信 AI 所需的治理结构

发布日期:2025年1月15日

德勤经济研究所和德勤人工智能研究院共同编制《AI时代的抉择 — 以“信”筑基,行稳“智”远》报告,旨在为亚太地区组织的首席高管和技术负责人提供洞察,助其了解如何在积极采纳人工智能的同时,构建起高效的AI治理架构,从而有效应对伴随而来的风险管理挑战日益增长。

该报告基于对亚太13个地区的近900名高管的调研,并根据德勤开发的AI治理成熟度指数[1]评估受访者回答,通过一系列评估标准来确定卓越AI治理实践。卓越的AI治理不仅能够使团队更有效地采用人工智能,更可以建立客户信任,并为企业在价值提升和市场拓展方面开辟新的路径。

报告主要发现:

  • 拥有更成熟的AI治理框架的组织中,使用AI解决方案的员工增加了28%,收入增长近5%
  • 91%的组织AI治理结构尚处于“初级”或“发展中”水平,表明其AI治理仍有非常大的改进空间
  • 人工智能使用中最普遍的担忧是安全漏洞(86%)、监控 (83%)和隐私问题(83%)
  • 四分之一的组织在上一财年经历了与AI相关的各类事件(如数据泄露)的增加,然而五分之二的组织并未建立针对与人工智能使用相关的查询或事件报告机制
  • 45%的企业表示提升AI治理有助提高其在客户中的声誉
  • 只有58%的员工具备负责任地使用AI所需的技能

应对AI快速采用带来的风险

报告指出,预计到2030年,亚太地区的AI投资将增长五倍,达到1170亿美元[2],进一步强调了建立健全的AI治理结构的必要性。在AI的快速采用上,员工往往比组织领导先行一步。德勤关于AI新生代的调研[3]发现,超过五分之二的员工已在工作中使用生成式AI,其中年轻员工更是引领着AI热潮。

然而,AI的快速增长也带来了重大风险,近900名受访高管表示,最普遍的担忧是安全漏洞(86%)、监控(83%)和隐私(83%)方面的风险。

尽管AI解决方案能带来巨大的效益,但如果这些风险无法得到妥善管理,就可能导致数据泄露、声誉和业务受损以及监管罚款。2024年,全球数据泄露的平均成本接近500万美元,较去年增长了10%。[4]对于大型组织而言,这一成本可能会更高。

德勤亚太地区及澳大利亚可信AI服务主管合伙人Elea Wurth博士表示:“有效的AI治理不止是合规性的问题,它对于释放AI技术的全部潜力至关重要。我们的研究结果表明,拥有健全治理框架的组织不仅能更有效地管理风险,还能显着提升对AI解决方案效果和成果的信心,增强运营效率,并最终实现更大的商业价值和扩展规模。”

建立可信AI的行动

开发可信AI解决方案至关重要,有助于组织高管成功应对AI快速采用所带来的风险并全面拥抱AI技术变革。可信AI可确保技术符合伦理、法律和技术标准,并使高管有信心在整个组织内使用AI解决方案。

德勤高可信人工智能框架明确了AI解决方案建立可信性所必需的七大要素:透明、可解释;公平、中立;稳健、可靠;保护隐私;安全、稳妥;承担责任;问责。该框架及相关标准应用于AI解决方案从概念到设计、开发、采购、部署的全部环节。

卓越AI治理的益处

调查显示,拥有成熟AI治理框架的组织中运用AI解决方案的员工数量增长了28%,并且在超过三个业务领域中部署了AI解决方案。与AI治理成熟度较低的企业相比,这些企业的收入增长率高出近5%。

科技、传媒和电信行业、金融和保险服务行业以及专业服务行业的组织在可信AI方面达到“成熟”水平的比例最高,而政府及公共服务行业、生命科学与医疗行业的组织在适应不断变化的环境,以及在应对与AI技术应用相关的各种担忧方面,面临着更多的挑战。

搭建可信AI的基础

有效AI治理对于组织将AI解决方案融入运营及业务模式至关重要。报告重点介绍了组织领导者可以采取的四项高影响力行动以改善其AI治理。

报告提出之重点建议包括:

  • 重视AI治理以从AI获益:组织需要在其政策、原则、流程和控制措施中对AI治理进行持续评估,并关注特定地区和行业内适用法规变化,以确保站在AI治理相关标准的最前沿。
  • 了解并利用更广泛的AI供应链:组织需了解其对AI的应用情况及与更广泛的“AI供应链”(即开发者、部署者、监管机构、平台服务商、终端用户及客户)的互动情况,以更全面地了解AI治理要求。此外,在AI解决方案的整个生命周期内,应当定期开展审计工作。
  • 打造风险管理者,而非风险规避者:发展员工的技能有助于识别、评估和管理风险,从而能够预防或缓解出现的风险,而不是规避或忽视风险。在AI治理成熟度指数的所有支柱中,“人才与技能”在众多组织中普遍得分最低,反映其为是亟待改进的关键领域。
  • 加强沟通,确保AI转型准备就绪:组织应对其长期AI战略、相关益处和风险保持透明,提高员工使用AI模型的技能,以及对其工作在未来可能由AI执行的人员进行技能提升。实际步骤包括针对高风险事件进行情景规划,制定叙述以传达技术的影响,以及进行危机演习以测试对潜在挑战的准备情况。

德勤亚太地区咨询业务主管合伙人Rob Hillard指出:“消费者信心下降以及品牌声誉受损可能会带来持久的不利影响,因此组织必须妥善管理AI风险并确保网络安全。消费者更青睐在采用AI时遵从伦理规范的组织,并且有45%的受访高管认为卓越治理可提升组织的声誉。然而,我们的研究显示,发现,许多组织往往高估了自身在AI治理上的准备程度。为此,高级领导者需立即采取措施,强化现有的AI治理实践,以释放人工智能的优势,并为影响未来业务成功的新兴人工智能法规做好准备。”

德勤中国人工智能研究院主管合伙人范为表示:“自Gen AI问世以来,短短一年内便实现了大约30亿美元的总收入,而SaaS则需要将近十年的时间才能达到相等的收益水平,可见无论是在发展速度还是规模上,Gen AI都与传统AI有显着的分别。随着Gen AI的迅速进步,人工智能的界线日益模糊,连图灵测试也不再是判断人机智能区别的可靠标准,因此对Gen AI潜在风险的担忧也不断增长。根据德勤的一项调查,高达78%的商业领袖认为政府需要对人工智能实施更为严格的监管。除了依赖政府层面的监管之外,企业自身也应发挥更为积极的作用,建立企业级的Gen AI治理架构,构建从基础模型到高端应用的风险矩阵,为业务的升级转型提供坚实的安全保障。”

德勤中国可信AI服务合伙人朱灏补充道:“仅仅数年前,市场还在大力推广基于规则的机器人流程自动化(RPA),当时实现AGI(通用人工智能)似乎还遥不可及。然而,更加贴近AGI的Gen AI技术竟然提前亮相,出乎众人预料。人工智能的快速发展让我们开始警觉其伴随的潜在风险,特别是可能遭受的恶意滥用。正如80年前,艾萨克·阿西莫夫(Isaac Asimov)在其科幻小说中提出‘机器人三定律’,以避免人工智能对人类造成伤害,如今我们需要的是一套可靠的人工智能治理模型,以确保AI技术的安全开发与应用。德勤的高可信人工智能框架正是一种全方位的解决方案,汇聚了全球多行业的研究与实践成果,旨在动态且系统地识别并减轻潜在风险,以适应人工智能技术的不断进步。”

方法论

本报告由德勤经济研究所和德勤人工智能研究院共同编制,旨在为亚太地区组织的首席高管和技术负责人提供洞察,助其改进治理结构和组织机制进而开发更可信的AI解决方案。

德勤高可信人工智能框架明确了AI解决方案建立可信性所必需的七大要素:透明、可解释;公平、中立;稳健、可靠;保护隐私;安全、稳妥;承担责任;问责。

德勤开发了AI治理成熟度指数,通过一系列评估标准来确定卓越AI治理实践。该指数在五大支柱领域设置12项关键指标,全面衡量组织的AI治理成熟度。基于该指数,我们对亚太13个地区近900名高管进行调研,覆盖多个行业和部门以及不同组织规模。

调研旨在了解组织AI治理成熟度水平,识别有效AI治理的关键推动因素,并评估采取治理举措给组织带来的益处。

 

注:

[1] 该指数基于五大支柱领域(组织架构、政策与原则、程序与控制、人才与技能以及监控、报告和评估)的12个关键指标,评估组织的AI治理成熟度。

[2] 同上

[3] 2024年Z世代和千禧一代调研报告

[4] IBM(2024),《数据泄露成本报告》

此内容是否提供了您需要的资讯?