由生成式预训练变换模型3.5(简称GPT-3.5)等大模型引领的新一轮科技革命和产业变革迅猛发展,发布仅7个月的聊天生成预训练转换器(ChatGPT)已掀起全球人工智能产业的大模型热潮。以深度学习为核心的新一代生成式人工智能技术取得了巨大成功,大模型的发展令人工智能在下游任务的性能逐步趋近类人智能并体现出极强的应用潜力,展现出通用人工智能(AGI)的雏形。生成式人工智能系统在给生活带来便利的同时也伴随着诸多风险,如安全侵害、隐私安全、生成内容滥用等也引起了广泛关注。人工智能也给治理端带来了前所未有的挑战。这些问题如果不进行有效治理,企业未来将面临监管处罚、收入损失、声誉下降等诸多风险。学界与行业目前已经达成了一套基础的可信人工智能(AI)原则体系,而先进国家也正在落实法律法规要求;因此在法律框架下,如何工程化落地AI治理原则成为AI治理工作的关键基石。一套全方位多层级的AI治理体系与AI治理工程能力框架,可以确保人工智能治理能够紧密地结合企业的实际需求和业务场景,并为企业实现潜在商业价值。
尽管生成式人工智能技术充满潜力,但欠缺有效治理也会带来严重的风险,如安全侵害、隐私泄漏、偏见歧视、责权归属不清、生成内容滥用、决策结果可解释性缺乏等问题。未来各国立法陆续通过后,人工智能治理不当的企业将面临监管处罚、法律争端、经济损失,甚至可能中断业务运营,如欧盟AI法案订出最高可处罚企业全球年营业额的6%或4500万欧元。
人工智能的有效治理已成为其赋能社会生产和商业应用的关键保障,以规避使用过程中的风险。2017年,学术界首次提出“可信AI”的概念,强调AI需具备可信赖的品质,包括安全性、稳定性、可解释性、隐私保护和公平性等。
欧盟委员会的AI专家组提出十项实现可信AI的要求,包括:
根据中国人工智能产业发展联盟发布的《可信AI操作指引》,可信AI指人工智能在技术、产品、应用、运营、管理等方面,应能遵循以人为本、公平公正、增进民生福祉、防止危害社会、避免侵犯公众利益和个人合法权益的总原则,并能够重点满足《人工智能行业自律公约》中可靠可控、透明可释、保护隐私、明确责任、多元包容等基本要求。
美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》,将可信AI风险管理的原则进行了属性归因,分别是:直接由人工智能衍生的指导原则、因使用AI而产生的社会性原则和大模型系统相关的技术型原则。
欧盟与中国在人工智能监管法案制定方案较为领先。6月14日欧盟议会通过了《欧盟人工智能法案》授权草案,正式进入最终谈判阶段,预计2024正式生效,之后进入两年的执行期间。我国发布的《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》及《生成式人工智能服务管理办法(征求意见稿)》则分别从算法治理、深度合成治理、生成式人工智能治理的不同层面,推动在中国人工智能领域的规范管理和良性发展。
普华永道十分关注各国法案中对人工智能系统及提供商的潜在影响。虽然仍有界定不清晰的情况,我们对现有版本欧盟AI草案中对AI系统提供者有指导意义的要求逐条拆解,得到超过260余项细节要求,而更具规范性的中国法规(包括部分地方性法规)中,拆分细节要求超过200余项。其他国家地区的法案也在积极筹备之中。因此我们认为对于人工智能系统策划、PoC、开发、部署、运维等AI全生命周期的监管将会愈发严格,AI治理将不再浮于原则讨论,其工程化落地已然成为企业的当务之急。
为实现上述人工智能治理概念由原则到业务的有效落地与风险把控,普华永道协助企业打造全方位多层次的人工智能治理体系。
以上四层人工智能治理体系,各层之间相互依赖并相互影响,形成一个完整的治理循环;保证了人工智能治理体系的动态性和适应性,使其能随着相关技术和企业需求的变化进行持续优化和更新。
在人工智能治理工程化落地过程中会有诸多挑战,普华永道致力于提供涵盖人工智能项目全生命周期,从业务理解到模型训练、部署落地、运营监控与迭代优化的系列服务。
以下是我们认为人工智能项目全生命周期治理工程中的各个环节及重点工作:
身处当下,广大企业恰逢其时,应积极转型,在合规和可信AI治理框架体系下,去享受生成式人工智能带来的生产力提升,抓住商业模式创新红利窗口期。涵盖AI全生命周期的治理工程能够帮助企业实现高效AI治理,助力商业AIGC价值发现。
有关AI治理体系与AI治理工程能力框架的问询,欢迎联络以下普华永道团队。
扫描微信二维码
订阅#人工智能内容
在新兴技术快速迭代、瞬息万变的商业环境中,社会各界已经身处人工智能(AI)的革新时代。普华永道不仅密切关注人工智能领域最新发展,更从公司层面积极推进AI战略。秉持负责任的态度,普华永道专注探索AI商业化应用,分享前沿法规与资讯解读,为企业及个人提供科技驱动的AI解决方案,为未来蓄势赋能。