随着大数据时代的到来和计算机能力的迭代,人工智能(AI)技术在近些年进入了黄金发展期,各国对AI技术也开始施行不同程度上的监管。欧盟于2021年12月发布了《人工智能法案草案》,而该草案规定了对高风险AI系统的监管措施。根据该法规,高风险AI系统需要经过严格的评估和认证,以确保其符合欧洲联盟的法律和道德标准。美国虽然尚未颁布专门针对AI监管的全国性法律,然而,一些州开始在AI领域推出相关立法。在2022年间,包括加州在内的17个州对AI领域启动了立法进程。
人工智能研发公司OpenAI在2022年11月推出大语言模型(Large Language Model, LLM)应用ChatGPT,AI技术进一步在普罗大众前褪去神秘的面纱。生成式人工智能(AI Generated Content, ‘AIGC’)的概念应运而生,也标志AI技术正式迈入通用人工智能时代。虽然人工智能产品极大地提高了工作和生活效率,但随着近年来一系列AI应用相关负面案例的发生,加剧了立法者对AIGC应用的担忧。
在尚未确定ChatGPT是否将成为打开“潘多拉魔盒”的那把钥匙前,对AIGC的监管成了众矢之的。意大利数据保护局于今年3月31日宣布暂时停止使用ChatGPT,并已就ChatGPT涉嫌违反数据收集规则展开调查。除此之外,法国国家信息自由委员会(CNIL)以及西班牙数据保护机构也决定对ChatGPT立案并展开调查。在欧盟层面,欧洲数据保护委员会(EDPB)于4月13日表示,其正在成立一个特别工作组,帮助欧盟各国应对ChatGPT,促进欧盟各国之间的合作,并就数据保护机构可能采取的执法行动交换信息。而美国商务部于4月11日表示,其正在就AI系统的潜在问责措施征求公众意见。
2023年4月11日,中华人民共和国国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》(“征求意见稿”),拟对生成式人工智能在我国的开发及应用进行规范。该稿征求意见将于2023年5月10日结束。本文提取征求意见稿中的重点内容进行总结与分析。