人工智能掀起的第四次工业革命浪潮席卷全球,各个国家地区“各显神通”应对新的挑战。
在此背景下,讨论各国如何发力人工智能治理,以期为“中国方案”提供经验和参考具有重要意义。近日,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在北京举行。多位专家围绕欧盟、英国及美国的人工智能治理思路做观点分享。
欧盟:监管体系逐步完善,关键概念仍存分歧
(资料图片仅供参考)
“欧盟人工智能立法已经形成了一个体系。”同济大学法学院助理教授朱悦指出,作为数字立法“老区”,欧盟近些年来已经制定或者正在制定的法律主要包括《通用数据保护条例》、《数字服务法》、《数字市场法》、《数据法》、《人工智能责任指令》、《产品责任指令》等条例和指令,虽然并未全部落地施行,但已经从个人信息、平台、数据、网络等多方面对人工智能企业的全生命周期做出规制。
而具体到人工智能专项立法,朱悦指出,欧盟人工智能立法自2020年启动至今已历经多轮讨论,今年六月以来,欧盟理事会和议会针对《人工智能法案》条文的谈判,在接近三分之二的内容上已经达成一致,但是其中部分关键的规则仍存在较大争议。
“不过,与人工智能相关的一些新的技术概念在目前已经有了一致意见,而欧盟人工智能立法内容在国际上也有更广泛的共识,这些已经达成的共识可以为我们未来的探索提供借鉴。”朱悦指出。他还介绍道,最近美国出台的相关行政令中,就采纳了和欧盟《人工智能法案》一致的对人工智能的定义。
有共识,自然也有分歧。朱悦介绍道,当前各界对通用目的人工智能如何规范、人工智能治理机构的问题、基本权利影响评估的适用范围、监管沙箱是否能够在真实世界重开展试点、高风险人工智能的定义和清单等关键性问题仍存有政治层面和技术层面的分歧。
因此,他建议未来应对欧盟人工智能立法的后续举措和相应监管行动保持关注。“一是在全球竞争体系中,了解欧盟立法的进展和节奏,这可以让我们更加明确自身的目标;二是欧盟提出的《人工智能法案》是目前全球范围内较为成体系的法案,我们可以从它的立法当中的价值取舍和技术运用中获得立法资源。”他指出。
英国:跨部门监管采用“非法定形式” 保证监管灵活性
虽然也地处欧洲,但脱欧之后,英国正试图走出自己的人工智能监管路径。
在南财合规科技研究院首席研究员王俊看来,英国人工智能监管发展可以整体分为三个阶段:迈向国家战略、英国发布专门的国家人工智能发展战略、聚焦促进创新的监管三个阶段,从重视人工智能治理,到提出举措应对相应风险,最终提出监管框架巩固支持创新的监管思路。
“针对ChatGPT引发的新一轮人工智能革命,英国在今年有密集的监管行动回应。”王俊介绍道,3月,英国政府推出《一种支持创新的人工智能监管方法》白皮书,与企业、行业协会交流沟通,构建针对人工智能监管的理想框架;5月,英国首相相继会见AI龙头企业CEO,探讨AI的风险与治理。在全球治理话语的竞赛中,英国也在积极寻求他们的位置,比如英国政府宣布将在今年下半年举行世界首个人工智能峰会,呼吁人工智能监管。
参考英国的监管实践可以发现,当前英国以场景和结果为依据开展监管活动,不同监管机构根据特定场景下人工智能对个人群体和企业的影响,采取各异的监管对策。《一种支持创新的人工智能监管方法》白皮书中设置了多种监管路径,比如跨部门监管时采用“非法定形式”,这样既保证监管的灵活性,又可以减轻企业的负担。
英国政府提供支持人工智能监管框架的“中枢职能”这一创新点也值得注意。“他们有不干预、不改变的问责倾向,把法律责任分配给更能够有效识别风险的参与者。”王俊介绍道,政府通过宏观调控,给监管机构提供中央支持的职能,同时引入外部的行业组织讨论协调,保持治理体系有效性和一致性,也能够及时评估人工智能的影响以及和国外制度、标准的互操作性。
监管沙盒也是英国采用的方法之一,利用沙盒机制能够很好地平衡创新与风险。“英国政府提出的初步建立单一行业、多个监管机构的沙盒:一个行业创新者与一个或多个监管机构互动,可以起到新产品、服务快速推向市场;测试监管框架运作方式,解决创新障碍等作用。”王俊指出。
“当前英国立法对我国未来建构人工智能治理体系有几点启示。”王俊指出,首先是应当审慎推进人工智能综合性立法。其次是建立基于应用场景的监管制度。人工智能应用中的风险非常复杂,单一的治理技术和多元治理场景存在矛盾和冲突。因此,未来应当基于场景尝试更精细化的监管,区分不同技术路线、应用模式和责任主体,针对不同场景,对不同的风险点进行差异化监管。
美国:权利、治理、促进三大体系并行
作为AI头部公司的聚集地,大洋彼岸美国的AI治理有何特点?工业和信息化法治战略与管理重点实验室研究员傅宏宇介绍,美国人工智能立法体系主要分为三大块,即权利体系、治理体系和促进体系。他认为,从立法统合的思路出发,我国人工智能立法也应包含这三个类型的体系。
谈及美国AI治理权利体系,傅宏宇表示,美国立法是分散式的,这与美国立法组织模式、州法与联邦法之间的分权关系是相关的,但权利体系构成了底座,成为美国各个法律、各个职能部门认知的基础,也是美国未来面向下一代人工智能立法最基本的判断。
“美国权利体系构架包含了基本权利保护、用户权益保护和财产权益保护。”傅宏宇解释,基本权利保护机制通过透明度实现人类中心价值目标,在核心场景中保护基本权利,例如过滤气泡透明度法案、AI权利法案蓝图都以透明度这个词作为立法重要的抓手。在用户权益保护方向,基于隐私法的私人诉讼和沿用保护特定人群的专门法是两个重点,财产权益保护则主要涉及两个重要的问题,即训练过程的版权侵权和生成内容的版权保护。
“基于上述权利体系,美国还衍生出了对应性的治理体系。”傅宏宇介绍,美国治理体系主要包括技术风险治理、内容风险治理、竞争风险治理和企业协同治理。其中,技术风险治理强调可问责性,同时强调了有限度的技术穿透监管,对避风港制度进行调整,提高AI风险管理能力。内容风险治理方面,美国立法强调技术控制手段,对特殊场景进行内容限制,较有代表性的是《深度伪造问责法案》。在竞争风险治理方面,美国重点关注大模型提供商的市场能力以及AI技术对竞争的影响。
“自美国的ChatGPT问世以来,人工智能企业也成为了AI协同治理的重要角色。相关企业参与治理目标设定,使治理融入技术发展路径,推动安全技术标准化,同时主动停止研发,留下监管空间。”
美国AI治理能给我国带来哪些启示?傅宏宇认为,一是在治理目标上,人类中心价值的权利基础明确,AI风险认知清晰。二是在监管方式上,结合现有治理能力,复用治理工具,抓大留中放小。三是在协作参与上,让更多社会公众和企业通过诉讼、自律机制来提高社会参与,以安全技术推动治理与发展融合。
(文章来源:21世纪经济报道)