作者:张鹏 北京市中伦律师事务所高级顾问
随着生成式人工智能等颠覆性 AI 技术的突飞猛进,人类社会的生产、生活方式乃至社会治理模式都将随之迎来新的变革。在这一时代背景下,如何认识人工智能产业发展带来的各种法律问题,也越来越具有现实意义。基于此,7月13日,由中国人民大学知识产权学院主办、知产财经协办的“人工智能相关法律适用问题”研讨会在北京举办,会议邀请了行业多领域代表,共同探讨和研究实务中遇到的涉人工智能法律问题及解决之道,以期为人工智能相关环节的法律适用问题探究答案。会上,北京市中伦律师事务所高级顾问张鹏律师围绕“欧盟《人工智能法案》基于风险的立法特点与对我国的启示”话题进行主题演讲,知产财经对其主讲内容进行了整理,以飨读者。
感谢主办方的邀请,在讨论人工智能怎么保护、用什么保护的问题之前,我们先聊聊人工智能要不要保护、哪些要保护的问题。
就在昨天,欧盟官方公报公布了《人工智能法》。我们在实务中会涉及到很多人工智能相关业务的合规性分析,包括著作权合规、知识产权合规,以及其他领域的合规。结合这些,谈一下实务中考虑的一些问题。
一、基本背景:人工智能技术发展进入第三次热潮
首先谈一谈人工智能技术发展的主要历史阶段。人工智能技术经历了两次高潮,两次寒冬,现在进入第三次热潮。在不同发展阶段,人工智能技术所基于的基础逻辑、理论有所不同。
人工智能的第一次热潮是基于行为主义的算法逻辑构建的。行为主义的算法逻辑,即基于历史行为分析未来行为。行为主义的算法逻辑下,人工智能技术的算力不足,导致了第一次寒冬。
在算力得以突破后,人工智能技术进入第二次热潮,判断逻辑从行为主义转变为思维主义(工具主义)。思维主义(工具主义)逻辑探究因果关系。在思维主义(工具主义)的判断逻辑下,人工智能技术经历了第二次高潮的发展。
人工智能技术发展的第二次寒冬,是依靠大数据来突破的。有了大数据,人工智能技术的判断逻辑从行为主义、工具主义变革到了结构主义。
简单概括人工智能技术发展的三次热潮和两次寒冬:第一次热潮,人工智能技术试图模仿人的行为,遇到了算力的瓶颈。第二次热潮,人工智能技术试图模仿人类的思维,建构因果关系,遇到了大数据的瓶颈。第三次热潮,是在做“比我更像我自己”的人工智能。第三次热潮跟前两次的差别在哪?前两次是“模仿永远不会超越”,模仿我的行为、思维,最多越来越像我,但永远不会做更好的我。但是在第三次热潮的“比我更像我自己”的逻辑下,人工智能完全可以做到超越我、更像我自己,因为人工智能可以得到更多反馈。这也是现在所讨论的人工智能的规制和以前所存在的本质性差异。在模仿我的行为、模仿我的思维的阶段,我们对人工智能的技术向善的关注程度和需求,不会像现阶段“人工智能比我更像我自己”这样强烈,这也是讨论欧盟《人工智能法》的基本技术背景和产业背景。
二、欧盟《人工智能法》概况总览
(一)欧盟《人工智能法》的立法目的
从欧盟《人工智能法案》的立法历程可以看到,德国、法国都提到过,对人工智能的规制带来的结果可能是对产业发展的影响。规制越多,产业的成本越高,所有的合规成本都落在企业。事实上,欧盟在《人工智能法》的制定过程中,一方面在鼓励创新,另一方面在讨论人工智能的治理,以及相应的对人的基本权利和相应伦理的维护,并试图平衡两者。
欧盟《人工智能法》的立法目的,如刚才提到,在“比我更像我自己”的技术背景下,需要考虑两方面问题,即保障欧盟公民的基本权利并且激励欧洲人工智能的投资与创新。要促进创新、促进投资,一定是越少监管越好,越少的监管,创新越活跃。
(二)欧盟《人工智能法》的适用范围
《人工智能法》的适用范围很广泛,不仅局限于欧洲。法案适用于所有位于欧盟境内的AI使用者,以及位于欧盟以外但相关系统可能在欧盟境内使用的AI系统的提供商和部署者,或其位于欧盟境内的授权方。根据法案第2节适用范围规定,该法案适用于不同层级的AI模型及应用参与者,具体包括:提供商、部署者、进口商、分销商和产品制造商 。这意味着参与AI系统的开发、使用、进口、分销或制造以及人工智能上层模型开发的所有各方都将承担责任。此外,即便提供或部署者位于非欧盟成员国的第三国家,一旦相关系统能够在欧盟境内使用,该法案同样适用于位于欧盟以外的AI系统的提供商和部署者,或其位于欧盟境内的授权方。为激励创新、巩固欧盟在人工智能研发前沿地位等目的,法案各项义务不适用于用于科研、测试或开发等活动的非商用或尚未商用的人工智能(商用后适用)。
(三)欧盟《人工智能法》的总体结构
欧盟《人工智能法》涵盖七个方面的内容,具体为,(1)人工智能系统(AI System)在欧盟市场上的投放、服务和使用的统一规则;(2)禁止某些人工智能行为;(3)对高风险人工智能系统的具体要求以及此类系统运营商的义务;(4)某些人工智能系统的统一透明度规则;(5)通用人工智能模型投放市场的统一规则;(6)关于市场监测、市场监督治理和执法的规则;(7)支持创新的措施,特别关注包括初创企业在内的中小企业。
(四)欧盟《人工智能法》的客体定义
欧盟《人工智能法》对人工智能系统的定义与世界经合组织(OECD)的定义大致一致,以确保法律确定性并促进国际协调。欧盟认为,这将为区分人工智能系统与更简单的软件系统提供充分而明确的标准,确保采取适当的监管方法。欧盟《人工智能法》认为,“人工智能系统是一种基于机器的系统,针对显式或隐式目标,从接收到的输入推断如何生成可能影响物理或虚拟环境的预测、内容、建议或决策等输出。不同的人工智能系统部署后的自主性和适应性水平各不相同。”该法采用较为宽泛的人工智能系统定义范围,适用范围较大,也间接导致了该法采用基于风险的分级监管模式,以达到限缩影响范围的目的。
三、欧盟《人工智能法》立法特点
欧盟人工智能法的立法特点可以概括为“分类化,全主体,全链条,动态化”。
(一)分类化:风险划分起点
从欧盟的立法文件来看,欧盟人工智能治理的整体逻辑是致力于精细化管理,精细化管理的前提就是分类,进而在不同的分类框架下进行差异化规制。对人工智能的监管越多越不容易创新,所以就把监管放到该监管的分类下,目的是为了平衡“维护技术向善”与“促进投资创新”这两个价值取向。
欧盟《人工智能法》基于人工智能系统对用户和社会的潜在影响程度,将其分为4类:不可接受风险类、高风险类、有限风险类、最小风险类。每个类别适用不同程度的监管要求。不可接受风险类将被完全禁止投入使用。高风险的人工智能系统须遵守更严格的合规要求。除此以外,多数人工智能系统属于风险较低的类别,将适用法案所制定的原则性义务(例如披露义务)及行为准则等。
(二)全主体:基于风险的各类主体义务
欧盟《人工智能法》规定了从提供者到部署者、分销商、进口商各自承担的义务,相关主体的合规成本总体上较高。
(三)全链条:基于风险的全链条监管体系
针对高风险的人工智能应用系统,欧盟设计了一系列贯穿相关人工智能系统生命周期的具体、持续和迭代的风险管理流程(Article 9),将成为法案在人工智能基于风险的风险管理上的一大立法突破。具体实施将取决于法案生效并适用后向相关主管机构的监管和执法情况。换句话说,“刑不可知,则威不可测”,具体监管和执法情况到底如何仍然有待观察。
(四)动态化:风险的动态调整
AI技术的快速发展导致AI系统风险程度和类型的随时变化。因此,欧盟《人工智能法》在风险评估、技术监测、合格评估、程序管控的各个方面实行动态化的调整。
(五)“基于风险”立法措施的争议
关于欧盟《人工智能法》采用的“基于风险”的立法措施,也存在一些争议,需要全面了解。
1. 风险计算和衡量标准及过程透明度问题
最大的争议是“风险”本身的界定分级问题。欧盟人工智能法的基础逻辑是将风险做分类,分别管理,从而实现技术向善和鼓励创新投资的平衡。前提问题是如何对风险进行分类。
在法案公布初期,由欧洲委员会于2021年4月21日所做的解释备忘录中,欧盟委员会就法案的风险分级问题进行了解释。其中声称,法案草案的风险分级是基于“权利和安全影响的风险计算过程”,但截止今日,欧盟未公布不同风险级别的具体计算过程。欧盟立法过程还涉及平衡考虑政治、经济、社会和其他难以计算的因素。在此前提下 “风险计算”的说法似乎夸大了法案基于风险体系所采用的方法的严谨性。
作为对比,相关国际标准(ISO 31073:2022)中,“‘风险’被理解为以下因素的组合:事件的概率及其后果。评估风险是一个计算问题,风险等级是根据概率和后果来计算的。”将欧盟《人工智能法》的风险分类标准与国际标准化组织所列举的国际标准中风险的界定和分类作对比,可以发现,总体而言,欧盟《人工智能法》的风险程度计算、风险分类原则、风险衡量标准较为模糊,由于风险分级过程受欧盟内部决策,涉及政治以及利益衡量等因素影响,风险等级划分并非完全科学透明。
2. 从法案立法过程看风险分级的设计漏洞
另外,从法案的立法过程同样可以看到风险分级本身设计的漏洞。在法案征求意见阶段,在欧洲委员会于2020年2月19日发布的人工智能立法白皮书中,“基于风险”的风险等级仅就“高风险”以及其他不具有高风险的人工智能系统进行了分级。法案的风险等级评估过程中,并没有就人工智能风险水平进行系统性的风险计算和排序,而只是为了区分高风险和其他人工智能系统。这意味着法案风险等级评估的重点是二分法(高风险与否),而不是“风险级别评估和排序”,这似乎并未满足法案声称的“基于风险”的立法主题。
(六)从“基于风险”的争议解读法案理念
在欧盟人工智能白皮书中,欧盟委员会认为,基于风险的方法将有助于确保计划的监管干预的比例性和适度性。基于风险的立法模式实际上不旨在通过单次立法全面解决人工智能系统风险管理问题,而是针对提案中特定挑战(人工智能的定义、人工智能创新激励等问题)的折中解决方案。
法案旨在规管人工智能风险的同时,也认可人工智能系统监管对人工智能创新造成的阻碍,以及对人工智能过于广泛的监管可能会不成比例地阻碍人工智能技术以及社会经济的发展等考量因素。
(七)通用AI模型的上层治理
通用AI模型(general-purpose AI model,GPAI或称GPAIM)是指无论该模型以何种方式投放市场,在使用大量数据进行大规模自我监督训练时均具有显著的通用性,能够胜任各类不同任务并可集成到各种下游系统或应用中。但在投放市场前用于研究、开发和原型设计活动的人工智能模型除外。
因此,GPAI与前述基于风险分级的人工智能系统是不同位阶的概念。GPAIM集成到各类下游应用场景中后,才可能落入法案的风险分级体系。法案针对GPAIM的基本义务适用于所有集成运用通用型AI模型定义的人工智能系统,而无关其实际应用场景。
(八)著作权视角议通用人工智能模型治理
著作权视角下,欧盟《人工智能法》第53条规定了通用人工智能模型(GPAIM)“提供者”的著作权义务,包括技术文件留档义务、信息共享义务、遵守欧盟著作权法和公开披露义务。整体而言,法案就GPAIM提供者创设的著作权相关义务可被归为两类:(1)GPAIM训练模型主要数据集合的披露义务;(2)遵守欧盟著作权相关法律(无论有关侵权行为地是否为欧盟境内)。值得注意的是欧盟《人工智能法》Article 53 (c)规定:“通用人工智能模型提供者应制定一项尊重欧盟版权法的政策,特别是通过先进水平技术等手段,确定和尊重权利人根据2019/790号单一数字市场版权指令第4条第3款表达的权利保留;”《单一数字市场版权指令》设定了文本和数据挖掘的著作权例外与限制,这一规定也体现了著作权制度与人工智能产业发展二者的协调。
四、欧盟《人工智能法案》主要启示
对于我国人工智能立法,可借鉴欧盟人工智能法案的立法理念,将基于风险划分的规制思路融会贯通。但是,对人工智能进行分类,是值得我们共同研究的问题。事实上,我国在这方面已经做了一些探讨,比如2021年全国信息安全标准化技术委员会发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》中给出的分类标准。只有在讨论明确如何分类的基础上,才能进一步讨论怎么对人工智能产业发展进行治理。
(本文仅代表作者观点,不代表知产财经立场)