作者:姚志伟 广东财经大学法学院教授、人工智能法研究中心主任
本文来源于《地方立法研究》2024年第3期。因篇幅较长,本文注释已略,建议阅读原文。
【摘要】
生成式人工智能发展遇到了著作权法上的挑战,其中一个重要挑战是生成阶段的著作权侵权问题,即生成物的著作权侵权问题。在该问题上,广州互联网法院作出了全球首例生成式AI服务侵权判决,即“新创华诉某科技公司案”,该判决有十分重要的参考意义。以该案为中心,人工智能生成阶段的著作权侵权包括生成物侵权所涉及的具体著作权权利、侵权责任主体和生成式人工智能服务提供者的注意义务问题。生成阶段侵权涉及侵害复制权、改编权,但不侵害信息网络传播权。当生成内容的最终来源是生成式人工智能服务提供者时,传统直接侵权与间接侵权的分析框架难以适用于侵权责任主体的分析,应构建以注意义务为中心的归责模式。该模式既可以明确责任主体,也提供了稳定预期进而有益于服务提供者的合规风控,在权利保护与技术发展之间取得适度平衡。
【关键词】
生成式人工智能服务提供者 生成阶段 著作权 注意义务 信息网络传播权
【目次】
一、生成物侵权涉及的著作权专有权利
二、侵权责任主体问题
三、生成式人工智能服务提供者的注意义务
结语
生成式人工智能的技术浪潮正在席卷全球,同时对人类社会的各个领域开始产生深刻影响,法律作为社会的一个子系统也受到这种技术浪潮的冲击和挑战。技术革命带来的挑战,在法律体系内部,著作权法往往是回应较早的法律。
20世纪90年代,对于互联网技术革命,美国版权法比隐私法、国家安全法等法律更早作出回应。这个回应的产物就是著名的《数字千年版权法》第512条,也就是避风港规则。在生成式人工智能领域,著作权法同样也是较早遇到挑战并作出回应的法律。这种率先的挑战和回应在司法上已有集中体现。在中国和美国,都出现了一系列与生成式人工智能著作权相关的案件。这些案件主要有以下三个类型:一是关于生成式人工智能的生成物(简称“人工智能生成物”)的可版权性问题。北京互联网法院判决了人工智能生成物可版权性第一案,引起了广泛的热议。美国同样也有相关案件引发广泛关注。二是生成式人工智能训练阶段中的著作权侵权问题。三是人工智能生成阶段的著作权侵权问题,通常也被称为生成物著作权侵权问题。中美两国司法上都有第二和第三种类型的案例。中国的广州互联网法院,更是已经就第三种类型的案件作出裁判,即“新创华诉某科技公司案”,在时间上领先于美国,也被媒体称为“全球范围内首例生成式AI服务侵害他人著作权的生效判决”。
本文以“新创华诉某科技公司案”作为基础,对人工智能生成物著作权侵权问题从以下三方面展开讨论:一是生成物侵权涉及的著作权专有权利;二是侵权主体,即在用户和生成式人工智能服务提供者都有可能对“侵权”有贡献的情况下,侵权主体如何认定的问题;三是生成式人工智能服务提供者的注意义务问题。
一、生成物侵权涉及的著作权专有权利
生成物著作权侵权问题,首先是侵害何种具体著作权专有权利?这主要涉及三种专有权利:复制权、改编权及信息网络传播权。在“新创华诉某科技公司案”中,原告就是主张这三种专有权利受到侵害,但是法院仅支持了原告关于复制权和改编权侵权的诉请,而没有支持其关于信息网络传播权侵权的诉请。本部分在分析法院判决的基础上,对具体专有权利的侵害问题进行探讨。
(一)复制权侵权问题
人工智能可以生成与权利人作品基本表达相同或者相似的生成物,如果这种生成未经权利人的许可,就会涉及侵害复制权。
这里需要进一步追问的问题是,人工智能生成行为能不能被视为一种复制行为?这个问题产生的原因在于,人工智能生成与传统的复制形式包括传统的拷贝等数字化复制方式,有显著不同。因为复制权并未限制复制的具体形式,因此人工智能生成也可以被认为是一种复制。我国《著作权法》第10条第1款第5项规定:“复制权,即以印刷、复印、拓印、录音、录像、翻录、翻拍、数字化等方式将作品制作一份或者多份的权利。”《保护文学和艺术作品伯尔尼公约》第9条第1款规定:“受本公约保护的文学艺术作品的作者,享有授权以任何方式和采取任何形式复制这些作品的权利。”这里的“任何方式和采取任何形式”就说明了复制权并没有限定特定的复制形式,这一概念是技术中立的,并且是面向未来的,可以涵盖那些在公约起草时未知的复制方式。《保护文学和艺术作品伯尔尼公约》和《著作权法》在起草时,并没有预见到生成式人工智能技术的出现,但这并不妨碍复制权涵盖人工智能生成这种复制形式。在“新创华诉某科技公司案”中,法院也支持了原告关于复制权侵权的诉请。
(二)改编权侵权问题
当生成物保留了原作品的基本表达,但又与原作品存在实质性区别时,就涉及改编权侵权的问题。在“新创华诉某科技公司案”中,原告主张案涉部分生成物融合了其作品形象和其他版权人作品形象,例如“奥特曼与美少女战士”的融合,侵害了其改编权。原告的诉请也得到了法院的支持。
在人工智能生成物侵害改编权的问题上,会涉及生成物是不是“新作品”的问题,而这又涉及人工智能生成物的可版权性问题。《著作权法》第10条第1款第14项规定:“改编权,即改变作品,创作出具有独创性的新作品的权利。”从改编权定义的字面含义来看,要求改编后的生成物可以构成“新作品”,才被视为侵害改编权;而生成物要构成“新作品”,就必然要求生成物可以构成作品,具有可版权性。必须承认,生成物的可版权性是一个极有争议的问题。北京互联网法院判决了生成式人工智能可版权性第一案,在该案中支持了生成物构成作品。该案获得了理论界的一些支持,同时也存在很大的反对声音。
在“新创华诉某科技公司案”中,法院并未论述生成物的可版权性,而是直接认为生成物“在保留该独创性表达的基础上形成了新的特征”,侵害了改编权。这里的问题是,在讨论生成人工智能生成物的行为侵害改编权时,是否必然以生成物的可版权性为前提呢?如果认为生成物不具有可版权性,生成物不能构成“新作品”,那是否不涉及改编权呢?并非如此,人工智能生成物侵害改编权不以生成物的可版权性为前提。这需要超越对法条的文义解释,回到立法目的的解释。
改编权是一种演绎权,其“控制的是在保留原作品基本表达的情况下,通过发展这种表达在原作品基础上创作新作品并加以后续利用的行为”。演绎与复制不同,演绎的关键是在原作品的基础上增加了新的内容,从而使得演绎作品与原作品产生了实质性的差异。复制权控制和演绎权控制的核心区别,在于改变后的作品是否与原作品有可被客观识别的显著差异。如果具有显著差异,且这个差异满足“独创性”中“创”的要求,则应被演绎权控制;如果没有客观上的显著差异,或者这个差异不满足“创”的要求,则应被复制权控制。因此,改编权对独创性的要求,以及新作品的要求,实质上是为了将改编权与复制权区别开来。正如学者在对《著作权法》进行释义时所载:“改编还必须对原作的内容做了修改,否则就是复制了。”立法者在设计改编权条款、提出独创性和新作品要求时,人工智能生成的情况还没出现。立法者当时并未设想到人工智能生成物涉及改编权侵权时,会因并非人创造导致缺乏独创性而不构成作品的问题。因此,从立法原意而言,改编权条款的独创性和新作品要求并不是对“创造主体为人”的要求,而是对改编作品与原作品客观差异的要求。
综上,只要生成物在保留原作品基本表达的基础上,在客观上与原作品具有显著差异,同时满足“创”的要求,就可以认为进入了改编权的控制范围,而这并不以认定生成物为作品作为前提。
(三)信息网络传播权侵权问题
在未经权利人许可的情况下,生成式人工智能服务应用户的要求,生成了与权利人作品实质性相似的生成物,能否被认为是以有线或者无线的方式向公众提供,并使公众在选定的时间和地点获得作品,从而侵害了权利人的信息网络传播权?
从用户角度来看,通过生成式人工智能获得作品与通过传统的互联网服务获得作品,有很大相似性;而传统的互联网服务提供者,不论是视频网站经营者还是图片网站经营者,如果未经权利人许可,让用户获得作品,都涉及侵害信息网络传播权。从这种相似性出发,易于直觉上认为生成阶段也会涉及信息网络传播权侵权。在“新创华诉某科技公司案”中,原告就主张信息网络传播权侵权。但是,如果认真审视人工智能生成的原理就可以发现,由于生成过程缺乏通常信息网络传播行为中的“提供要件”,因而被认为不构成信息网络传播权侵权。
所谓“提供要件”,是指网络服务提供者将作品以有线或者无线方式向公众提供。具体而言,提供是指将作品置于信息网络,使得公众可以在选定的时间和地点获得。提供的方式以上传为主,也包括其他方式。《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》第3条第2款所规定的方式,包括 “通过上传到网络服务器、设置共享文件或者利用文件分享软件等方式,将作品、表演、录音录像制品置于信息网络中”。需要指出的是,这里的“置于”是将作品的数字复制件置于信息网络中,然后再通过信息网络的方式传播出去。因此,在用户通过传统网络服务获得作品的过程中,侵权人是将作品的数字复制件置于信息网络空间中,然后用户可以通过浏览、下载的方式获得作品的数字复制件。在这个传播过程中,始终有一个数字复制件存在于信息网络,可以进行“一对多”的交互式传播。用户获得的数字复制件与提供端的数字复制件具有严格的对应关系,由提供端的数字复制件经过传输,产生用户端的数字复制件。
在人工智能生成的场景下,是否还存在类似的提供行为呢?答案是否定的。在人工智能生成的场景下,作品的数字复制件主要存在于两个阶段,一是训练阶段,包括预训练和优化训练;二是生成阶段。在训练阶段使用了作品的数字复制件进行训练,然后在生成阶段生成了作品的数字复制件。这看起来,似乎可以把训练阶段使用作品复制件进行训练的行为理解为“提供”行为,用户在生成阶段可以通过指令的方式在选定的时间和地点获得作品。但这个逻辑是不成立的。这里的主要问题在于训练阶段并非将数字复制件置于信息网络中,并在交互传播时始终存在于网络。训练之目的是形成模型参数,这个过程完全可以不在信息网络中进行。训练完毕后,可以认为数字复制件并不存在于模型中。同时,由于模型并不“存储”作品,所以人工智能并非将一个数字复制件向不特定的用户进行传播,而是每次根据用户的指令都产生新的生成物,每次产生的新生成物往往相互之间还存在不同之处。因此,在用户与人工智能的交互传播过程中,并不始终存在一个数字复制件可供用户获得。用户端所产生的作为数字复制件的生成物,也不是经由训练数据中的作品数字复制件传输而来,而是人工智能模型根据用户指令独立生成。
可以打个比方进行说明,李四拥有他人享有著作权的风景画之数字复制件,他把风景画的数字复制件放到信息网络上让公众浏览、下载,这当然是典型的信息网络传播行为,受到信息网络传播权的控制。如果李四是美术生,他学习这个风景画,然后用户可以在网上下单,让他画与该风景画构成实质性相似的画。每个用户下单后,李四都单独画一遍,并将画作通过社交网络发给用户。李四每次画的风景画都有点不同,因此每个用户获得的风景画都是有所不同的,但与原作品都构成实质性相似。在这个例子中,李四画出的风景画可以理解为原作品的数字复制件,也通过信息网络进行了传输。在这个过程中,李四没有将原作品置于信息网络中的提供行为,从而使得其行为不在信息网络传播权的控制范围内。
二、侵权责任主体问题
(一)侵权主体是用户还是生成式人工智能服务提供者?
在人工智能生成物问题上,其中一个很难绕过去的问题是,究竟是认定使用人工智能侵权生成物(指生成物涉及侵权)的用户侵权,还是认定生成式人工智能服务提供者侵权?抑或是二者都侵权?正如有学者指出,人工智能生成的过程涉及用户与人工智能之间的来回互动,是交互式的,传统的侵权检验标准难以适用。以“新创华诉某科技公司案”为例,用户输入“生成一个奥特曼”“奥特曼融合美少女战士”等提示词,被告提供的服务生成了包含奥特曼作品基本表达的生成物。在大部分情况下,生成物的最终来源是生成式人工智能服务提供者的训练行为。在这种情况下,就侵权生成物的产生而言,用户输入的提示和生成式人工智能服务提供者的生成能力缺一不可,很难区分用户与生成式人工智能服务提供者在侵权过程中的贡献度。一方面,没有用户的行为,特别是用户的提示词,不可能产生侵权生成物。这还需要考虑到,用户还可能存在明显的侵权意图,如故意使用一些诱导性的提示词来诱使人工智能生成侵权生成物。另一方面,必须承认的是,生成物的产生主要来自人工智能的能力,正如美国权威知识产权学者马克·莱姆利(Mark Lemley)教授的观点——生成物的表达主要来源于人工智能。美国版权局在数个案件中也认为,在表达由人工智能而非人贡献的情况下,人工智能生成物不具有可版权性。同时不得不考虑,在大部分情况下,人工智能之所以能够产生与作品相似的生成物,是因为训练阶段通常需要通过复制作品并对该作品进行“学习”。也就是说,生成式人工智能服务提供者在训练阶段已经接触和复制了作品。可以认为,没有这种接触和复制,在大部分情况下,无论用户如何提示也不会产生与作品实质性相似的生成物。有学者指出,最终产生构成侵权的生成物,并非生成式人工智能服务提供者和使用者可单独完成,而须双方合力完成。从本质上而言,侵权责任主体难以判定的难题,核心原因是因果关系难以判定,即无法清晰地指出生成式人工智能服务提供者或者用户的行为与侵权结果之间的关系,两者的因素缠绕在一起,很难判定。
在前述讨论的基础上,可以把人工智能生成过程中用户与生成式人工智能服务提供者的关系,与一般网络服务中用户与网络服务提供者的关系做一个对比。在一般网络服务中,侵权内容来自侵权的用户,网络服务提供者只是为用户提供工具,帮助用户进行内容的传播。在这样的情况下,用户被定性为直接侵权人,而网络服务提供者则是间接侵权人。在人工智能生成的情况下,侵权生成物的产生虽然有用户的原因,但大部分情况下,内容的源头是生成式人工智能服务提供者,它的因素无法被忽视。因此,很难直接套用直接侵权/间接侵权的框架将用户定义为直接侵权人,而将生成式人工智能服务提供者定义为间接侵权人。有学者也指出,生成式人工智能服务提供者和使用者就侵权的意思联络和行为分担也不明确,这导致共同侵权行为理论在生成式人工智能场景的适用方面面临很大挑战。
从域外实践来看,日本文化审议会著作权分科会法制度小委员会制定的《人工智能与著作权处理方案(草案)》,在相当程度上代表了日本在生成式人工智能著作权问题上的立场。该草案指出,用户和生成式人工智能服务提供者都可能承担直接侵权责任。生成式人工智能服务提供者是否承担直接侵权责任,需要考虑人工智能是否可以高频率生成侵权生成物,以及服务提供者是否采取了措施防范其生成侵权生成物等。但是该草案中的注释也提到了不同观点,有观点认为,生成式人工智能服务提供者即使采取了措施阻止侵权,也是直接侵权人;另有观点认为,生成式人工智能服务提供者即使不构成直接侵权,也可以作为用户侵权的帮助者,而承担共同侵权责任,这相当于是一种间接侵权。从上述表达来看,日本尚未就生成式人工智能服务提供者承担直接侵权责任达成共识,这也表明套用直接侵权/间接侵权框架来处理人工智能生成阶段著作权侵权问题存在困难。
在生成阶段侵权问题上,美国有一系列在审的案件涉及这个问题。在“《纽约时报》诉OpenAl等案”中,原告一方面主张OpenAI通过ChatGPT输出原告的作品,构成对原告版权的直接侵权;另一方面,原告主张在用户的生成行为构成直接侵权的情况下,OpenAI等被告对用户的侵权行为有实质性的推动和直接协助作用,也就是构成间接侵权。也就是说,对于同一个生成行为,原告既主张OpenAI承担直接侵权责任,也主张其承担间接侵权责任。这是不寻常的,这实质上是OpenAI的生成行为无法被准确定性为直接侵权或间接侵权的情况下,原告的诉讼策略性行为——通过同时主张而避免选错的不利诉讼后果。
(二)部署者的侵权问题
“新创华诉某科技公司案”的被告是通过可编程接口(API)的方式调用第三方模型的服务,它的身份是“部署者”。法院在判决中以“实质性相似”加“接触”为要件,认定被告调用他人模型服务输出生成物的行为构成著作权侵权。对法院这个判决思路的一个可能质疑是,生成行为是研发者(模型服务提供者)所作出的,部署者实际上并未实际实施或者说在物理上实施侵害他人著作权的行为,不应被视为侵权行为主体,承担侵权责任。笔者认为,法院的判决思路是正确的,部署者应被视为侵权行为主体,承担侵权责任。
在部署者侵权的情况下,可对侵权行为主体做适度扩展。日本《人工智能与著作权处理方案(草案)》明确表达了这种观点:“在现有的判例法和司法判决中,除了物理上实施侵权行为的人是版权侵权的主体之外,在某些情况下,行为实际主体以外的人也可以作为行为的规范主体(所谓的行为规范主体理论)承担版权侵权责任。“这种扩展是指,有些主体虽然没有物理上实施侵害著作权的行为,但由于在商业实践中深度参与了侵权行为,有被认定为“侵权行为主体”的必要性。因此将“侵权行为主体”的概念进行扩展,将物理上并未实施侵权行为的主体拟制为“侵权行为主体”。这在日本是通过“卡拉OK案”法理的运用而实现的。
该草案明确部署者作为“侵权行为主体”承担著作权侵权责任,“对于AI生成物的生成利用构成著作权侵权时的侵权行为主体判断,原则上由实施了物理行为的AI利用者作为侵权行为主体来承担责任。此外,根据上述规范行为主体论,不仅AI利用者,生成式AI开发者和服务提供者作为侵权行为主体承担责任的情况也存在”。这里的“生成式AI服务提供者”,对应的就是部署者。需要指出的是,按照该草案的观点,部署者是以行为人的身份承担侵权责任,而非以帮助者或教唆者的身份承担侵权责任。
从后果主义的角度来考量,研发者与部署者分离,部署者提供人工智能服务是人工智能行业的常态。在这种情况下,如果因为部署者没有物理上实施生成行为而不承担著作权侵权责任,则必然导致大量的著作权侵权行为无法被追责,或者追责的成本很高。这显然极不利于著作权人的维权,也不符合我国兼顾产业发展和权利保护的政策取向。
(三)用户合理使用免责问题
与侵权主体问题相关,还可以提出这样的观点:在生成阶段侵权过程中,用户才是直接侵权人,而生成式人工智能服务提供者仅提供了生成的工具。如果用户仅仅是个人学习、研究或欣赏,而不进行传播,可以构成合理使用中的“个人使用”。同时,由于用户是直接侵权,提供工具的生成式人工智能服务提供者是间接侵权,在用户由于合理使用而免责后,直接侵权不成立;则生成式人工智能服务提供者的间接侵权也就不成立了。笔者认为这种观点在大部分情况下是不成立的。
其一,正如上文所言,在大部分情况下,生成内容的最终来源是研发者而非用户,传统的直接侵权和间接侵权分析框架已经很难适用。因此,使用直接侵权/间接侵权框架,以用户个人使用为由而同时豁免用户和生成式人工智能服务提供者的侵权责任并不合理。
其二,上述思路的问题在于忽略了一个重要问题,即大量个人使用产生的集聚效应将导致著作权人的权利受到严重损害。这种损害在传统的网络服务中就已经存在,有学者将这种模式概括为“个人发起的行为与网络服务商提供工具的行为共同构建了以‘个人合理使用’为基础的商业模式”。例如,为个人提供云存储、书籍电子化、流媒体翻录等都是这样的商业模式。在这种商业模式中,个人的使用往往是可以构成合理使用的,但是大量个人用户的使用则会产生对著作权人作品市场的替代,也就是“集聚效应”。集聚效应使得著作权人的权利受损,从而使得法院在相关案件的处理上无法忽视这点。以日本为例,日本在“卡拉OK案”“MYUTA案”等一系列案件中,都通过对侵权行为主体进行扩展,将经营者认定为直接侵权人,而解决了产生集聚效应的个人使用免责的问题。日本学者将其描述为,将原本合法的行为(即个人合理使用)转化为非法行为(即经营者的行为)。
这种集聚效应在生成式人工智能场景下更显突出。举例说明,OpenAI的人工智能产品Sora已经可以生成60秒的高质量视频,以后也极有可能可以生成长达10分钟、20分钟甚至更长的视频。单个用户的生成、观赏可能对著作权人的利益影响不大,但当数以百万、千万计的个人用户都要求Sora生成“奥特曼”的视频时,就必然会产生集聚效应,构成对“奥特曼”作品市场的替代,从而严重损害著作权人的权利。
其三,从后果主义的角度考量,考虑到生成式人工智能的发展将使得生成内容成为人类获取内容的主要方式,上述免责思路将会架空著作权法。从生成式人工智能发展的趋势来看,生成内容将成为人类最主要的内容获取渠道,如果这个渠道完全放开,将架空著作权法。就内容的生产能力而言,以ChatGPT在2023年年初的生产能力为例,其14天生产的内容相当于人类至今所有书籍的内容。英伟达CEO黄仁勋指出:“今天,100%的内容都是预先录制的。如果在未来,100%的内容将是生成性的。”当生成内容已经是人类最重要的内容获取渠道时,著作权人必须能够对这个渠道中的作品传播进行有效控制。历史也表明,著作权法必然随着技术的发展变化而不断变化。人类进入信息时代,产生了信息网络传播权,从而使得著作权人能够控制在信息网络空间的作品传播行为。因此,在进入生成式人工智能时代后,如果将作品在人类最重要的内容获取渠道(人工智能生成)的传播因个人使用而被视为一种合理使用,就会导致著作权人无法控制其作品在这个渠道内的传播,从而必然导致著作权法的架空。
三、生成式人工智能服务提供者的注意义务
就生成阶段的著作权问题而言,与其纠结于侵权责任主体问题,即究竟将追责的重点放在生成式人工智能服务提供者还是用户上,不如将讨论的重心聚焦于生成式人工智能服务提供者的注意义务问题。
(一)聚焦于注意义务问题的优势
“新创华诉某科技公司案”中,法院将判决的重心放在生成式人工智能服务提供者的注意义务问题上。笔者认为法院的论证逻辑是合适的,这是因为聚焦于注意义务问题对于解决生成阶段的著作权侵权问题具有显著的优势。
其一,以注意义务为重心的侵权追责模式可以在一定程度上化解侵权主体难以认定的难题。正如上文所言,由于生成式人工智能场景的特殊性,生成式人工智能服务提供者和用户的因素在产生侵权结果时交织在一起,因果关系难以判定,从而难以对侵权责任主体作出清晰的认定。将追责的重心转向注意义务后,这个难题可以在很大程度上得到解决。具体而言,在侵权责任主体的判定上,不再纠缠于行为与侵权结果的关系,而是去审视生成式人工智能服务提供者是否尽到了注意义务。生成式人工智能服务提供者未尽到注意义务,则推定其行为与损害结果之间的因果关系成立,承担侵权责任。
在这个方面,欧盟的《关于使非合同性民事责任规则适应人工智能的指令(提案)》[以下简称《人工智能责任指令(提案)》]是一个较好的范例。该指令之目的是为解决受到人工智能系统侵害后的赔偿问题,其规定的是非合同的民事侵权责任。该指令规定了违反注意义务推定因果关系成立,从而解决因果关系难以判定,进而侵权责任主体难以判定的难题。该指令的前言指出:“为了解决难以证明潜在责任人负责的特定输入导致了特定的人工智能系统输出,从而导致相关损害的问题,适当的做法是:在某些条件下规定因果关系的推定……为了适用本指令下的因果关系推定,被告的过错应被确定为:人的作为或不作为没有符合欧盟法律或成员国法律规定的、旨在用于防止所发生的损害的注意义务。“该指令第4条第1款规定:“在符合本条规定的要求的情况下,成员国法院在对损害赔偿要求适用责任规则时,应推定被告的过错与人工智能系统产生的输出或人工智能系统未能产生输出之间存在因果关系,前提是满足所有下列条件:(a)原告已证明或法院已根据第3(5)条推定被告或被告对其行为负责的人的过错,包括不遵守欧盟或成员国法律中规定的直接旨在防止发生损害的注意义务。”
日本的《人工智能与著作权处理方案(草案)》在一定程度上也可以被认为采取了这个方案,该草案规定:“经营者在开发、提供生成式AI时,如果认识到该生成式AI生成与现有作品相似内容的可能性很高,但又未实施抑制该等相似内容生成的技术性措施,则经营者被评价为侵权主体的可能性会提高。经营者在开发、提供生成式AI时,如果采取了防止该AI生成与现有作品相似内容的技术措施,则经营者被评价为侵权主体的可能性降低。“对该规定在一定程度上可以进行这样的解读:采取抑制相似内容生成的技术性措施是一种注意义务。当生成式人工智能服务提供者不遵守该义务时,进行因果关系推定,认定其作为侵权责任主体,承担侵权责任。相反,如果生成式人工智能服务提供者遵守该义务,则不进行这样的推定。当然,相比欧盟的《人工智能责任指令(提案)》,日本的草案并未明确规定这种“违反注意义务——因果关系推定”的模式,而是采取了“评价为侵权主体可能性提高/降低”的表述。
其二,以注意义务为重心的侵权追责模式可以为生成式人工智能服务提供者提供稳定的预期,从而在保护权利的同时,促进产业的发展。在人工智能生成阶段可能侵权的情况下,生成式人工智能服务提供者面临预期不稳定的情况。这种预期不稳定意味着,其并不知道如果生成阶段构成侵权,会面临多大的责任;同时,更不知道应采取哪些措施来进行合规,从而避免承担损害赔偿责任。这种预期的不稳定性实质上增加了生成式人工智能服务提供者的风险,从而会减少可能的投资,阻碍了产业的发展
以注意义务为重心的侵权追责模式可以在很大程度上解决上述问题。注意义务实际上是一种行为人过失认定的客观化标准。在这种客观化标准之下,在认定行为人是否具有过失时不再探究其主观心理状态,而是统一采用基于社会生活共同需要而提出的客观标准,这种客观标准又可以称为“理性人”或者“善良管理人”标准。在这个标准之下,在认定行为人有无过失时,只要将行为人的实际行为与该客观标准进行比对即可。由于这个标准是客观化的,可以在立法上和司法判决中明确体现出来,因此各利益相关方可以便捷地获取,并提前对自身行为进行合规,从而降低风险。从这个意义上而言,注意义务为生成式人工智能服务提供者提供了稳定的预期。在“新创华诉某科技公司案”中,法院为生成式人工智能服务提供者明确提出了三个注意义务。这三个注意义务很快就被视为生成式人工智能服务提供者要遵循的合规标准,从而减少生成式人工智能服务提供者面临的著作权侵权风险的不确定性,为其提供了稳定预期。生成式人工智能服务提供者拥有稳定的预期,也就能够减少其面临的风险,从而鼓励投资,促进产业的发展。
(二)生成式人工智能服务提供者注意义务的内容
明确生成式人工智能服务提供者在生成阶段的注意义务的目的,在于保护著作权人的权利。
关于生成式人工智能服务提供者的注意义务,在“新创华诉某科技公司案”中,法院有明确的论述,包括三方面义务:设立投诉举报机制的义务、潜在风险的提示义务和显著标识义务。就投诉举报机制而言,法院明确指出其义务来源是《生成式人工智能服务管理暂行办法》(以下简称 “暂行办法”)第15条,该条要求生成式人工智能服务提供者建立投诉举报机制,及时处理投诉举报。事实上,除了上述规定外,在暂行办法的重要配套性国家标准,即《生成式人工智能服务安全基本要求》(TC260-003)中更是明确规定了生成式人工智能服务提供者在知识产权方面有设立投诉举报渠道的义务。法院在判决中强调著作权人可以通过这个投诉举报机制来保护其著作权。这里的投诉机制事实上与避风港规则中的“通知—删除”机制存在一定的相似性。这个机制可供权利人向生成式人工智能服务提供者发出侵权通知,生成式人工智能服务提供者在收到侵权通知并判定通知成立后,应及时采取必要措施停止侵权。就生成阶段而言,主要是采取对提示词进行关键词过滤的措施阻止人工智能继续生成与权利人作品构成实质性相似的生成物。
就潜在风险提示义务,法院援引了暂行办法第4条作为注意义务的来源,该条规定了生成式人工智能服务提供者和使用者都应该尊重知识产权。法院强调,生成式人工智能服务提供者应以服务协议等方式提示用户不得侵害他人著作权。法院的观点与《生成式人工智能服务安全基本要求》的要求是基本一致的,该国家标准明确规定生成式人工智能服务提供者“应在用户服务协议中,向使用者告知使用生成内容时的知识产权相关风险”,并与使用者约定关于知识产权问题识别的责任与义务。
就显著标识义务,法院援引了暂行办法第12条和《互联网信息服务深度合成管理规定》第17条作为义务来源。所谓显著标识,是指生成式人工智能服务提供者以让人可以感知的方式进行标识,从而使得公众能够认知到生成物是由人工智能生成。按照全国信息安全标准化技术委员会秘书处发布的《网络安全标准实践指南——生成式人工智能服务内容标识方法》,这种显著标识要求“在交互界面或者背景中添加半透明文字”。同时,对于人工智能生成的图片、视频,“应采用在画面中添加文字的方式进行标识”。在实践中,这个标识往往表现为“由AI生成”等文字形式。
对人工智能生成物进行标识,对于防范人工智能被滥用导致的公共安全风险有着极其重要的意义。标识对于著作权人的权利保护同样具有重要意义。法院在判决书中强调:“经标识后,有关权利人能够明确认识到生成物系由人工智能生成,进而采取更具针对性和有效的维权措施,更好地保护其权利。因此,标识义务不仅是对公众知情权的尊重,也是对权利人的一种保护性义务。”按照笔者理解,这里的更具针对性和有效的维权措施是指权利人要针对涉及侵权的生成物进行有效维权,应溯及生成物产生的源头,即生成式人工智能服务提供者。著作权人向生成式人工智能服务提供者发出停止侵权投诉,生成式人工智能服务提供者根据合格的投诉,采取对提示词进行关键词过滤等合理的技术性措施,防范侵权生成物的产生。如果没有标识,权利人并不知道侵权内容是由人工智能生成,从而也就无法向生成式人工智能服务提供者展开有效维权。域外同样有重要的官方观点认为,标识对于保护知识产权很重要。日本内阁府知识产权战略推进事务局在相关讨论中指出,使用水印等措施对人工智能生成内容进行标识,是防范生成式智能生成行为侵害知识产权的重要技术性手段。
上述三个注意义务对于生成式人工智能服务提供者而言是较为容易实现的,即使是对于中小型的生成式人工智能服务提供者来说,也不会为其带来显著负担。需要指出的是,在“新创华诉某科技公司案”中,法院并未将采取“关键词过滤等技术措施,防范侵权生成物的产生”作为生成式人工智能服务提供者的注意义务,而是仅将其作为生成式人工智能服务提供者需要承担的停止侵权责任。这就意味着,生成式人工智能服务提供者不需要事前采取措施,即在没有收到权利人通知或者法院命令的情况下,预先采取技术性的措施防范侵权生成物的产生。采取技术性措施防范侵权(生成)的义务也就是一种事后义务(责任)。
总之,“新创华诉某科技公司案”的判决关于生成式人工智能服务提供者注意义务的论述,为生成式人工智能服务提供者提供了明确的合规指引。可以按照上述三个注意义务进行合规,即建立投诉机制、以服务协议等方式对用户进行著作权风险提示,以及对内容进行显著标识。按照“新创华诉某科技公司案”的判决逻辑,当生成式人工智能服务提供者后续遇到著作权人诉讼时,如果其不是故意侵权,且履行了上述注意义务,就不应视为其存在过错,不应承担赔偿损失的责任。但是,仍然需要承担停止侵权的责任。
结语
本文以“新创华诉某科技公司案”为中心,探讨了人工智能生成阶段的著作权侵权问题。首先是生成阶段可能侵害的具体著作权专有权利包括复制权和改编权。就复制权而言,因为现行法对复制权的规定并未限定复制的具体形式,因此生成可以被视为一种复制。就改编权而言,不能对现行法做机械的文义解释,应该回到立法目的解释,只要生成物在保留原作品基本表达的基础上,又与原作品有客观的实质性差异,就可能涉及改编权侵权。从人工智能生成原理出发,在生成阶段并不会涉及对信息网络传播权的侵害。从侵权责任主体来看,在人工智能生成侵权生成物的过程中,生成式人工智能服务提供者和用户的因素交织在一起,很难区分。在因果关系上很难将侵权结果的发生归结为由一方行为所导致。在大部分情况下,侵权内容的最终来源是生成式人工智能服务提供者,难以适用直接侵权/间接侵权的框架分析人工智能生成阶段的侵权。最后,本文提出应关注生成式人工智能服务提供者的注意义务问题。以注意义务为中心的侵权追责模式可以在一定程度上化解侵权责任主体难以认定的难题。同时,注意义务的厘清有助于给生成式人工智能服务提供者以稳定的预期,在保护著作权人权利的同时,促进产业的发展。
在生成式人工智能带来的著作权问题中,生成物的可版权性和训练阶段使用作品的合理使用问题得到了较多的讨论,而生成阶段的侵权问题则讨论较少。本文以“新创华诉某科技公司案”为中心,对该问题进行了初步的探讨,还有部分问题尚未展开讨论。例如,在“新创华诉某科技公司案”中法院要求生成式人工智能服务提供者建立投诉举报机制,以及豁免其在事前采取技术性措施防范侵权的义务。法院事实上是在借鉴现有避风港规则的基础上,建立适合生成式人工智能服务提供者的新“避风港规则”。这个新“避风港规则”与现有针对网络服务提供者的避风港规则有何异同?其具体规则应如何设计?再如,从政策上来看,生成阶段侵权是不是可以与训练阶段的侵权统筹考虑。从日本《人工智能与著作权处理方案(草案)》来看,日本为促进本国人工智能产业发展,准备采取“放宽训练阶段,规制生成使用阶段”,即“输入宽,输出紧”的思路。这个思路在多大程度上能为我国相关政策和立法以及司法提供借鉴,在相关司法案件的判决中,如何具体地统筹两个阶段的侵权进行处理。这些都是极其重要且复杂的问题,限于论文篇幅,留待他文探讨。
(本文仅代表作者观点,不代表知产财经立场)
查看更多知识产权精彩内容,请浏览知产财经官网:www.ipeconomy.cn