作者:宁立志,武汉大学法学院教授、博士生导师/杨莹莹,武汉大学法学院博士研究生
内容提要:人工智能算法兼具“个体财产专有性”与“公共利益关联性”,这一特质使得当前以商业秘密保护为主导的实践模式面临诸多隐忧。商业秘密保护模式虽能在一定程度上弥补现有保护机制的不足,但其保密性与算法嵌入公共决策、社会治理等场景产生的透明性诉求存在价值冲突。相较之下,专利保护模式“以公开换保护”的机制更契合人工智能算法的私权客体定位与公法管制需求,既维护创新主体的个体财产私益,又为公共利益保障预留制度空间。尽管算法专利适格性问题在理论上尚未形成共识,但法律实践中已逐步探索出对算法相关发明专利保护的路径。为完善人工智能算法的专利保护,应调适专利审查标准,并强化专利披露制度。同时,为避免过度保护算法商业秘密,应合理衔接商业秘密保护制度,一方面设置专利制度内的激励措施,另一方面适当弱化算法商业秘密的保护力度,从而提高算法专利申请的积极性。
关键词:人工智能算法 专利保护 算法规制 开放式创新 专利适格性
算法作为人工智能产业发展的基石,在为新质生产力蓄势赋能的同时,其技术特性也给知识产权保护与公共治理带来了诸多挑战。近年来,既有研究多聚焦于人工智能算法生成内容是否属于著作权法和专利法保护客体及权利归属问题,本文所讨论的范围仅限于将人工智能算法本身作为知识产权保护客体的情形。在私法视域内,人工智能算法研发者通过知识产权制度维护其市场竞争优势具有正当性;而在公法层面,人工智能算法技术对社会治理结构和公共利益格局的深刻影响,要求法律对其应用进行规制。当前知识产权制度面临如下困境:现有信息保护范式下,著作权法受限于“思想—表达二分法”难以覆盖人工智能算法实质创新,专利法则因技术特征、充分公开等要求而将多数人工智能算法排除于保护范围之外。制度供给不足导致市场主体普遍诉诸商业秘密的保护范式。但商业秘密固有的保密性与算法透明化治理目标(如解释、监督与问责机制)存在价值龃龉。
尽管已有不少研究关注人工智能算法本身的知识产权保护问题,且主流观点认为应以专利保护为主导模式,但现有讨论大多仍局限于人工智能算法的专利适格性、技术公开充分性等单一层面,尚未系统回应私权垄断与公共利益之间、算法的法律保护与算法的法律规制之间的张力,亦缺乏与商业秘密制度衔接的体系化考量。人工智能算法兼具个体财产专有性与公共利益关联性,保护范围过宽可能导致“反公地悲剧”,保护力度不足则会迫使创新主体转向商业秘密保护模式,进而削弱专利制度通过技术公开所欲实现的创新激励与利益平衡效果。因此,从算法的知识产权保护层面来看,应选择何种保护路径,如何在研发环节促进相关知识传播与利用,同时在运用环节防范知识产权保护过度,需要现行法律及时地作出回应和调整。
一、人工智能算法公私利益的双重面向
“算法”(algorithm)一词由来已久,其起源可追溯至9世纪波斯数学家阿尔·花拉子模的名字(Al-Khwarizmi),他在著作中详细阐述了算术运算的规则和步骤,并强调了解决问题时遵循一系列明确、有序步骤的重要性,这种条理性后来被视为算法的核心。长期以来,“算法”这一概念常被简单归为数学原理、公式或思想的范畴。但随着计算技术的发展,算法的内涵已大为扩展,不再局限于抽象的数学步骤。算法是一系列以代码为载体、以解决特定问题为目标的独立于人脑运行的步骤方法,其本质是人类与机器交互的决策机制,即人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制。算法实际上兼具个体财产专有性和公共利益关联性。一方面,作为人工智能系统中相对独立的组成部分,人工智能算法可被单独表达、阅读和理解,是被用于解决特定技术问题的技术方案,具有明确的使用和交换价值,体现了其“个体财产专有性”。另一方面,算法正被越来越多地用于公共决策和高风险领域,并可能“延续、强化甚至创造新的不公形式”。这种应用赋予了算法前所未有的“公共利益关联性”。人工智能算法公私利益的双重面向,决定了法律体系需要兼顾私法领域的权利保障和公法领域的秩序监管。
(一)个体财产专有性
不论是基于洛克的劳动财产理论,还是基于边沁的功利主义理论,将人工智能算法视为个体财产私益并纳入知识产权客体范畴,具有正当性理论基础。
洛克的劳动财产理论为人工智能算法的私权保护奠定了基础。洛克劳动财产理论的核心在于,个体通过施加劳动,将人类的公共物品转化为私有财产。这一理论适用于人工智能算法,因为算法的开发并非源于“尤里卡”式的顿悟,而是一种密集的智力劳动,它要求开发者“思考出每个功能的每一个细节,协调它们,并将所有这些细节付诸编程语言”。开发者和经营者的这种研究、设计和编程等创造性劳动投入,正是洛克所说的“劳动掺进”。在这一过程中,大量的创造性劳动将算法从公有的“思想公地”中分离出来,转化为具体的、可操作的技术产品。这种劳动的核心在于其为社会创造了新的价值,而洛克的“劳动应得”或“增值”理论主张,值得获得回报的正是这种社会价值的创造,而非劳动本身。人工智能算法的技术和经济价值即来源于此。对算法的知识产权保护,实质上正是对个体创造性劳动成果的自然权利的确认与维护。
从边沁的功利主义理论来看,其核心内容是强调立法者在配置财产权利时应以社会福利的最大化为目标,在知识产权领域的具体表现为既要通过授予排他性权利来激励创造,又要控制这种权利对公众享用创造物的限制,并力求在二者间实现最佳平衡。通过物质对价充分调动人们创新的积极性,能够激励创新者投入更多的资源和精力进行算法研发,在保障个体合法权益的同时,实现社会整体福利的提升。在人工智能技术和产业发展过程中,如果缺乏知识产权制度对相关利益的确认和保护,创新主体将难以将技术外溢带来的收益有效转化为自身的经济利益,从而导致研发投入与市场回报之间出现结构性失衡。这种制度性市场失灵可能诱发创新投入的边际递减,最终使技术研发领域陷入“公地悲剧”的困境。因此,法律制度对符合要求的人工智能算法进行赋权,既是回应相互作用的个体对成本、收益进行调整的渴望,也是实现社会整体福利最大化的重要前提。
正是在这种正当性基础之上,各国在法律层面为人工智能算法创新主体提供了多种保护路径,包括著作权、专利权以及商业秘密等,以保障其研发和应用中所应获得的创新利益和投资收益。
(二)公共利益关联性
人工智能算法的公共利益关联性,并非源于其技术本体论意义上的固有属性,而在于其社会化应用进程中,产生了从“私利性”向“公共性”的倾斜。
在社会科学领域,关于“公共”的概念因视角不同而呈现出不同观点,但其核心意蕴均指向“共同性”。从词源上看,“公共”(public)一词源于希腊语的“koinon”(意为“共同、共有”)和“pubes”(意指能推己及人、理解他人利益),这两个词分别是英文“common”和“public”的来源;至17世纪末,法语“publicité”被引入英语,形成了“公共性”(publicity)一词。从价值指向上看,公共性关联着“公共利益”与“共同善”。因此,“公共性”的意蕴正是在人们超越私域、发生互动关系并寻求共同利益的领域中得以体现。相较于平台主要通过网络效应体现其公共属性,人工智能算法的公共性源于其作为通用目的技术的根本特性。人工智能,特别是其底层算法,具有普遍适用性、强大的技术外溢效应和驱动互补性创新的潜力,能够渗透到社会生活的各个层面。算法已超越理性工具的中立地位,演变为私权介入公共领域治理的技术媒介,其影响力也随之溢出私人领域,使广大公众成为其技术效应的普遍“受体”。例如,在规范维度,算法往往通过技术中立的表象掩盖其规范塑造的本质功能。在私法领域,个性化推荐算法依托精细的用户画像,不仅可能导致基于数据偏见的“算法歧视”,还可能通过精巧的界面设计与信息排序实施“行为诱导”,影响用户的自主决策;在公法领域,自动化决策系统将复杂的行政裁量权编码为算法参数,而由于人工智能算法的复杂性、迭代性以及知识产权保护等,导致行政决策过程的“不透明性”,社会公众与监管机构难以理解和审查其决策逻辑。又如,在生产组织与资源分配维度,算法通过对劳动者(如外卖骑手)实施精确实时的监控、调度与奖惩,将劳动过程高度量化;对海量数据的分析与预测能力,使得掌控算法的“技术资本”得以积累空前的经济力量,并最终加速了核心生产资料分配权向其集中的进程。由此可见,人工智能算法的发展方向、伦理规范与内嵌的价值取向,关乎“公共利益”与“共同善”的实现,这使其必然要接受公共价值的引导与审视。
综上所述,人工智能算法在社会生活中的广泛应用和深度嵌入使得其兼具个体财产专有性和公共利益关联性。就此而言,人工智能算法公私利益的双重面向决定了在考虑对其进行知识产权保护时,不能仅仅局限于私人利益的维护,还应当重视公共利益的关照。
二、人工智能算法的“商业秘密保护”倾向及其隐忧
信息财产保护的制度设计植根于市场失灵理论,其规范表达为通过法律介入来应对信息非排他性特征所导致的市场失灵问题。信息一旦公开传播,信息主体就难以通过对信息客体的排他性控制来禁止他人利用,此时市场自发形成的私力控制无法有效保护信息成果并激励信息生产。为纠正这一市场失灵,法律介入信息财产保护形成“秘密—公开”的二分范式:秘密信息的保护遵循市场自治原则,法律通过对私力构建的事实控制状态进行法秩序确认(如商业秘密制度),形成支撑型激励机制;公开信息的保护则需人为重构市场激励机制,通过法律创设排他性权利(如著作权、专利权),建立创设型激励机制。在信息公开和鼓励传播的调整范式下,当前的专利制度和著作权制度在为算法提供保护时面临一系列障碍,难以提供既恰当又周延的保护。再加之算法在技术架构中的底层嵌入特性,使其天然具备非透明性特征,这与商业秘密保护中的“秘密性”要件高度契合。这种技术特性与法律要件的耦合,叠加技术迅速迭代带来的市场客观需求与自发选择,使得商业秘密保护模式在算法保护中占据了主导地位。尽管以商业秘密的方式保护算法能够弥补现有保护机制的不足,但在社会价值层面则不无疑问。
(一)实践倾向:商业秘密保护
在当前的市场环境和法律框架下,为有效保护算法带来的经济利益,大量经营者将算法作为商业秘密进行保护。从现实角度观察,人工智能算法运行于相关智能系统的技术底层,具有天然的非公开性。从制度资源供给的角度看,商业秘密保护能够有效弥补专利权客体适格性障碍与著作权保护不足的制度缺陷。因此,人工智能算法整体的商业秘密化,既是经营者的主动选择,也可以看作是制度资源供给缺位所引发的被动选择。制度供给缺位主要体现在如下方面。
其一,保护的客体范围。就著作权保护模式而言,人工智能算法可受保护的范围仅限于具有独创性的表达,而无法涵盖属于思想内容范畴的技术功能。而在商业秘密保护模式下,保护范围可延伸至抽象思维层面。就专利权保护模式而言:首先,算法本身是否可以作为专利权保护的客体尚存争议;其次,专利权系“以公开换保护”,而算法的公开披露可能因算法黑箱问题在实践中存在障碍。相较之下,商业秘密制度所保护的客体范围更广,可以将难以获得专利权保护的信息纳入保护范围。
其二,保护的客体属性。对于商业秘密保护这一典型的支撑型激励机制而言,其首要目的是激活市场机制对创新资源配置的基础功能,主要调整路径在于保护私力构建的产权、纠正不法行为。其并不十分关心受保护成果的创新程度,也不预设客体的创新性阈值,而是交由市场实现优胜劣汰。专利权、著作权这类创设型激励机制则不同,其是独立于社会事实之外重新建构的一套社会秩序,本质在于禁止他人对信息客体未经许可的利用行为,须通过权利要求、固定、登记等方式对看不见、摸不着的信息的保护范围进行明确,同时对保护客体的创新程度有更高的要求。
其三,保护的效力层级。尽管商业秘密保护制度无法排除他人对相同信息的独立研发和利用,看似不及专利权赋予权利人排他权的保护力度,但由于算法独特的技术特征为其构筑了极强的保密屏障,第三方若想对其进行反向工程,通常将面临极大的技术困难。算法的反馈环路不仅受到人为操控与主观判断的干扰,其动态演进更导致反向工程不可避免的时间滞后;同时,实现还原所依赖的各决定要素(如抽象层次与完整度)之间还存在着固有的悖反关系。例如,谷歌用于驱动其搜索引擎的算法,因其本身在技术上就难以被实施反向工程,加之产业日益依赖软件而非人工,掌握核心技术的员工数量极为有限,这极大降低了专有技术因人员流动而外泄的风险,从而使其商业秘密几乎可以得到无限期的保护。可见,对于算法这类不透明、不易被实施反向工程的信息而言,商业秘密保护提供了一种无须公开即可保护的机制,这与专利保护所要求的信息公开披露形成鲜明对比。从市场角度来看,信息保密可以维持竞争优势,帮助企业保持市场领先地位。法律和市场的双重作用进一步巩固了商业秘密保护模式在算法保护中的主导地位。
(二)适用隐忧:保密性与透明诉求的价值对立
商业秘密保护制度为人工智能算法提供了无须公开即可获得保护的有效路径,其对算法的包容性保护体现为构成要件的开放性解释。理论上,只要满足秘密性、价值性和保密性三重要件,宽泛意义上的算法内容均可纳入保护范围。商业秘密保护在制度层面赋予了算法保密甚至是维持“黑箱状态”的正当性、合法性;与此同时,人工智能算法的复杂性和低透明性致使社会公众无从知晓、无法理解算法的工作原理和决策过程。这种保护方式也带来了大数据和人工智能技术背景下私构市场秩序、挑战法律价值的隐忧。
在竞争法维度,算法黑箱为新型垄断行为提供技术庇护。头部平台通过不公开的推荐算法实施自我优待,如亚马逊利用隐秘的搜索排序算法优先展示自营商品,谷歌比价购物服务通过算法降权竞争对手链接,此类行为因技术不透明而难以被实时监测。更隐蔽的风险在于算法合谋的智能化升级。正如美国司法部诉大卫·托普金斯案与斯宾塞·迈耶诉优步案所揭示的,经营者已在滥用算法操纵价格,将传统的“密谈室”共谋转变为在“数据中心”执行的、更难察觉的自动化合谋行为。当算法成为市场力量的放大器时,算法黑箱和商业秘密保护制度实质上为垄断行为提供了技术和法律庇护。
在民事权益层面,商业秘密制度对算法技术的保护,可能对算法相对人的权益救济造成实质性阻碍。例如,当算法应用于就业评价、信用评估或保险定价等场景时,其决策逻辑的非透明性往往会使算法相对人的知情权、异议权等合法权益面临在程序上被架空的风险。在Houston Federation of Teachers, Local 2415 v. Houston Independent School District案中,休斯敦独立学区依据第三方公司SAS开发的EVAAS算法模型对教师进行绩效评分,并将低评分作为解雇或不再续聘的重要依据。然而,由于EVAAS算法被作为商业秘密进行保护,涉案教师无法获取增值方程、源代码、决策规则等关键信息以验证评分的准确性。这种信息不对称导致涉案教师难以开展有效的实质性抗辩。在商业秘密制度的庇护下,算法获得了维持保密状态以规避外部监管的合法性外衣。这种非透明性将致使算法偏见、算法歧视等问题隐匿于监管盲区,进而可能使商业秘密制度异化为掩盖算法权力滥用的工具。
综上所述,商业秘密保护模式的主要矛盾体现在公共利益维度要求算法透明化以实现可信人工智能,而私权保护维度需要维持技术秘密以保障竞争优势。这种张力在金融征信、医疗诊断等高风险领域尤为突出,欧盟《人工智能法案》即尝试通过“高风险算法强制披露”制度寻求平衡。过度依赖商业秘密保护人工智能算法,不仅会阻碍信息传播与使用,还可能对市场竞争的公平性造成负面影响。因此,需要从制度构建层面寻求新的回应机制。
三、路径转向:以“专利保护”模式为主导
鉴于人工智能产业的飞速发展、专利制度促进信息公开的社会功能以及我国开放式创新的战略规划,各界对于算法专利保护的呼声日益高涨。无论从促进知识共享与利用的角度,还是从减少“算法黑箱”对监管阻碍的角度,“以公开换保护”的专利制度都应成为首选。
(一)以专利制度保护人工智能算法具有必要性
1. 契合算法公私利益的双重面向
将人工智能算法纳入专利法的保护范畴,契合其兼具“个体财产专有性”和“公共利益关联性”的特征。专利制度通过“以公开换保护”的核心机制,在权利配置层面实现了技术私权与公共理性的动态平衡,相较于商业秘密保护模式,更契合算法公私利益的双重面向。从保护个体财产私益的角度来看,人工智能算法的研发和应用不仅需要相关主体投入大量的物质资源和智力劳动,还面临着较高的研发、投资失败风险。世界知识产权组织《生成式人工智能专利态势报告(2024)》显示,全球生成式人工智能(GenAI)专利申请活动在过去十年中,尤其是在2017年之后,经历了爆炸性增长,而中国每年在该领域发布的专利数量超过了所有其他国家的总和。这一技术爆发态势亟须法律给予稳定性预期。因此,通过专利制度确认和规范产业主体的投资利益和技术研发者的知识利益,具有现实的合理性。从保护社会整体利益的角度来看,人工智能算法的专利保护有利于促进相关知识信息的流动与利用,进而实现社会整体技术的进步与发展。同时,通过专利制度保护人工智能算法,可以充分发挥“以公开换保护”的制度功能,有助于提高算法的透明度,进而促进社会对算法决策过程的理解和监督,对于保障公众利益和社会公平至关重要。
2. 顺应开放式创新理念
专利制度对人工智能算法保护的必要性,不仅体现于私权激励与公益平衡的传统法理逻辑,更深植于数字时代开放式创新生态的建构需求。亨利·切萨布鲁夫提出的“开放式创新”概念,颠覆了传统封闭式创新中的企业知识产权保护理念。在封闭式创新理念下,企业的战略主要是将知识产权视为构筑技术壁垒的工具,通过严格控制知识外溢来维持竞争优势。而开放式创新则重构了知识流动的底层逻辑。知识产权保护的侧重点已从维护企业垄断地位转变为在最短时间内实现商业价值,获利方式从知识蓄积转向强调知识分享与合作共赢,并且企业间的边界也随之模糊,促使知识在企业内外更自由地流动。尤其在国际竞争愈发激烈和国内科技纵深发展的背景下,构建开放式创新的知识产权应用机制,对于推动经济高质量发展以及增强国家核心竞争力,已成为不可或缺的战略举措。虽然从形式上看,开放式创新范式所追求的自由、开放、共享理念与专利制度的排他性特征格格不入,但实际上,开放式创新的“开放”特征与专利权的“排他性”存在着反向联系,有“排他性”的保护才能安心地“开放”,开放式创新并非完全否定专利制度的保护。因此,人工智能算法的专利保护不仅是对创新成果的保护,更是推动知识共享和技术进步的重要手段。
在技术迭代速率呈指数级增长的背景下,专利制度的核心价值在于打破技术封闭性,促进创新要素流动。要求算法开发者公开技术细节并达到“本领域技术人员能够实现”的标准,实质上建立了技术知识的公共池。以Transformer架构为例,谷歌于2017年公开并申请专利的注意力机制为BERT、GPT等大模型技术路线的发展奠定了重要基础,是专利制度推动开放式创新的典型例证。相较之下,商业秘密保护模式导致技术碎片化,各企业重复开发同类基础算法,将造成资源浪费。专利制度的开放属性则使算法创新从“创新孤岛”转向“累积共进”。
技术标准化是开放式创新的一个典型例子,通过大量企业、社会团体和研究机构等利益相关方的参与,共同贡献各自的技术知识和经验,形成更加开放且资源整合度更高的行业性、区域性乃至国际性的技术标准。尽管专利权的私权属性与技术标准的公共属性之间存在矛盾,但随着开放式创新理念的传播,标准化组织对技术标准中采用专利技术的排斥态度发生转变,大量专利技术被纳入标准、形成“标准必要专利”。这一过程体现了专利保护与开放共享的深度协同,技术标准的统一使得不同企业的产品和服务能够在技术层面实现高水平的互联互通,同时又通过标准化降低产业协作成本,从而提升了消费者福利,也促进了经济和社会的发展。
开源领域是开放式创新的另一典型实践,其本质是通过技术共享破除创新壁垒,实现知识资源的积累以及科学技术的全面进步。开源并非对专利权的放弃,探索开源与专利保护相结合的新型商业模式已崭露头角。以DeepSeek在全球的爆火为例,其技术驱动战略不仅关注核心技术的领先,还将开放式创新作为其关键战略之一,通过外部开发者和企业的参与,加速技术的落地和商业化。这种策略不仅让DeepSeek在技术上保持了领先地位,也为整个行业的创新发展创造了更多机会。DeepSeek所采取的“选择性开源+专利保护”策略既保护了核心技术的知识产权,又促进了技术的传播和应用。这种开放与保护的平衡,不仅符合容他性知识产权的理念,还帮助DeepSeek在确保竞争力的同时,扩大了技术的应用范围。
专利制度通过披露机制破除知识壁垒、借助标准化促进产业协同、依托共享实践驱动生态繁荣,最终在保护与开放的辩证关系中,为人工智能算法创新提供持续的制度动力。无论是标准必要专利还是DeepSeek“选择性开源+专利保护”模式,专利制度通过设定清晰的权属规则和技术披露要求,能够为知识流动提供安全通道和有效机制,实现开放与保护的动态平衡。专利权的排他性并非封闭技术的枷锁,而是将许可机制转化为开放协作的信任基石。专利保护确保创新者获得合理回报,开放共享则扩大技术应用场景,二者结合形成“创新—传播—再创新”的增强回路。这与亨利·切萨布鲁夫开放式创新理论中“有目的的知识流动管理”内核相呼应,表明算法专利保护不应仅被视为技术垄断工具,更是促进开放式创新生态的有效手段。在数字技术深刻重构全球竞争格局的当下,将人工智能算法作为可专利主题,完善算法专利保护体系,不仅是法律议题,更是关乎国家科技主权与创新话语权的战略抉择。
(二)以专利制度保护人工智能算法具有可行性
人工智能算法具有专利权保护资格是获得专利法保护的前提。包括我国在内的多数国家的专利法大抵从正反两个向度划定了可专利客体的范围:一是从正向明确可专利主题,二是从反向设置专利客体排除规则。具化到人工智能算法领域,受专利法保护的人工智能算法必须满足我国《专利法》第2条(可专利主题),即属于“技术方案”,并且不属于第25条(专利客体排除)中的“智力活动的规则和方法”。在信息技术迅速迭代、人工智能产业蓬勃发展的背景下,对于人工智能算法的专利适格性问题,尽管存有争议,但将部分符合要求的算法纳入专利法保护范畴已逐渐被专利审查部门所接受,给予其专利权保护是可以预见的国际发展趋势。
1. 人工智能算法不再仅指向“智力活动的规则和方法”
长期以来,算法被理解为“智力活动的规则和方法”,从而引发了关于算法是否应落入专利排除对象的争议。我国现行《专利审查指南(2023)》对“智力活动”进行了详细阐释,强调其是人的大脑所进行的推理、分析和判断等思维活动;并将“智力活动的规则和方法”定义为“指导人们进行思维、表述、判断和记忆的规则和方法”,包括计算机的语言及计算规则、数学理论、信息表述方法、计算机程序本身等具体类型。将“智力活动的规则和方法”视为抽象理论进而排除出专利法保护客体范围,背后的利益考量主要是避免给予专利权人过宽的保护,防止专利权人利用专利法垄断基本的思维规则和抽象概念,限制人类的思维自由和创新能力。
从算法的概念和特征来看,算法是以数学理论为基础发展而来,主要是指解决特定问题的方法和步骤,这些步骤通常涉及数字运算的定理、公式和逻辑分析。因此,算法从一开始就被视为抽象的数学原理或者思维规则。在机械工业时代,算法仍被普遍视为抽象的数学范畴,属于基础理论,因而算法本身不受专利法保护。随着计算机科学的迅猛发展,算法这一概念也从传统的数学领域被引入计算机领域。在1972年的Gottschalk v. Benson案中,“算法”首次成为计算机程序相关发明可专利性分析的焦点。该案申请人申请了一种将二进制编码的十进制数转换为纯二进制数的方法。该方法被描述为“与程序相关的数据处理,特别是数值信息的程序化转换”。美国联邦最高法院对该案的判决,实际上仍是将算法等同于智力活动规则,并将后者定性为一种“思维过程”,从而明确算法不属于专利权保护的客体。
进入“算法泛在”的智能社会,人工智能算法已具备明显区别于“智力活动的规则和方法”的特征。智力活动的本质体现在“主观性”和“抽象性”两个层面:“主观性”意味着智力活动本质上是人类的思维活动,这种活动直接源自思维本身或借助思维作为媒介进行;“抽象性”则体现在智力活动所产生结果的抽象性质上,若某一结果呈现出抽象性,则可推断该结果是经由主观思维过程生成的。用以指导智力活动的规则和方法亦相应地具备主观性或抽象性的特征。然而,人工智能算法并不当然指向“主观性”和“抽象性”。其一,人工智能算法不过分依赖于个性化的主观思维活动。与传统的算法不同,人工智能算法能够通过大量的数据输入和机器学习过程,自动调整和优化自身的参数和结构,从而生成新的、更趋近于人类智能的“新算法”,这一过程不依赖于人类预先设定的固定“规则集合”。虽然算法的初始设计和数据输入可能包含人类的主观因素,但这类判断活动并不需要个人主观判断力的过度介入,仍然具有较高的技术客观性。其二,人工智能算法呈现出技术方案与思维规则的双重法律属性。区别于纯粹的客观真相发现或基本规律描述,人工智能算法聚焦于实现人类认知活动的机械化模拟。例如,防止神经网络训练过拟合的Dropout算法,实际上是源于生物学理论,即通过随机丢弃部分神经元来防止过拟合,这种随机性类似于生物进化中的遗传变异。Dropout算法通过随机神经元失活机制提升模型泛化能力,其设计逻辑源于生物进化理论中的遗传变异原理,须借助数学工具模拟相关基础理论,重点考量数学工具对客观规律的反映精度及算法在计算机中的高效实现性,融合了科学与技术,兼具抽象与具体双重属性。人工智能算法的这种双重属性体现为:研究者在算法设计过程中,不仅需要基于客观规律选择适当的数学工具对基础理论进行模拟,还要确保算法能够通过计算机得以高效实现,以便进行实际应用。值得关注的是,随着算法技术的快速迭代,从通用算法到最终具体领域实际应用之间的距离已显著缩短,算法不属于专利法意义下的实际应用的前提预设已被技术发展所颠覆。对于通过计算机实施的算法中所包含的、为再现智能所须的完整技术对象和必要步骤,不应仅仅被认定为抽象的创意或者思路。
2.人工智能算法与“技术方案”具有内在一致性
人工智能算法与技术方案的内在一致性在专利制度的动态调适与审查实践中得到了充分体现,这不仅为人工智能算法的专利法保护提供了明确的指引,也为相关创新主体提供了更有力的法律保障。
总体而言,世界各国尤其是发达国家,将部分人工智能算法纳入可专利主题范畴,已成为推动本国创新发展的重要策略。美国专利法的历史转型和实践中的规则创新体现出技术发展背景下专利保护客体范围不断扩张的趋势,其对人工智能算法的态度转变,为算法纳入专利保护框架提供了经验支撑和实践路径。长期以来,美国在专利实践中将算法认定为智力活动规则,从而将其排除在专利法的保护范畴之外。然而,随着计算机技术的发展,20世纪80年代,美国联邦最高法院通过Diamond v. Diehr案明确了“整体判断原则”,强调在评估专利客体适格性时应从整体上判断方法或产品是否可以获得专利法上的保护,而不仅仅是其中的算法或数学部分,这是理念和方法上的重大突破,历史性地为软件专利保护打开了大门。“整体判断原则”的采纳,使得包含计算机程序的发明在满足特定条件的情况下可以获得专利保护。在随后的“Mayo案”和“Alice案”中,美国联邦最高法院确立了“两步测试法”(two-step analysis),用于评估专利申请是否符合美国《专利法》第101条的可专利主题要求。但“两步测试法”在实际应用中主观性较大,导致人工智能算法及其他软件创新在获取专利权和行使权利时存在诸多不确定性,也变相扩大了不适格主题的范围。据统计,在2014年“Alice案”之后,人工智能子领域的专利申请驳回率和放弃率显著上升。为解决自“Mayo案”和“Alice案”以来一系列判决在美国专利主题适格性问题上导致的混乱和不确定性,美国专利商标局(USPTO)对《专利客体适格性审查指南》(PEG, Patent Subject Matter Eligibility Guidance)作了多次修改和澄清,旨在完善“两步测试法”的适用流程与方法。2024年7月17日,美国专利商标局再次更新PEG,以明确人工智能发明的主题适格性问题,新增人工智能领域示例,细化“两步测试法”中“实际应用”的判定逻辑,进一步解释如何评估人工智能算法是否通过技术功能改进或特定领域效能提升实现抽象概念与具体技术应用的结合。由此可见,美国专利实践已从“算法不可专利”的绝对立场,转向以“技术整合度”为导向的整体评价范式。无独有偶,坚持以“技术性”作为专利保护客体判定标准的欧盟,通过《欧洲专利局审查指南》进一步明确了涉及计算机程序及人工智能发明的可专利性标准,针对“数学方法”部分的可专利性排除问题提供了指导,大幅调整“智力活动、游戏或者商业方案、规则和方法”的具体内容。尽管《欧洲专利公约》第52条排除了计算机程序“本身”的专利保护,但只要发明具备技术特征,相关软件及人工智能应用仍可获得专利授权。例如,基于神经网络和深度学习算法的医疗监测设备可获得专利授权。
对于人工智能算法的专利适格性问题,我国也已从最初的谨慎排斥走向逐步释放保护空间。作为我国首部专利审查规范,1993年公布的《专利审查指南》明确将涉及计算机程序本身或数学方法本身的发明排除在专利保护范围之外,并列举出“使用计算机求解圆周率π”和“使用计算机自动测量动摩擦系数μ”等不属于专利法保护对象的示例。可见,这一时期的《专利审查指南》仍将算法视为一种纯粹的数学方法。随着我国互联网和人工智能产业的发展,越来越多的发明专利申请包含算法特征或商业规则和方法特征。2019年修订的《专利审查指南》特别新增了“包含算法特征或商业规则和方法特征的发明专利申请审查相关规定”,并将“整体判断原则”贯穿于客体适格性的判断。该原则要求从整体上对技术手段、技术问题、技术效果进行分析,以判断是否属于“技术方案”;同时要求从整体上甄别是否属于智力活动的规则和方法,对包括“算法特征”但具有技术特征的人工智能,规定不得依据“智力活动的规则和方法”条款而排除其获得专利权的可能性。2023年修订的《专利审查指南》进一步完善了大数据与人工智能领域客体审查标准。针对算法改善计算机系统内部性能的情形,该指南明确规定即使权利要求未限定具体领域,只要算法与系统结构存在特定技术关联,能通过提升硬件运算效率或执行效果(如减少数据存储量、减少数据传输量等)实现符合自然规律的内部性能改进,即属于技术方案。此外,该指南还将审查范围延伸至处理具体应用领域大数据的算法。这类算法须能够挖掘数据中的内在关联,有效解决具体应用领域大数据分析中的技术问题,并实现相应技术效果的提升。2024年12月31日,国家知识产权局发布的《人工智能相关发明专利申请指引(试行)》继续强调整体论的判断方法,并进一步阐明了人工智能相关发明专利申请的客体要求。例如,权利要求中记载了“算法由人工智能芯片运行”,且整体方案包含硬件环境这类技术特征,则不属于智力活动的规则和方法。在专利审查实践中,算法的技术属性判断同样也是在“整体判断原则”下予以认定。例如“一种由计算机实施的驾驶技能评估方法”(CN105593095B)专利的审查结果认为,尽管车辆状态数据本身不构成自然规律,但通过数学统计方法,算法流程深度结合驾驶评估场景,形成解决“传统评估方法受环境干扰导致精度不足”技术问题的完整方案,故符合专利权客体要求。由此可见,我国对“智力活动的规则和方法”采取了宽松而灵活的解释立场,通过贯彻“整体判断原则”在审查标准上放宽了对人工智能算法专利适格性的限制,若人工智能算法在整体上具备技术功能或与物质载体相结合,且符合专利实质性要件(新颖性、创造性、实用性),则可能获得专利授权。在目前逐渐趋于严格的专利授权环境中,不论是美国还是我国,均强调对权利要求的整体考虑原则,这有助于防止“抽象概念”等例外条款的泛化适用,有效平衡激励创新与抑制专利投机的不同利益诉求。
人工智能算法专利保护的立法转变,直接原因在于信息革命发展的社会需要,根本原因在于人工智能算法本身的技术功能与发明专利之间的逻辑联系。技术方案须具备“利用自然规律解决技术问题”的本质属性,而人工智能算法通过数据处理、模型训练及决策输出等环节,已深度嵌入技术实施过程,展现出与技术方案同构的功能特征与价值内核。人工智能算法的直接运行目的是实现人工智能的技术功能,其技术效果已突破虚拟空间限制,对物理世界产生直接干预能力。例如,在国家知识产权局网站上公开的“一种自训练方法”,即通过创建缓存机制记录训练数据与输出结果,显著提升了神经网络模型的迭代训练效率。尽管涉及算法核心,但该权利要求明确限定了“缓存数据与计算机系统内部性能改进的技术关联”,通过减少冗余计算实现了符合自然规律的技术效果。我国专利审查机关依据“技术三要素”标准(技术问题为“训练耗时过长”、技术手段为“缓存数据动态复用”、技术效果为“算力资源优化”),认定其满足可专利性要求。总体而言,我国对人工智能算法专利保护逐渐持开放态度,既不排除人工智能算法自身改进获得专利权的可能,也认可“人工智能算法+技术特征”结合后的专利适格性。
(三)人工智能算法对应的专利权客体类型
根据最终表现形态的不同,发明可以划分为“产品发明”与“方法发明”。产品发明的最终表现形态是一种实物。而方法发明是指以工艺过程、操作条件或步骤流程等技术特征为表现形式,旨在实现产品制造、特定技术效果或解决特定技术问题的一系列可实施步骤与操作手段。从语义上看,人工智能算法专利更接近“方法发明”的范畴。我国《专利审查指南》(2023年)第二部分第九章第6节列举的“一种卷积神经网络模型的训练方法”“一种深度神经网络模型的训练方法”等示例,均体现了方法发明专利的核心特征,即通过控制或处理计算机内部或外部对象的操作步骤实现技术目的。然而,面对人工智能算法可专利性的争议,实践中常见的专利申请策略是将算法与具体的设备结合,以“算法+装置”的整体方案同时申请产品与方法专利。但产品发明与方法发明之间的界限并非泾渭分明,用于解决模拟智能技术问题的步骤或方法,也可能作为一个具备模拟智能能力的产品申请专利。在此情形下,若客体审查环节刻意区分“产品”权利要求与“方法”权利要求并以此来决定是否属于专利保护客体,并无法律意义。实际上,从“中国裁判文书网”近年来公布的计算机程序相关专利案件来看,法院对将算法作为方法发明专利给予保护已形成基本立场。其一,当技术方案的实质创新在于算法流程,且需通过计算机程序实现时,即使以硬件装置形式撰写,仍属于方法发明范畴,应通过方法专利获得保护。例如,在北京某某科技发展有限公司与国家知识产权局等实用新型专利权无效行政纠纷案中,法院认为,涉及硬件与计算机程序结合的产品权利要求,若技术方案的实质创新在于硬件构造改进,且所涉计算机程序为已知技术,则可纳入实用新型专利保护客体;反之,若权利要求同时包含硬件改进与程序算法本身的创新,则应排除在实用新型保护之外。其二,对于涉及计算机程序的发明专利申请,其方法权利要求与产品权利要求具有技术同源性,二者属于并存的权利类型。基于该特性,申请人可在权利要求书中同时撰写彼此对应的产品权利要求与方法权利要求。这为算法类发明提供了更灵活的保护路径。因此,无论以方法发明抑或产品发明的形式申请人工智能算法专利,其技术实质并无二致,在客体适格性判断环节不应受到区别对待。否则,专利法将陷入自相矛盾的境地,变相促使申请人在产品与方法权利要求之间进行文字转换。
在人工智能算法专利的客体适格性审查阶段,不可因方法与产品权利要求形式的差异而区别对待,但这仅限于“能否成为专利客体”的判断。该“同等对待”并不妨碍后续审查阶段依据两种撰写方式在知识披露深度、技术再现难度及社会成本收益上的实际差异作出差异化评估,并据此在立法或审查政策中予以适当倾斜。在人工智能技术环境下,将算法归入方法发明而非产品发明进行保护,直接决定相关专利之于权利人的作用,以及之于社会公众的价值。从权利人的角度来看,我国对方法专利侵权认定适用举证责任倒置规则,降低了权利人的举证难度。若算法被认定为方法发明,则原告仅须举证证明权利存在的事实,被告则须证明其实施方案落在专利权保护范围之外。这一证明责任已体现在我国《专利法》和《最高人民法院关于民事诉讼证据的若干规定》之中,契合算法黑箱特征,同时还能促使被告主动披露技术细节。以深圳市东方之舟网络科技有限公司与深圳市帝盟网络科技有限公司侵害发明专利权纠纷案为例,最高人民法院在判决中强调了原告举证的局限性,即涉及计算机程序的方法专利侵权,侵权行为需通过程序代码动态实现,专利权人难以直接获取被诉侵权系统的后台源代码,无法完整还原技术实施过程,故不应苛求其承担超出技术实际的举证义务。相较而言,被告举证更具优势,被诉侵权人完全掌握自身技术方案的具体步骤及细节,对该技术方案与涉案专利的差异等事实具有举证成本和便利性方面的优势。从社会公众的角度来看,人工智能算法的方法专利虽公开步骤,但若缺乏必要数据支撑,将导致本领域普通技术人员无法实际再现技术或实现效果,造成知识垄断范围不当扩大及社会公共利益失衡;而将人工智能算法归入产品专利范畴,通过实用性审查确保技术方案完整可实施,能为社会提供可直接学习应用的公共知识产品,更符合专利制度激励创新与知识共享的立法本义。诚然,在数据驱动的算法领域,将算法纳入方法专利的保护范畴存在客观缺陷,但完全转向产品专利也并非普适方案。鉴于人工智能算法的特殊属性,在确定人工智能算法方法发明专利的保护范围时,可通过调适人工智能算法专利审查标准、强化人工智能算法专利披露以及合理衔接商业秘密保护制度等方面,充分实现技术创新激励与权利滥用风险防控的平衡。
四、实现进路:人工智能算法专利法保护的制度完善
将人工智能算法纳入专利法保护范畴虽回应了技术与产业发展的现实需求,但不宜简单认为所有算法都应受专利权保护,否则会导致专利权保护范围的不合理扩张。通过专利法保护人工智能算法并借此促进相关知识的公开与流通,同时平衡创新者利益与社会公共利益,需合理划定人工智能算法专利法保护的范围。
(一)调适人工智能算法专利审查标准
通过专利法保护过于抽象、接近基础理论层面的人工智能算法,可能会导致原本属于公共领域的抽象理论和智力规则被私人垄断,从而限制他人对这些算法的进一步研究和创新。因此,在摒弃“人工智能算法不能获得专利权保护”这一守旧理念的同时,应当在专利客体审查标准上寻求平衡:既要防止因标准过严而抑制创新,又要避免因标准过宽而导致专利权保护范围过大,过度挤压社会公共利益。
首先,应考虑对现行《专利审查指南》的部分条文进行适当调整。现行《专利审查指南》将“算法特征”与“商业规则和方法特征”并列,置于“涉及计算机程序的发明专利”框架下。在人工智能技术快速发展的当下,这一分类体系的结构性局限逐渐显现。具体而言,与算法相关的专利在权利要求的撰写和授权审查过程中,始终须与计算机程序技术方案保持整体上的一致性。不可否认的是,人工智能算法具备与传统计算机程序算法相类似的技术外观,但随着智能技术的迅猛发展,人工智能算法已具备足以区别于传统计算机程序算法的技术特征。人工智能算法以模拟人类智能为目标,并在持续迭代中完成技术效果的累积与跃迁,始终处于动态演化而非静态的状态。因此,当前的分类方法可以看作是一种权宜之计,今后还须对《专利审查指南》进行结构性调整。建议取消“涉及计算机程序的发明专利”概念,并将“含有抽象思想的技术方案”作为上位概念,涵盖算法、商业方法等非实体技术形态。这样既可避免概念混淆问题(如将人工智能算法与普通计算机程序混同),又可为新兴技术发展预留制度空间。
其次,在专利权客体适格性判断过程中,继续坚持“整体判断原则”。专利法作为一个表面统一的体系,必须面对不同产业间(如生物技术与软件)截然不同的创新模式、成本和周期。美国学者Samuelson教授与Scotchmer教授在知识产权领域提出“政策杠杆”(policy lever)的概念,指出通过适当运用政策杠杆,法律制度可以对其所监管的技术和产业环境保持敏感,从而避免给予创新者过多或过少的激励。这些政策杠杆的实质是各种灵活的法律标准,其赋予法院合理的自由裁量权,允许法院将对行业敏感的政策分析纳入判决,灵活调整不同行业的创新激励机制。在人工智能算法专利客体适格性判断中,“整体判断原则”实质上就扮演了这种政策杠杆的角色。面对算法与各技术领域乃至经济、社会等非技术领域的紧密结合,“整体判断原则”提供了一种弹性的、个案化的分析工具,在一定程度上缓解了人工智能算法的专利法保护给统一专利制度带来的压力,也是司法进行价值判断正当化的缓冲器。审查机关不能仅针对权利要求中的语言进行判断,应该结合权利要求书的内容,从整体上判断客体的技术本质;对于涉及例外客体的发明,若发明整体上具有技术特征,应认定其符合专利适格性要求。客体保护例外规则应该成为过滤专利申请的底线,而不应承担过多评价功能。
再次,充分利用“正向界定”与“反向排除”两个维度合理划定人工智能算法专利权客体范围。“技术方案”是人工智能算法获得专利权保护的出发点,亦是排除不适格专利权客体的逻辑起点。对于“技术方案”内涵和外延的理解不应过于狭隘。由于技术的快速发展和创新形式的多样化,对“技术方案”的解释应当更加宽泛和灵活。这意味着,不能仅仅因为某个算法在形式上与传统技术方案有所不同,就轻易地将其排除在专利保护之外,而应关注算法是否实质上解决了技术问题、是否产生了技术效果,以及是否体现了技术构思。专利法的核心功能是为技术创新提供激励机制,设置较高的准入标准显然会起一定阻碍作用。同时,要充分发挥“智力活动的规则和方法”这一反向排除条款的作用。特别是对于具有跨行业通用性的人工智能算法而言,若对该类算法授予过宽的专利权利范围,其多场景应用潜能将加速“专利丛林”(patent thicket)问题的出现。尽管此前不少人工智能企业曾高调宣扬“开源”,但事实却是将人工智能基础技术不断圈入私有领地。谷歌、Meta、微软、IBM等巨头一方面开源TensorFlow、PyTorch等框架以集聚开发者智慧,另一方面却在Dropout、深度并行训练、记忆网络、主动学习标注等关键算法上布设专利壁垒。为防止人工智能领域“专利丛林”问题,还应充分运用严格的专利适格性判断标准。具体而言,须落脚于具体技术实现而非抽象理念,回归“抽象思维—具体应用”二分法,考察人工智能算法的具体应用程度。而对抽象概念具体应用程度的阈值设置问题,不单纯是法律问题,也是政策问题,是多方利益的平衡,是各种限制条件下的折衷。从域外实践来看,加拿大知识产权局(以下简称CIPO)在Yves Choueifaty v. Attorney General of Canada案后反思了传统“问题—解决方案”路径,认为其过度简化专利适格性判断,遂引入目的性解释原则——审查员须以本领域技术人员视角,综合评估权利要求中全部要素的实质作用,而非机械区分“技术特征”与“非技术特征”。2020年8月CIPO发布的《专利法中的可专利主题》(Patentable Subject-Matter under the Patent Act)报告,确立了“三步审查框架”:第一步,通过目的性解释识别权利要求的“必要要素”;第二步,从必要要素中确定实质性创新;第三步,判断该实际发明是否“具有物理存在,或可辨识的物理效果或变化,且与人工或制造技术相关”。对于未产生可辨识物理效果的计算机程序相关发明专利,如纯粹的数据处理步骤,审查难点集中在技术效果的判断。为应对此类难点,CIPO在《可专利主题分析示例》(Examples of Patentable Subject-Matter Analysis)中提出了两条策略。一是物理效果整合策略,即在方法权利要求中加入可产生可辨识的物理效果的操作步骤(如地震测量、钻井作业),使算法与物理效果或变化形成协同作用,但此策略可能导致权利要求保护范围过窄或难以维权。二是计算机性能优化策略,即在方法权利要求中强调该方法能够改善计算机本身的功能,显著减少处理量或提高速度等。例如,一种用于压缩视频数据的算法,该算法在保持与现有方法相同的信噪比和压缩程度的前提下,使用的处理步骤更少。相较而言,我国暂无类似“三步审查框架”的公示性指引,审查尺度弹性较大。为避免专利权保护范围过大和保护边界模糊的问题,对于方法发明的专利申请,我国可在指南层面明确列出可直接视为“技术效果”的示例,如显著缩短计算时间、降低能耗、提升并行效率等可量化的指标,为实践提供清晰指引。
最后,严格人工智能算法专利授权的判断标准。在专利法的框架下,新颖性、创造性、实用性作为可专利性判断的三大核心标准,是控制专利质量与数量、确保专利制度稳定性与灵活性的“调节阀”。面对人工智能算法类专利的审查,可专利性判断标准是防止专利权保护过度的控制工具。因此,在人工智能算法未被纳入专利法排除主题的情况下,对于人工智能生成技术方案的可专利性问题,应当回归到新颖性、创造性和实用性要件的分析。
其一,新颖性审查。我国《专利法》通过反向排除的方式规定了“新颖性”要件,即“不属于现有技术”且“不存在抵触申请”。“不存在抵触申请”的判断在实践中争议不大,人工智能算法新颖性审查的关键主要落在“现有技术”的认定上。与其他发明不同的是,人工智能算法对外部数据具有高度依赖性,其训练和优化过程依赖于大量数据的输入。对此,有观点强调在进行人工智能算法新颖性审查的过程中,应当特别关注对算法相关的数据集的辨别。本文认为,尽管数据的新颖性对人工智能算法具有一定影响,但数据本身不应成为判断算法新颖性的衡量标准。人工智能算法是否属于现有技术,应回归到对人工智能算法本身的结构、逻辑和实现方式、效果的新颖性判断上。若算法仅通过更换训练数据集实现性能提升,而未能改变技术本质,则不具有新颖性。
其二,创造性审查。创造性判断的核心在于,技术方案相较于现有技术而言,是否具有“非显而易见性”。传统“本领域普通技术人员”标准在人工智能算法语境下面临困境,算法的跨领域性和自主优化能力无形中拓宽了“所属技术领域”的范围,算法模块化复用可能造成微小改进叠加式创新的泛滥。因此,在审查人工智能算法的创造性时,应该拓宽比较范围,注重对算法迭代过程的深入分析,尤其是涉及算法结构、数据处理方法、计算效率等方面的改进是否能够带来实质性的技术突破,确保对算法进步的全面评估。
其三,实用性审查。我国《专利法》第22条第4款将“实用性”界定为“能够制造或者使用,并且能够产生积极效果”。根据《专利审查指南》的进一步阐释,产品发明须具备可制造性,方法发明须具备产业应用性,即二者均须满足可实施性、可再现性(事实判断),且能够产生积极效果(价值判断)。无论是在专利申请程序还是专利复审程序中,以缺乏实用性为由拒绝授予专利权的情形相对较少,这也导致实用性标准在专利审查过程中长期“备而不用”,难以充分发挥应有的过滤功能。实用性标准之所以长期未得到重视,根源在于传统工业时代申请的专利多为可被直接感知的产品专利,其能否被制造、能否被使用一目了然,审查机关无须投入过多精力即可作出判断,于是实用性要件在实质审查中被边缘化。进入人工智能时代,专利申请量急剧增多。算法技术的实施高度依赖数据、算力与环境,技术效果难以直接验证。若继续忽视实用性标准,将产生大量难以产业化或效果存疑的专利,导致公共利益与审查资源双重受损。尽管市场机制可淘汰缺乏实用性的专利申请,但该机制同时受制于策略性专利布局和政策干预。专利实用性要件的审查标准应与技术变革及社会需求相适应。从比较法演进维度考察,美国专利实用性标准经历了由弱到强的嬗变。20世纪中叶前,实用性要件曾被简化为“道德实用性”审查,其技术价值评判功能被严重弱化。而随着有机化学和生物技术的快速发展,发明与发现的界限日趋模糊。为应对这一挑战,美国专利制度通过司法判例确立了“特定性”“本质性”与“可信性”三重审查维度,实质强化了实用性标准。欧洲专利局也强化了“工业实用性”(industrial applicability)的审查标准。尤其是在生物技术等特定领域,欧洲专利局强调发明必须揭示一个具体的、可实现的、非推测性的工业应用,而不仅仅是一个抽象的概念或纯粹的发现,并通过判例明确指出“非特定、非实质且不可信”的推测性用途不被视为工业应用。我国应适当强化对专利实用性的审查。首先,强化“可实施性、可再现性”的审查标准。人工智能算法高度依赖数据规模、算力配置及运行环境,其跨域耦合特征导致再现难度显著高于传统技术。人工智能算法可能由于缺乏详细的技术细节说明和背景信息披露而不具有可操作性。强调技术方案的可实施性、可再现性标准,可以敦促人工智能算法专利申请人在数据、算力配置、训练脚本以及运行环境等层面提供更为详细的技术信息和技术操作说明。其次,强化“能够产生积极效果”的审查标准。不能仅考察经济实用性(如算法效率提升),还应增设社会实用性审查。应对算法应用风险进行额外关注,充分发挥社会实用性审查在预防技术危害方面的风险治理功能。多维度、全方位的风险评估有助于提前识别和干预可能的伦理规则冲突和社会风险,确保技术发展符合伦理和社会价值观。
(二)强化人工智能算法专利披露
披露既是专利制度的首要功能,也是专利制度的最终目的。相较于直接否定专利适格性,强化披露义务更具可操作性,可在审查或诉讼阶段动态压缩过宽的权利要求。在契约论视角下,专利权本质上是一种契约安排:发明人向公众公开其具备新颖性、创造性和实用性的技术方案,作为交换,国家赋予其在特定期限内的排他性权利。合理的专利披露标准不仅可将专利权保护限定在适当范围,同时还能促进实现技术增量。
专利披露与实用性审查虽紧密关联,但二者相互独立。《专利审查指南》在关于实用性审查部分中强调,因技术方案本身固有缺陷导致不具备实用性的,与说明书公开的程度无关。简言之,实用性审查关注的是技术方案能否在产业上被稳定再现,专利披露则要求说明书内容必须充分公开,二者为相互独立的审查环节,应当将实用性审查置于披露内容审查之前。大体而言,专利披露可分为“书面描述”和“可实施性”两个独立且互补的法律要求。例如,美国《专利法》(《美国法典》第三十五编)第112条即衍生出两项核心原则,一是“可实施性”(enablement),即本领域普通技术人员依据说明书披露及本领域公知常识,无需过度实验即可制造并使用该发明;二是“书面描述”(written description),即说明书须以足够充分的细节描述该发明,确保申请人真正发明了所主张的技术方案。我国《专利法》第26条第3款也包含前述要求,其中,“清楚、完整的说明”对应书面描述要求,强调技术方案的充分揭示与确定性,“能够实现”则对应可实施性要求。然而,由于人工智能算法具有低透明性、技术复杂性、数据依赖性、不可预测性等特征,专利申请人倾向于将核心技术信息隐藏并作为商业秘密保护,而将非核心部分用于专利申请,从而导致现行的“书面描述+可实施性”披露标准陷入双重困境:对创新者而言,过度披露可能削弱技术竞争优势;对社会公众而言,有限披露阻碍技术理解与二次创新。在人工智能技术范式变革的背景下,专利披露制度需要完成从“形式合规”到“实质公开”的范式转换,实现技术向善的制度性回应。
我国现行《专利审查指南》中,与人工智能算法披露相关的规定主要体现在第二部分第九章第5小节和第6小节,其分别对“涉及计算机程序的发明专利”和“包含算法特征或商业规则和方法特征的发明专利”的说明书中应披露的事项作出规定,但尚未构建起适应人工智能算法技术特征的披露标准。现行传统软件专利披露标准仅要求披露技术方案、设计构思及技术特征、技术效果实施方式、流程图等,而对包含算法特征的专利,现行标准仅在前者基础上增加了披露算法特征、与现有技术相比的有益效果及其产生原理的要求。2025年11月10日公布的《专利审查指南》(自2026年1月1日起实施)针对人工智能领域的专利申请说明书撰写作出了进一步的细化规定,对“充分公开”提出了更高的审查标准。其明确区分了两种情形:其一,对于涉及人工智能模型的构建或者训练,要求清楚记载“模型必要的模块、层级或者连接关系”及“训练必需的具体步骤、参数等”;其二,对于涉及在具体领域或者场景中应用人工智能模型或者算法的情形,要求清楚记载“模型或者算法如何与具体领域或者场景相结合”以及“算法或者模型的输入、输出数据如何设置以表明其内在关联关系等”。尽管前述新增规定在强化人工智能算法专利披露方面提供了重要补充,但鉴于该类技术固有的复杂性及其对法律规制的适配需求,人工智能算法专利披露还应从以下两方面进行强化。
一是加强算法源代码的披露。源代码是社会了解人工智能算法的重要途径,公开源代码可以为人工智能算法的后续开发者提供创新基础。更为重要的是,源代码的充分公开是实现“算法透明”的关键,有助于社会公众、特别是相关领域技术人员及监管机构更全面地了解算法设计,从而更有效地发挥公共监督的作用。这种透明化不仅有助于增强算法的公平性、信任性和可审查性,还能减少算法偏见和歧视,确保算法符合道德和法律标准。
二是加强数据要素的披露。数据不仅用于训练算法,还用于验证其有效性,并作为输入“原料”以产生输出结果。《专利审查指南》要求阐明数据“内在关联关系”,这一规定侧重于披露算法如何使用数据,但并未明确要求披露“训练数据来源”等。在实践中,“算法偏见”或“算法歧视”等问题的根源,往往并非来自模型架构本身,而是源于“训练数据来源”的系统性偏差。例如,数据采集自特定人群,或在清洗、标注过程中引入了隐性偏见。若仅将披露义务局限于数据间的“内在关联关系”,而未能延伸至训练数据的来源、清洗规则及标注标准等上游环节,则难以触及并辨识算法偏见等问题产生的系统性偏差源头,从而将阻碍审查机构对算法决策公正性与伦理合规性的有效评估。鉴于此,还应当说明训练数据来源、数据清洗规则及数据标注标准等。
(三)合理衔接商业秘密保护制度
当要求人工智能算法专利申请披露更多技术细节时,部分算法技术研发者可能会转而寻求商业秘密保护,这在一定程度上会削弱专利制度促进知识外溢和信息公开的社会功能。鉴于此,一方面,可以设置专利制度内的激励措施,提高人工智能算法专利申请的积极性;另一方面,可以适当弱化人工智能算法商业秘密的保护力度。
为提高人工智能算法专利申请的积极性,可从经济激励、审查优化、数据保障三个层面进行综合完善。经济层面,可参考我国现行专利收费减免政策,考虑降低专利申请费、减免专利年费,以此减轻人工智能算法专利申请人的经济负担;审查机制层面,可依托专利优先审查制度,使创新者能够更快地获得专利保护,从而鼓励专利申请与技术披露;数据安全层面,应建立算法训练数据的提存保管机制,成立专门的训练数据保管机构,明确保管机构的审核职责和保管义务,以确保训练数据的安全性和可被审查性。通过降低创新成本、缩短确权周期、保障训练数据安全和可验证等多元措施,平衡算法私益保护与信息披露的公共利益诉求。
除设置激励措施提高专利披露积极性之外,还应当系统检视当前算法商业秘密保护的实践偏差,合理控制算法商业秘密的保护力度。对算法商业秘密保护力度的合理与否关乎算法技术创新发展和市场开拓,也直接影响到算法相关知识开放与共享的水平。若过度强化算法商业秘密的保护,将变相增强创新主体从专利制度向商业秘密制度“逃逸”的欲望,进而削弱专利制度的激励作用。这意味着通过评估底层算法准确性、公平性来验证这些技术所产出的关键效果的难度将可能远超预期。从产业发展角度来看,这种做法不仅与科技领域开放式创新的趋势相悖,也不利于实现提升整体经济效率的政策目标。有鉴于此,应合理控制算法商业秘密保护水平,防止因人工智能算法技术持有者过度依赖商业秘密制度而限制技术信息的传播和流动。然而,目前在司法实践中,商业秘密构成维度,缺乏能够适应算法的“价值性”判断标准;保密义务来源维度,保密义务的范围缺乏有效约束;不法行为认定维度,“改进使用行为”范围模糊;合法来源抗辩维度,反向工程的限制力被削弱。这些问题弱化了商业秘密制度内利益平衡规范的效能,不仅可能制约创新和技术进步,还可能在算法商业秘密保护与公共利益、竞争秩序等其他利益之间造成失衡。对此,应基于商业秘密构成、保密义务来源、不法行为认定以及合法来源抗辩这四个维度,从“严格认定算法商业秘密是否存在”和“审慎判断侵权事实是否成立”两个方向共同划定算法商业秘密的合理范围:其一,应重视并明确“价值性”认定标准,可利用反向工程的逻辑来间接判断秘密信息的价值性,进而避免对那些普遍存在且不具备竞争优势的知识进行过度保密;其二,应适当约束保密义务范围,限定“推定保密义务”的范围,排除不合理的推定义务;其三,应审慎认定“改进使用行为”,综合考量原告所持算法商业秘密在被告产品或服务中的贡献度,不仅需着眼于贡献的“量”,还需对其“质”给予重视;其四,原则上否认“禁止反向工程条款”的效力,除非反向工程的实施将对公共利益造成严重损害,否则该条款原则上不能约束他人为获取算法商业秘密而合法实施反向工程的行为。需要明确的是,对人工智能算法商业秘密实施适度弱化保护强度的制度安排,目的是充分利用知识产权制度体系的内部激励,引导技术持有者在“封闭保护”与“开放式创新”之间作出平衡公共利益的选择。这种调整并非否定商业秘密制度的保护功能,而是针对当前人工智能算法整体商业秘密化的倾向,通过专利确权机制与对商业秘密保护水平的合理调整,形成技术披露激励与创新收益保障的良性互动关系,最终实现创新保护与知识共享的平衡。
结语
2025年初,中国企业开发的DeepSeek在全球市场迅速崛起,再次充分彰显了人工智能大模型与算法在国际竞争中的战略地位。DeepSeek的成功不仅源自其在技术创新方面的突破,更得益于其“选择性开源+专利保护”模式所体现的制度优势。在开放式创新的时代背景下,专利制度在促进知识传播与应用、保障企业核心竞争力方面发挥了积极作用,同时构建了防范风险的制度屏障。鉴于此,应充分肯定人工智能算法的专利适格性,并通过科学设置专利授权条件来识别、评估、筛选技术成果,从而提升人工智能算法专利的整体质量;同时,强化人工智能算法的公开披露标准,充分发挥“以公开换保护”的制度功能,促使技术信息由“黑箱”走向开放;此外,还需合理衔接商业秘密保护制度,避免因提高专利披露标准而致使企业转而寻求核心人工智能算法技术的商业秘密保护。





京公网安备 11010502049464号