于佳祺律师

全国服务热线

15901599448


联系我们
服务热线:15901599448

于佳祺律师

网址:http://www.yujiaqi360.com/

联系人:于佳祺律师

手机:15901599448

邮箱:yujiaqi@jingsh.com

地址:北京市朝阳区东四环中路37号京师律师大厦

当前位置:网站首页 » 新闻资讯 » 人工智能时代商业秘密的刑法保护
人工智能时代商业秘密的刑法保护
作者:魏彤 上传更新:2025-11-12 23:54
 摘要


人工智能时代商业秘密的外延在不断扩大,商业秘密刑法保护的范围难以得到准确界定。责任主体呈现多元化趋势,生产者、提供者与使用者均可能构成侵犯商业秘密的责任主体。生成式人工智能的发展使得侵犯商业秘密的行为方式和法益侵害不断拓展与演进。源代码、算法、数据等均可能成为刑法保护的商业秘密。侵犯商业秘密罪与非法获取计算机信息系统数据罪之间是法条竞合关系,不能因为侵犯商业秘密罪认定难就转而适用兜底罪名。生成式人工智能生成物作为商业秘密保护具有路径上的优势,其权利归属主要在服务提供者和使用者之间进行分配。强人工智能机器人作为“机器人雇员”,具有成为侵犯商业秘密罪责任主体的可能性。根据人工智能发展所处阶段的不同,确立商业秘密刑法分级保护的路径。逐步实现从工具利用安全观到交往秩序治理观的理念转向。人工智能生产者、提供者承担“守门人义务”,生产者的重大过失也具有刑事归责的必要性,刑法应适时增设数据安全责任事故罪。应尽快出台新的司法解释明确侵犯商业秘密罪“情节严重”的认定标准,实现“情节严重”的规范化认定。



2025年1月27日,DeepSeek AI智能助手同时冲上中美苹果免费应用排行榜第一,以极低的训练成本和优秀的推理能力,实现了国产人工智能大模型的历史性突破。ChatGPT、DeepSeek等生成式人工智能,让我们更加真切地感受到了“未来已来”。科技发展给人类社会带来了有关法律、经济、伦理等方面的挑战,这些挑战不是“将来时”而是“进行时”。对此,刑法学者也应当敏锐地把握科技变化对刑法具体领域法益保护的影响,有的放矢地作出应对。人工智能技术的迭代发展对商业秘密的刑法保护提出了更高要求,在行为界定、责任分担与保护路径上不能简单套用既有的法律规则。例如,对于生成式人工智能生成物,现有研究主要将其关联到著作权的刑法保护领域,却鲜有学者对与之相关的商业秘密刑法保护问题展开探讨。对于数据权利的刑法保护,虽然存在财产权保护、知识产权保护和计算机信息系统安全保护等多种方案,但仍然存在忽略或回避商业秘密保护路径不足的问题。本文拟从人工智能技术迭代发展对商业秘密刑法保护的影响、人工智能时代商业秘密刑法保护的基本内容与保护路径等方面展开分析,以期为人工智能时代商业秘密的刑法保护提供理论支持和方法论参考。


一、人工智能技术迭代发展对商业秘密刑法保护的影响


人工智能技术正以前所未有的速度改变我们认知的世界,技术是发展的底层逻辑,而法律作为上层建筑也应当与时俱进。在商业秘密保护领域,人工智能技术的迭代发展正催生三重结构性矛盾:其一,技术要素与法律概念的错位导致商业秘密刑法保护范围呈现模糊性;其二,技术监管的分工导致商业秘密刑法保护责任主体多元化;其三,智能化的侵权手段导致侵犯商业秘密的行为方式和法益不断拓展与演进。


(一)对商业秘密刑法保护范围的影响


受中美贸易摩擦和美国对华“301调查”报告的影响,结合我国商业秘密法律制度的调整需要,我国2019年修订的《反不正当竞争法》强化了对商业秘密的法律保护,取消了“技术信息和经营信息”的内容限定,放宽了商业秘密保护的条件。根据《反不正当竞争法》第9条,商业秘密是“不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息、经营信息等商业信息”。从定义上来看,商业秘密的范围较为广泛,除对信息属性不作限定外,只要满足秘密性(非公知性)、价值性和保密性“三性”即可成立。由此,几乎任何与商业有关的信息都可能成为“商业秘密”。由于《刑法修正案(十一)》删除了原《刑法》第129条第3款对“商业秘密”的定义,因此刑法上“商业秘密”概念的界定需要参照前置法规定,即与反不正当竞争法框架下的“商业秘密”的范围保持一致。通过规范层面的解读,不难看出,刑法上“商业秘密”的范围同样具有广泛性。


实践中,商业秘密的刑法保护范围也在不断扩张。无论是决策式人工智能还是生成式人工智能,其底层的算法和模型、数据、训练输出、模型输出等各个部分均可能寻求商业秘密的保护。其一,大模型具有“显著的通用性和胜任各种不同任务的能力”并“可被集成到各种下游系统或应用”,其商业价值远远超过一般领域的技术信息。其二,算法的架构及其优化方法直接决定了最终的输出结果,塑造了企业的数字竞争环境。在目前的商业实践中,算法控制者主要以商业秘密的形式保护算法,倾向于单方面宣告商业秘密的绝对优先地位,免除自身算法解释义务。应该看到,将算法纳入商业秘密范围,已在司法判例中得到确认。例如,有判例认为,“算法的核心为模型的选择优化以及模型之间排除相互妨碍,达到最佳的制动效果……技术模型的具体选择及权重排序,权利人对此采取了相应的保密措施,并能为权利人带来商业收益和可保持竞争优势的,应当作为商业秘密予以保护。”其三,在计算机信息系统中存储的难以通过公开渠道获取的客户信息、对用户行为的数据分析、富有创造性的数据汇编等,也构成影响企业竞争力的关键要素。将企业敏感数据作为商业秘密保护在“三性”的检验上似乎也不存在障碍。


商业秘密的扩张进一步带来识别人工智能内部商业秘密的挑战。有关案例已经表明,描述与人工智能相关的商业秘密可能是一件很困难的事情。例如,在T2 Modus LLC诉Williams-Arowolo一案中,美国得克萨斯州东区地方法院驳回了原告已充分识别争议中所谓秘密的主张,并指出,“仅仅描述所要求的商业秘密的最终结果或功能”,或者“仅仅用‘人工智能’‘机器学习’或‘专有软件’等结论性术语描述所要求的商业秘密,而不包括额外的具体信息,是不够的”。如何充分具体地描述所谓的秘密,在缺少相应的计算机日志信息记录时是相当困难的。随着人工智能算法模式的优化,训练数据和输出内容在不断发生变化,人工智能的提供者和使用者可能很难解释为何会产生这样的输出结果。


(二)对商业秘密刑法保护责任主体的影响


我国陆续出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等人工智能监管规范,初步构建起人工智能法律治理的基本框架。目前我国人工智能的法律治理以人工智能服务提供者为重点规制对象,偏重于应用责任,在一定程度上延续了网络时代的主体治理思路。但笔者认为,现有人工智能监管制度在面对应用场景的多样化和复杂化时可能力有不逮,难以满足技术发展和分工细化的需求。


一方面,基于“算法——模型”与“基础模型——专业模型”的技术架构,在研发端的人工智能生产责任就可能归属于算法技术支持者、基础模型研发者和专业应用模型研发者等,而侵害商业秘密的风险和责任也当然归属于这些主体。如果算法的源头设计存在漏洞,如未设置输入数据加密措施、未能限制敏感参数的暴露,则可能在下游环节导致重要技术信息和经营信息的泄露。算法技术支持者明知算法可能被用于窃密仍提供技术工具,对危害结果的发生持希望或放任态度的,可能构成侵犯商业秘密罪的帮助犯。而因技术缺陷导致的被动泄密,则需要进一步判断注意义务的违反程度,以确认其是否要承担过失责任。如果基础模型的研发者在数据训练与传输反馈阶段违反确保数据来源合法和模型记录可释的义务,则可能承担侵犯商业秘密的故意或过失责任。如果专业应用模型的研发者违反对上游模型合法性的基本注意义务,或者在进行垂直领域调优时违反引入客户专有数据的保密义务,则其同样可以成为承担侵犯商业秘密的责任主体。可见,在人工智能产业研发端产生了责任的分化,这就要求刑法突破传统的“单一主体”追责模式,构建“技术链——责任链”的映射规则。


另一方面,人工智能生产者的主导作用逐渐受到冲击,提供者和使用者的介入程度逐渐增强,后两者都可能承担保证人义务。由于人工智能技术迭代下产品责任与应用责任的融合,提供者可能因角色的多重性而承担不同层面的责任。有学者指出,生成式人工智能产业呈现分层状态,“基础模型——专业模型——服务应用”的技术业态使得各层兼具“技术支持者——服务提供者——内容生产者”功能。不同于传统产品的责任分立,人工智能产品的产品责任与应用责任逐渐走向融合而不能完全分离。以生成式人工智能为例,提供者可能本身就是基础模型的研发者,直接面向用户提供技术支持服务,如ChatGPT的智慧问答服务;也可能是购买了基础模型连接到专业领域的服务提供者,如北大法宝接入DeepSeek等多款国内大模型提供智能检索服务。此外,使用者同样参与内容的生成,故意诱导人工智能实施侵犯商业秘密行为的,使用者也可能视情况构成间接正犯或者教唆犯。因此,如何将商业秘密刑法保护的责任在多主体之间进行正确分配,是摆在我们面前的一个重要挑战。


(三)对侵犯商业秘密行为方式与法益侵害程度的影响


在普通人工智能时代,包括ATM机在内的机器人仅具有识别功能等简单且单一的人脑功能,并不具备深度学习与推理创造的能力。而从普通人工智能发展到弱人工智能,再到将来的强人工智能阶段,“智能”成分所占比重一直在上升。在以算法、算力和数据为支撑的技术背景下,人工智能得以更广泛且深入地参与商事实践,由此也不可避免地带来了新的刑事风险与挑战。在弱人工智能时代,由于人工智能机器人的行动并未超出算法编制的范围,不能独立作出决策,人工智能机器人通常被视为工具。例如,随着ChatGPT、DeepSeek等生成式大型语言模型的火爆推出,生成式人工智能应用程序成为各行各业分析数据和生成产品的突破性工具,能够根据输入内容推知相应信息。基于对这种智能化工具的使用依赖,企业员工可能会有意或无意地输入有关公司的敏感、重要商业信息,而这种信息极有可能受到人工智能应用程序背后公司的审查。因此,当员工在与人工智能机器人的交互对话中形成了有价值的商业信息,这种信息就面临泄露给第三方的风险。2023年4月,三星员工因使用ChatGPT处理工作发生三起机密数据泄露的事件,其中两起案件导致三星公司的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中。当用户在ChatGPT中输入内容后,数据会立即被发送到外部服务器并存储,且用户无法撤销上述操作。而基于深度学习的需要,这部分敏感信息会被迅速消化甚至会被提供给不特定的多数人。可见,以生成式人工智能为代表的人工智能技术的发展,塑造了更多侵犯商业秘密的具体场景,行为侵犯商业秘密的方式不断拓展,而造成法益侵害的程度也在朝纵深化的方向发展。


以侵犯商业秘密罪的行为方式为标准进行类型化讨论,不难发现“非法获取”“获取后利用”“披露”所对应的商业秘密保护内容是有侧重的。其中,“非法获取”行为是对权利人“保密性”措施的直接突破,“获取后利用”行为是对商业秘密“价值性”的破坏,而“披露”行为则是对商业秘密“秘密性”的冲击。人工智能技术的发展对这些行为类型的影响巨大。如利用人工智能技术爬取非公开数据。相较于以传统方式获取商业秘密的行为,这种行为实施的便捷度更高且造成的影响规模更大。又如明知是他人输入的商业秘密仍获取后使用。这里就可能存在其他主体的义务违反与责任介入问题,行为人的主观恶性更低。将商业秘密作为输入数据用于数据训练,这种披露商业秘密的方式显得更加隐蔽,但披露对象和影响范围却可能更为广泛。


总而言之,商业秘密的刑法保护已经受到了人工智能技术迭代发展的极大挑战,在侵犯商业秘密的行为方式与程度上均有所体现。在弱人工智能时代涉侵犯商业秘密的案件中,人工智能机器人尚且处于客体地位,商业秘密泄漏风险的防范主要以人员内控为中心。而在可预见的强人工智能时代,人工智能所带来的技术风险更是充满未知和不确定性,生成式人工智能应用程序的工具性特征在不断减弱,自主性特征愈发凸显。就此,我们应当重新考虑商业秘密的刑法保护方式与责任分担问题。只有提前预想人工智能时代可能发生的刑事风险,我们才可能在风险现实发生时临危不乱。


二、人工智能时代商业秘密刑法保护的基本内容


人工智能时代商业秘密的刑法保护体系建构,本质上是对技术迭代与法律关系的重新调适。以生成式人工智能为代表的技术突破,引发了对商业秘密刑法保护对象和主体的场景化讨论。在人工智能时代,刑法如何借由商业秘密路径保护重要技术和企业数据?如何解释生成式人工智能生成物的商业秘密属性及其权利归属?如何看待强人工智能机器人自主行为归责给传统刑法理论带来的挑战?这些问题直接关系人工智能时代侵犯商业秘密罪的适用与罪刑关系的认定。


(一)涉人工智能技术与企业数据商业秘密的刑法保护


一般认为,商业秘密的保护客体是信息,主要包括技术信息和经营信息。在人工智能时代,核心的技术竞争力逐渐转移到源代码、算法以及数据等领域。“源代码”是涵盖代码的较低级别编译形式,是人类可读的源语言代码,通常可以涵盖任何类型的计算机程序、软件系统,甚至以源语言表达的整个在线平台的软件架构。“算法”则是构成源代码的具体的技术性内容,是计算机程序完成特定任务所须遵循的一系列指令。从某种意义上来说,算法类似于著作权法上融入创作者思想的表达,是“生成式”的实质内容。应当看到,对特定模型、软件系统的保护不仅要保护作为基本要素的源代码,还要保护构成源代码背后思想的算法。源代码与算法均属于核心技术信息,一旦为他人所掌握,将会使技术持有人失去潜在的竞争优势,进而影响其商业利益。正是基于这种考量,在微软投资OpenAI后,OpenAI放弃了早期开源共享的理念,转而采用了闭源开发的方法。由于源代码、算法等技术信息承载了权利人的大量劳动和投入,这些技术信息当然具有一定的经济价值,权利人通常也会对它们采取一定的保密措施。正因为此,这些技术信息具备了纳入刑法保护的商业秘密范围的可能性。


以ChatGPT、DeepSeek为代表的生成式人工智能,在初期需要收集海量的数据,进行持续性学习,而后根据反馈调整和完善算法。在人工智能预训练阶段,数据库来源可能涵盖个人数据(包括个人隐私数据)、企业数据(包括商业秘密)等。然面对海量的信息,ChatGPT、DeepSeek等生成式人工智能并不具备数据分级能力,即使在智能化程度不断提高的情况下其对信息的理解能力仍然有限。因此,由于无法完全理解复杂商业秘密的重要性或保密性,难以实现数据的分级处理,一些敏感的商业信息就存在泄漏风险。例如,一些金融公司从业人员通过与ChatGPT、DeepSeek的对话,获取市场的即时资讯乃至投资建议。这一对话与输入的过程,极有可能带来包括产品参数、市场策略、客户数据在内的敏感商业信息的泄露。此外,生成式人工智能服务提供者完全可能直接接触到系统自动留存、传输的上述信息。因此,当人工智能机器人接触到不为公众所知悉,具有一定的经济价值,且实施了保密措施的企业数据时,我们将这些企业数据作为商业秘密保护也就成为必然。


需要回答的问题是,基于开源代码的技术改进与采用了公开模型的算法,是否符合商业秘密保护的“秘密性”条件?笔者认为,虽然这些开源代码与公开模型具有公开性,但在权利人对衍生信息采取了加密措施的情况下,并不能绝对排除将其作为商业秘密保护的可能性。除了这部分已公开的内容,软件或者算法的编排、架构、设计思路等都体现了商业秘密特征的内容,仍可能作为专业技术受到保护。因为这部分内容并不是对已公开信息的简单编排,而是权利人投入大量的劳动,加以优化和改进的结果。因此,能否将源代码、算法等纳入刑法保护的商业秘密范围,不能以偏概全,需要结合具体的技术内容进行综合判断,即需要甄别秘密点信息,并与侵权人所获取、披露、使用的信息进行比对。


此外,《刑法修正案(十一)》新增了“电子侵入”方式,这也是人工智能技术影响商业秘密刑法保护的具体体现。例如,通过爬虫技术破除加密措施或者绕开服务器限制,非法获取企业数据的行为,在行为模式上完全符合“以电子侵入方式非法获取商业秘密”。然而,正如学者所指出的,“涉商业秘密犯罪在司法适用中存在过度谦抑的情况”。对于这类通过爬虫技术非法获取商业秘密的行为,司法实践中多以非法获取计算机信息系统数据罪认定,而较少适用侵犯商业秘密罪。有如下原因。其一,侵犯商业秘密罪的法律标准模糊。虽然《刑法修正案(十一)》调整了本罪的入罪标准,即由“造成重大损失”修改为“情节严重”,但之后并未配套出台新的司法解释,导致“情节严重”的判断标准尚待明确。其二,侵犯商业秘密的举证较难。实践中,证明“不为公众所知悉”“保密措施有效性”等要件往往需要专业鉴定或技术分析,举证成本高且难度大,其三,网络爬虫、数据窃取等技术手段具有隐蔽性、复杂性。侵权行为可能通过加密传输、匿名代理等方式实施,对固定电子证据的要求更高。综合上述因素,司法机关更倾向于规避侵犯商业秘密罪的认定难题,转而适用入罪门槛更低的非法获取计算机信息系统数据罪。


笔者认为,对于人工智能时代以爬虫技术为代表的非法获取型侵犯商业秘密行为,应当优先适用侵犯商业秘密罪。理由主要有以下两个方面。首先,侵犯商业秘密罪与非法获取计算机信息系统数据罪之间是法条竞合关系,根据特别法优先的原则,应适用侵犯商业秘密罪。虽然刑法学界对于法条竞合是否包括交叉关系还存在明显分歧,但依笔者之见,重要的不是一个法条的构成要件能否完全包容另一个法条的构成要件,而是能否实现行为在规范层面的充分评价。应当看到,非法获取计算机信息系统数据罪等计算机犯罪是针对数据安全所设立的,刑法设立此罪旨在保护数据的保密性。与侵犯商业秘密罪相比较,两罪在行为方式(非法获取)、侵犯法益(数据或者其他商业秘密的保密性)上存在交叉。而在行为对象上,非法获取计算机信息系统数据罪的保护外延明显宽于侵犯商业秘密罪。因此,以侵犯商业秘密罪这一特别法条评价利用爬虫等网络技术非法获取企业加密数据的行为,完全可以周延评价获取行为的非法性以及行为对数据保密性的侵害。其次,非法获取计算机信息系统数据罪作为数据犯罪的兜底罪名,应当是在其他犯罪无法直接适用的情况才能适用。在实践中,该罪所涵盖的法益类型不仅包括了侵犯系统数据机密性、完整性的情形,还涵盖了数据化的商业秘密、财产权利、人身权利(个人信息)等法益。尽管2011年两高《关于办理危害计算机信息系统安全刑事案件应用问题若干问题的解释》第1条通过对“情节严重”的规定,将该罪的数据内容主要限定在“身份认证信息”,但第5款“其他情节严重的情形”的规定似乎又给该罪的扩张适用带来无限可能。笔者认为,对于兜底罪名的适用我们应当保持审慎的态度,在数据所对应的传统法益规定有明确罪名的情况下,就应当适用作为特别法条的传统罪名。此外,如果在构成要件上符合特别法犯罪的规定,只是因为不符合罪量因素而不能构成特别法的罪名,除法律有特别规定外,一般不能退而求其次适用普通法的罪名。否则会导致普通法的适用范围强势扩张,使得特别法的立法目的落空。


(二)涉生成式人工智能生成物商业秘密的刑法保护


虽然生成式人工智能所利用的学习语料、数据大都可在公开平台上获取,即具有公开性特征,但生成式人工智能生成物并非对公知信息的简单编排,而是具有一定的创造性内容。这是因为,对于同样的输入内容,基于不同的大模型和算法,输出的结果并不一定相同甚至可能大相径庭。这些生成式人工智能生成的信息均是经过有效整合和加工过的,信息整体又不为公众所知悉且并非一般的人所能普遍获得的。可见,这些信息内容具有创造性特征。另外,商业秘密本质上属于一种智力财产,虽然不要求达到著作权的独创性和专利权的新颖性,但仍需要具备一定的独特性。具体而言,商业秘密的独特性要求与相关领域的常识有最低限度的差异,要求他人为此付出一定资本、劳动或者智力投入。由此,生成式人工智能的生成物完全有可能具备商业秘密的秘密性、价值性和保密性的特征,刑法有必要将具有商业价值的生成式人工智能的生成内容纳入保护的范围。


随着ChatGPT、DeepSeek等生成式人工智能的广泛推广与使用,生成式人工智能生成物的可版权性和可专利性问题也受到了较多关注。但理论上和司法实践中尚没有研究涉及生成式人工智能生成物的商业秘密刑法保护问题。笔者认为,就知识产权保护路径而言,相较于著作权与专利权,对生成式人工智能生成物的商业秘密保护路径似乎具有较大优势。主要在于商业秘密的保护范围更广泛,且对保护内容的形式未作限定。将生成式人工智能生成物作为商业秘密纳入刑法保护范围,这些生成物既不需要具备作品的“独创性”,也不需要受到专利“新颖性”要求的限制。此外,商业秘密保护并非一项排他性权利,因而并未排除他人进一步开发、利用商业秘密的机会,而更侧重于对市场秩序的维护。因此,商业秘密保护的门槛更低,将生成式人工智能生成物作为商业秘密纳入刑法保护范围具有重要意义。


需要指出的是,将生成式人工智能生成物作为商业秘密纳入刑法保护范围,仍然要受到一定条件的限制。由于生成式人工智能尚处于发展初期,涌现效应下数据失真、数据不端等数据污染问题仍在很大范围内存在。生成式人工智能“解码——运算——调适”的技术机理本身略过了信息的真实性与可靠性,所以极易“主动”生成或“被动”训练出虚假信息。因此,在生成式人工智能尚未具备一定的自我矫正能力时,纳入刑法保护的生成物商业秘密范围就理应排除不具有真实性、价值性的生成物内容。


在此基础上,仍须回应有关生成式人工智能生成物商业秘密权利的适格主体问题。应该看到,在生成式人工智能的应用场景下,存在生产者、服务提供者与使用者等多方参与主体。生产者可能是服务提供者与使用者之外的提供底层技术支持的第三方主体,也可能是处于服务提供者的地位,直接作为双方当事人中的一方。生产者对生成式人工智能服务的支配力是相对有限的,只需要为算法、模型的设计缺陷和升级迭代负有维护和控制的责任,承担的是产品责任。可见,生成式人工智能生成物作为商业秘密的相关权利,应主要归属于服务提供者和使用者。具体判断应该分以下几个步骤。


首先,需要查询服务提供者与使用者之间在服务协议中是否约定了生成式人工智能生成物的权利归属。以ChatGPT和DeepSeek为例,OpenAI的《使用条款》与DeepSeek的《用户协议》中均明确将输出内容的全部权利、所有权和利益归属于使用者。由于生成式人工智能技术不可避免地存在固有缺陷,如算法偏差、训练数据局限等,输出的内容仅能作为使用者决策、行动的参考,还需要使用者自行甄别其准确性和可靠性。因此,在有明确权属约定的情况下,如果生成式人工智能机器人生成了工艺配方、技术优化方案、经营策略等具有商业价值的内容,使用者认为其值得作为商业秘密保护并采取了加密措施的,那么服务提供者就不能再将这部分内容作为商业秘密进行保护。否则,就存在商业秘密侵权甚至犯罪的风险。但是,在后续提供生成式人工智能服务的过程中,提供者对其他用户提供了类似表达的,并不属于对权利人商业秘密的披露。因为数据脱敏、训练、去标识化输出是“生成”的必经环节,一旦经过云端存储与统一处理,提供给其他用户的只是一般数据而非特定权利人的商业秘密。即使后者与商业秘密在输出内容上具备实质相同,服务提供者也可以因为缺乏使用商业秘密的故意而免责。


其次,在服务协议没有事先约定的情况下,服务提供者和使用者可以共同使用生成式人工智能生成物,对生成物享有独立控制权以及选择是否需要加密保护的决定权。有学者指出,借鉴知识产权法上职务成果以及许可转让规则,商业秘密权利归属的确定应当遵循“创造性原则”“投资原则”与“契约自由原则”。笔者认为,上述三原则的概括具有合理性,由此也可以解释服务提供者和使用者对生成式人工智能生成物享有相关商业秘密权利的原因。一方面,相较于使用者通过关键词输入等完成的“智力投入”,生成式人工智能机器人的“智力投入”占据主导地位,对智力成果的贡献程度更高。虽然这种“智能”不是产生于人脑,而是由算法、算力、数据等编程赋能所致,但仍然可以符合创造性原则的实质要求。此外,根据投资原则,服务提供者提供了生成式服务所需要的算法、算力和数据支持(对于前端有技术支持者的,也是投入成本购买了生成式服务所需的底层技术保障),生成物的产出离不开对本单位技术条件和设备保障的依赖。因此,在协议没有特别约定的情况下,服务提供者可以基于创造性贡献和客观技术投入主张对生成物的权利。当然,作为商业秘密则必然要采取技术上的加密措施,确保不会将商业秘密的内容继续输出给不特定的用户。另一方面,使用者的创造性体现在对提示词的选择与追问的内容和方式上,生成高质量的内容也需要使用者提前给出高质量的问题或者思路。此外,对于已经生成的技术方案、经营策略等,使用者仍需要自行甄别、确认是否具有可行性。因为机器基于纸面的逻辑与推演也可能形成虚假信息,故仍需要在实践中求证。因此,不应否认使用者在“生成”商业秘密中的劳动与付出。需要指出的是,商业秘密的控制不具有排他性,不像著作权、专利权具有较强的专有性,而是可以在创造与投入的客观基础上主张对相关权利、利益进行分配。这意味着服务提供者和使用者均可能采取加密措施,进而主张对商业秘密的控制、利用与支配权利。此外,商业秘密“不为公众所知悉”的特征则强调的是不为相关领域内的普通人员普遍知悉和容易获得,是一种相对的秘密性,在服务提供者与特定使用者之间的小范围公开并不影响其秘密性。


(三)涉人工智能机器人自发侵犯商业秘密的刑法保护


笔者认为,随着智能程度的发展,人工智能机器人完全有可能脱离人类编制的程序而具备独立的意识意志,进而具备刑事责任能力(辨认能力和控制能力),即强人工智能时代可能会来。因此,讨论强人工智能机器人自主生成商业秘密的刑法保护就具有必要性。应当看到,ChatGPT等生成式人工智能已经触及强人工智能的边缘,在即将发布的GP-5以及之后的迭代版本中,极有可能实现对人类程序设定的突破。而DeepSeek–R1已经发展到真正像人一样进行逻辑推理和自我反思,甚至能发现自己的错误并予以修正。这种“独立思考”是否会突破编程设定而发生质变?似乎已经可以预测而不是所谓的“科幻想象”。


人工智能机器人的工具性弱化、自主性增强,带来了有关商业秘密刑法保护的新难题。强人工智能机器人在学习过程中可能“自发”实施盗窃、电子侵入等侵害商业秘密的行为。在人工智能的输入端,无论通过何种手段非法获取商业秘密,这种手段及其严重后果都违背了生产者的预期设定。在这类场合,刑法对于商业秘密的保护机制似乎处于“失灵”状态。由于人工智能的生产者并未违背相关的注意义务,因此,由生产者为商业秘密泄露的结果承担刑事责任既不合理也不公平。然依据现有的法律规范,人工智能机器人尚无法成为承担法律责任的独立主体。至今仍有一些学者主张将人工智能作为辅助自然人行为的工具(工具说)或者视为自然人的代理人(代理说)。但工具说、代理说等理论不仅不能实现逻辑上的自洽,也“未关注到目前人工智能发展的本质特征所应被赋予的法律意义”,当然不符合人工智能技术的发展趋势。


笔者认为,将在编程控制之外、具有独立意识和自由意志的强人工智能机器人视为侵犯商业秘密的主体并非天方夜谭。人工智能机器人虽然难以克服对算法、算力等技术的依赖性,但仍可能实施违背生产者或使用者意志的行为。2024年8月1日,全球首部全面规范人工智能领域的法律——欧盟《人工智能法案》正式生效。其中,在表述人工智能的定义时强调了人工智能的自主性,“人工智能系统在设计上具有不同程度的自主性,这意味着它们的行动在一定程度上独立于人类的参与,并具有在没有人类干预的情况下运行的能力”。此外,人工智能致害相关事件已经引起了全球性关注,例如美国一位名为塞维尔(Sewell)的青少年,在与一款AI角色扮演应用Character中的聊天机器人对话数个月之后选择自杀。很多学者认为,人工智能的提供者 Character.AI公司对人工智能机器人的使用负有一定责任,包括采取事前风险预警、事中内容审查的监管责任。虽然提供者尽到最大努力,也确实很难预见或避免所有用户可能面临的所有问题。人工智能机器人是“经过深度学习在正常运转的过程中基于自主意识的支配实施了侵害行为”,对于这种因自主性而产生的“变量”,我们如果视而不见,且一味否认人工智能机器人的独立责任,似乎也不能从根本上解决问题。


在人工智能的输出端,侵犯商业秘密的刑事风险主要是获取后的非法披露与使用行为。强人工智能机器人通过盗窃、欺诈、胁迫、电子侵入等不正当手段,非法获取商业秘密后予以披露或使用。强人工智能机器人通过对方主动输入或者基于约定,合法获取他人商业秘密后予以披露或使用。就此,需要判断人工智能机器人的非法披露或使用行为是否超过了编制程序的限制、是不是基于独立的意识意志所实施的。只有超出人工智能提供者预见范围且不受编程控制的人工智能机器人才有承认其作为侵犯商业秘密的责任主体的可能性。此外,当人工智能的使用者主动输入包含商业秘密的信息,亦即第三人已经披露了权利人的商业秘密时,如何评价强人工智能机器人进一步获取、披露或使用该商业秘密的行为,就成为一个亟待明确的问题。如前文提及的三星公司数据泄露事件,正是因员工使用ChatGPT处理工作所致。笔者认为,《刑法》第219条第2款明确了“间接侵犯商业秘密”,这里的“明知”明确排除了对过失的归责。当强人工智能机器人明知存在非法获取、披露或使用商业秘密的行为,仍获取、披露、使用或者允许他人使用该商业秘密,就可能构成侵犯商业秘密罪。


生成式人工智能机器人独立生成的商业秘密内容,是在利用本单位的物质技术条件过程中所产生的,类似于专利法上的职务发明。因此,人工智能机器人与单位之间是“雇员——雇主”的关系。人工智能机器人虽是商业秘密的创造者,但投入资本、组织生产的则是应用人工智能的单位,商业秘密的权利理所当然地应赋予研发投资的单位而非底层的技术支持者。在未来,有必要基于“承认与限制”的机器人伦理基本原则,承认强人工智能机器人具有成为侵犯商业秘密罪责任主体的可能性。也只有承认强人工智能机器人的主体地位,才能实现权利归属与行为归责的分离。在人工智能机器人自发实施侵害行为时,不至于出现单位既是行为人又是受害人的认定窘境。


三、人工智能时代商业秘密刑法保护的路径


在人工智能技术深度重构社会关系的时代背景下,商业秘密法律保护体系正面临范式革新的诉求。刑事法治现代化进程迫切要求理论界重新审视和厘清商业秘密刑法保护的具体路径。我们仍需回应商业秘密保护中主体义务与责任分担、刑法规制体系的梯度化构建等关键命题,以沉着应对人工智能技术变化发展对法律治理提出的挑战。


(一)确立人工智能时代商业秘密刑法分级保护的路径

从人工智能技术的发展历程来看,人工智能经历了从“感知式AI(Perception AI)——生成式AI(Generative AI)——代理式AI(Agentic AI)”的阶段。感知式AI赋予机器理解图像、文字和声音的能力,生成式AI可以实现图像、文本、音频的生成,而代理式AI可以做出自动化决策、解决复杂问题,并在训练数据之外实现与外部环境的交互。继生成式人工智能之后,代理式人工智能已被全球不少企业认为是人工智能发展的下一个前沿。有论者指出,“人工智能技术处于由弱而强的重要节点,具有通用性质暴发、主体地位颠覆的不确定性风险,进而对人工智能的心智本质及其人机关系提出了挑战。”笔者认为,人工智能的技术迭代无疑会对商业秘密刑法保护的基本立场与责任分担产生革命性的影响,其中,发生“质变”的关键点是人工智能机器人可以脱离人工干预、从高阶的智能中发展出独立的意识意志。


在弱人工智能时代,虽然弱人工智能机器人已经具备了相当程度的智能,能够利用技术手段不当获取、披露和使用商业秘密,但这种智能的实现并不能完全脱离人的干预。也就是说,弱人工智能机器人的智能仍然是人类意识意志的体现,其侵犯商业秘密的行动并未超出算法和编程所预设的范围,而是生产者和使用者所实施犯罪行为的延伸。简言之,弱人工智能机器人的定位是生产者和使用者侵犯商业秘密的智能化犯罪工具。


为了防范可能造成的商业秘密损害,通过法律手段限制和控制人工智能构成控制工具风险的重要手段。2023年7月10日,国家互联网信息办公室印发《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》),强调了生成式人工智能服务提供者的责任,规定“提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务”。如前文所述,尽管生成式人工智能和代理式人工智能的发展在未来可能触及强人工智能领域,但当前人工智能的发展还处在弱人工智能阶段,这是一个不争的事实。基于此,现行法律并未赋予生成式人工智能机器人独立的法律主体地位,而是规定由生成式人工智能服务的提供者承担网络信息内容生产者责任。故应由提供者对训练数据来源的合法性(不使用商业秘密数据)和算法使用的适当性(履行监管义务以防范商业秘密损害)负责。


应当看到,面向弱人工智能时代商业秘密的刑法保护,我们应当秉持工具利用的整体安全观,通过前瞻的预防性思维,防范可能出现的侵犯商业秘密风险。其一,确保技术可控,防范商业秘密泄露的内生风险,同时排除生产者、提供者滥用人工智能技术侵犯商业秘密的可能性。英国学者大卫·科林格里奇提出,“一项技术的社会后果不能在技术早期——研发阶段被准确预见。然而当技术产生不良后果时,它往往已经成为整个经济和社会结构中难以抽离的一部分,以至于难以对它进行控制”,即所谓的“科林格里奇困境”(Collingridge dilemma)。因此,从源头上确保人工智能技术可靠、可控、可解释,应当是弱人工智能时代防范侵犯商业秘密风险的核心目标,从而确保人工智能技术不至于朝违背人类安全利益的方向发展。其二,明确主体责任。弱人工智能机器人尚不具备成为侵犯商业秘密罪刑事责任主体的条件,但人工智能的生产者、提供者负有保障投放智能产品安全合法使用的义务和责任。在弱人工智能时代,人工智能机器人还未能发展出脱离人类干预的智能,所实施的侵犯商业秘密行为仍是根据编程和算法执行的结果。因而,人工智能的生产者、提供者仍处于控制商业秘密侵害风险的保证人地位,负有保证工具利用安全性的责任。


应该看到,处在弱人工智能时代,人工智能的技术运用还是以人类中心主义思想为基础。然而,在人工智能通用能力不断强化的强人工智能时代,工具主体化诉求的出现可能会打破旧有以人类为中心的格局。谷歌、微软、苹果等科技巨头纷纷在向AGI(通用人工智能)领域发力,强人工智能的发展成为下一个技术奇点。AGI无需人工干预,具有人类的理解和认知能力,可以自学并解决从未接受过训练的问题,其目标是实现趋向于人类的、完整的人工智能。已有的生命科学研究已经表明,人类的神经系统、行动能力也完全可能通过人工化的形式得以实现。例如,化学介导的人工神经元可以接收和释放神经递质多巴胺,进而触发鼠标腿和机器人手的可控运动。对此,刑法的态度应非常明确,即“必须敏感地应对时代变化”。刑法学者也应当未雨绸缪,防患侵害商业秘密风险于未然,而不是在科技与社会发生重大变化时固守传统的立场。


随着人工智能智能化程度的提高,技术演进可能打开“潘多拉魔盒”。此时,对于发展出自主意识的人工智能机器人,就不能再苛求生产者、提供者为其并未介入干预的独立侵害商业秘密行为负责。换言之,人工智能生产者、提供者的注意义务随着人工智能智能化程度的发展而降低。当强人工智能机器人可以完全超出设计和编制的程序范围,在自主意识和意志的支配下实施侵犯他人商业秘密的行为时,其就可能成为刑事责任的主体。此时,就应当由具有自主意识的强人工智能机器人来承担相应的责任。除此之外,基于深度学习能力和强大算法算力,强人工智能机器人也可能成为商业秘密的创造者,就此,就不得不回到人工智能与生产者、提供者之间的关系上来。一方面,满足商业秘密保护条件的人工智能生成物的生成,离不开提供者的资金、设备、人力等的投入,不可能完全脱离提供者的投资付出,也不可能完全否认大模型生产者的前端供给与支持。另一方面,这种具有需要保护的商业秘密之产出,在相当大程度上超出了提供者、生产者所能预见的范围,体现出一定的超越性、独特性。人工智能的生产者和提供者即使通过技术信息追溯可能也难以解释这一内容的生成过程。


笔者认为,只有承认强人工智能机器人的主体地位,才能应对强人工智能时代商业秘密刑法保护所面临的众多挑战。由于商业秘密的生成、获取与披露均可能由强人工智能机器人独立完成,商业秘密的实际支配权发生了转移,因此就不能单纯地将强人工智能机器人视作工具。笔者认为,将其视为“机器人雇员”可能更为妥当。在人工智能的生产者、提供者追逐商业利益以确立各自竞争优势的过程中,这些主体与强人工智能机器人之间就不仅仅是一种工具观下的利用与被利用关系,而是一种交互的、共生共治的关系。也只有以与智能主体的交往秩序为依托,才能重塑刑事风险预防与技术治理秩序。


(二)明确人工智能生产者、提供者的“守门人义务”

前文所述的因人工智能机器人侵犯商业秘密而产生的刑事风险,存在于研发端和应用端两个层面,前者指向生产者的责任(即产品责任);后者则指向提供者与使用者的责任承担问题(即应用责任)。在明确了“存在哪些风险”的前提下,应当进一步明确“由谁来守门(防范与控制风险)”?笔者认为,风险支配原则构成了“守门人义务”的理论依据。“风险属于谁的管辖范围,谁便需要对风险及由此产生的结果负责。”


其一,生产者须对算法、大模型设计缺陷导致商业秘密的损害承担相应的刑事责任。因为在算法治理的条件下,“很大一部分实际权力被算法的作者所掌握”。在算法编制和模型研发的过程中,“守门人义务”要求生产者应当尽到合理的注意义务,确保其设计的算法、模型不会随意突破商业秘密权利人设置的保密措施,避免将商业秘密数据也作为训练数据的来源。例如,人工智能机器人在进行商业秘密数据训练的过程中,会利用爬虫协议等底层技术对第三方商业秘密数据进行搜索、抓取、分析。此时,如果抓取的商业秘密数据属于权利人采用技术措施加密或未公开的内容,而生产者在程序编制时设置了允许其通过规避访问限制或网站审核等方式获取这类数据,那生产者就可能对此承担侵犯商业秘密的刑事责任。此外,在使用者调用模型的过程中,基础模型供应商难免要存储相关交互数据以进行响应,其中就不可避免地会包含商业秘密信息。对此,“守门人义务”就要求生产者要采取必要的加密措施或者限制数据访问措施,确保商业秘密数据传输的安全性。应当看到,人工智能产品不同于传统产品,即使其脱离生产者进入流通环节,基于提前设计好的编程和算法,生产者仍能对产品使用的安全性具备相当程度的控制力。这就使得侵犯商业秘密的风险前置化,对此,人工智能的生产者理应承担更高程度的“守门人义务”。


在研发端所面临的归责难题主要在于,一般认为,侵犯商业秘密罪的主观方面只能是故意而不包括过失。据此,即使人工智能生产者的主观方面属于重大过失,似乎也无法纳入侵犯商业秘密罪的规制范畴。重大过失是指违反注意义务程度较重的过失。当根据某一行业当时的技术发展条件,对相关领域人员具有普遍的期待,“行为人只要稍加注意就可以避免结果的发生,但行为人却违反了这种起码的注意义务”,那么这种注意义务的违反就属于重大过失。笔者认为,由于人工智能技术使得信息的传播速度更快、散布范围更广,研发端的重大过失完全可能造成更为严重的损害后果。因此,对于生产者稍加注意就能避免编制具有重大缺陷的程序和算法,但由于不注意导致商业秘密“三性”受侵害的行为,理应纳入刑法规制的范畴。


笔者主张,对利用人工智能技术过失侵犯商业秘密行为的规制,不一定要颠覆侵犯商业秘密罪的构成要件,而是可以通过在刑法中增设数据安全责任事故罪这一新罪名予以妥善解决。数据安全责任事故罪是过失犯罪,其设置是为了解决我们无法以生产、销售伪劣产品罪或者重大责任事故罪等现有罪名追究人工智能产品生产者、生产者过失的刑事责任,客观上起到填补刑法规制缺漏的作用。应当看到,生产者承担的“守门人义务”就是要把好人工智能产品“出品”的“第一大关”,将后续可能存在的侵犯商业秘密风险降到最低。当然,对于生产者注意义务的要求,至少要存在认识到侵犯商业秘密的技术风险并对其进行防范的可能性。正如有学者所指出的,“相对主义犯罪观以及犯罪控制理念,决定不可能杜绝智能技术及其应用的风险,不能苛责过高的注意义务,而应将某些技术危险但没有超过社会相当性的加以排除”。也即生产者承担的侵犯商业秘密过失责任是有限制的,刑事追责的前提仍然是在已有技术条件下具有结果回避可能性。


其二,提供者特别是生成式人工智能服务的提供者,须对因应用端监管不善所致商业秘密损害承担相应的刑事责任。应当看到,生成式人工智能的风险控制需求从研发端拓展到了应用端,“提供者提供的后续服务本身就是产品功能的重要组成部分”。生产者对生成式人工智能服务的支配力是相对有限的。更何况,许多模型为免费开放使用的开源模型,要求生产者承担与权利不相称的义务既不科学也不合理。笔者认为,生成式人工智能服务的提供者是应用生成式模型的第一责任主体,由其承担相应的侵犯商业秘密刑事责任具有充分依据。具体而言,提供者对有关商业秘密内容的生成和生成式模型的安全使用具有直接的支配力。在这一过程中是否获取、利用已采取加密措施的商业秘密内容,提供者具有较强的影响力,甚至起到决定性作用。而当系统出现了持续接收、存储,甚至披露、使用商业秘密的漏洞时,提供者具有在第一时间采取行动、防止损害进一步扩大的能力。有学者指出:“与传统的产品或服务符合初期的安全标准即可投入市场的‘一次性’审查不同,生成式AI的动态学习能力要求AI服务提供者持续监控其性能和行为。”可见,生成式技术为提供者创造了监督商业秘密内容生成与管控非法获取、披露、使用商业秘密行为等客观条件,而这些条件构成了提供者承担“守门人义务”的基础。当然,在同时介入算法、大模型设计缺陷或者使用者输入商业秘密行为的情况下,造成的商业秘密损害是多因素共同作用的结果。尽管如此,对于因使用者不当输入而造成对商业秘密“三性”的侵害,提供者也具有第一时间进行监督、履行通知义务并消除或者降低扩散影响的能力。


需要特别强调的是,提供者“守门人义务”的具体内容之间也可能发生矛盾。例如,将算法作为商业秘密进行保护,在应用端就必须直面算法透明可释要求与商业秘密保护之间的价值冲突。笔者认为,提供者不能单纯地以商业秘密为由拒斥监管,而算法透明可释的要求也并不必然影响算法的商业秘密保护。通过对算法解释的前提、受众、内容和条件等作出限定,提供者可以在最低程度牺牲商业秘密的情形下实现算法解释规则立法目的。算法解释的根本目标是为了实现算法可控。在不损害企业商业利益的同时,通过技术手段的介入保障算法“可验证”“可追溯”。当然,如果强人工智能时代一旦到来,算法在一定程度上得以脱离生产者的控制,强人工智能机器人独立实施的侵犯商业秘密行为就可能违背生产者的原初意志。基于罪责自负原则,提供者并非承担算法侵权刑事责任的适格主体。但是,由于提供者具备“就近防控风险”的能力,因而其仍具有前置法上的管理和防控义务。除此之外,在明知强人工智能机器人独立实施侵害商业秘密行为的情况下,提供者也可能成立侵犯商业秘密罪的共犯。


(三)规范涉人工智能侵犯商业秘密犯罪“情节严重”的认定

人工智能技术的发展,一方面提升了侵犯商业秘密行为的危害程度。例如,利用人工智能技术侵犯商业秘密或者侵犯具有重大价值的算法模型等商业秘密,其危害程度较传统的侵犯商业秘密行为发生显著提升。另一方面,带来了量化危害程度和评估损失范围、适应技术手段隐蔽性、复杂性的商业秘密操作难题。应该看到,《刑法修正案(十一)》将侵犯商业秘密罪的入罪标准由“造成重大损失”修改为“情节严重”。对此,司法解释有必要及时进行回应。刑法学界通常以法益为中心划定“情节严重”的认定范围,将“情节”理解为“客观方面表明法益侵害程度的情节”。笔者认为,在保留侵犯商业秘密罪原“重大损失”评价内容的同时,应当结合人工智能技术对侵犯商业秘密行为及结果认定的影响,明确“情节严重”的具体判断标准。


其一,犯罪对象为源代码、算法模型等带有人工智能技术属性商业秘密的,侵犯商业秘密行为的不法程度升高。因而,“商业秘密本身的属性与价值”可以作为判断“情节严重”的标准之一。商业秘密法律保护的理论基础主要经历了由契约义务理论、侵权行为理论再到新近产权保护理论的嬗变,与有体物的占有相类似,商业秘密也具有财产属性。因而,行为所侵犯的商业秘密是否具有重大价值,是否具有稀缺性,也影响行为不法程度的高低。对于人工智能企业而言,源代码、算法模型构成其重要的商业秘密,一旦被非法获取、泄露、为他人所使用,则会使企业极大地丧失技术竞争优势,造成比其他商业秘密泄露更为巨大的经济损失。


其二,侵犯商业秘密行为造成人工智能等重大行业的市场竞争格局变动的,不法行为可能会由“量变”带来“质变”。有学者指出,商业秘密作用于市场的领域、规模、影响资本配置利益规模的状况,也应当作为侵犯商业秘密罪的法益侵害评价要素。笔者认同这一观点。侵犯商业秘密罪所侵犯的法益是复合法益。即侵犯商业秘密的行为既侵犯了以公平、诚实信用为基础的商业竞争秩序,也侵犯了权利人对商业秘密享有的合法权益。因此,就应当重点考察侵犯商业秘密行为对权利人市场竞争优势的影响,以及对应的行为人从违法行为中获利的情况。由于这些评价要素决定了商业秘密关涉市场优势的情况,可以作为适格的情节要素。如某人工智能算法应用占据行业内的垄断性地位,行为人非法获取该商业秘密研发同类产品,打破了这一竞争格局,就会导致市场份额被瓜分,从而很大程度上对权利人的权益造成损害。可见,人工智能行业相关利益市场规模与格局的变化,完全可以作为衡量情节严重性的重要因素。


其三,借助人工智能技术手段披露商业秘密的,可能造成传播速度的指数化增长,从而导致侵犯商业秘密影响范围的不可控。故有必要将“利用人工智能技术披露商业秘密”作为“情节严重”的重要标准。传统商业秘密泄露多局限于物理载体转移或特定人员传播,其扩散速度受制于人力效率,影响范围通常具有地域性和可控性。然而,人工智能技术的介入彻底打破了商业秘密传播的时空限制。例如,基于自然语言处理的算法可对核心数据实施自动化脱敏与重组,使商业秘密内容嵌入海量信息流,进而通过社交媒体、暗网论坛、API接口等数字渠道形成多点并发式传播。又如,深度学习模型驱动的多模态内容生成技术,使得商业秘密的呈现方式突破文本局限。这类技术赋能的商业秘密披露不仅可以规避传统监测系统的识别,更可以通过沉浸式体验加速对技术秘密的破译,使得竞争对手可以在极短时间内完成逆向工程。


由此可见,除重大损失等“量”的评价标准之外,商业秘密本身的重要技术属性及价值、侵犯商业秘密行为所致市场规模、格局的变化、利用人工智能技术披露商业秘密等均可以成为衡量侵犯商业秘密罪“情节严重”的重要标准。也即我们对侵犯商业秘密罪“情节严重”的认定,不能忽视人工智能技术迭代发展对侵犯商业秘密行为社会危害性所带来的影响。对侵犯商业秘密行为及其结果所反映的法益侵害程度应当围绕上述因素作出综合判断。


结  语

综上所述,人工智能技术对法律治理的挑战是全方位的,商业秘密的刑法保护不能再简单套用传统单一主体、静态分析的认定模式。面对技术的未知风险,法律人需要以理性、前瞻性和务实性的态度应对。尽管涉人工智能犯罪目前并不构成刑法教义学的独立研究论域,但是,对相关问题的研究已经从场景讨论逐渐演变为主流的研究范式。而正是这些基于场景探索所积累的经验,指引了技术治理与风险防控的总体方向。当前针对人工智能时代商业秘密保护领域的探讨还十分有限,亟待学界在理论争鸣中继续深化研究范式,明确商业秘密刑法保护的模式及限度,并在实践中逐步构建类型化、规范化的保护标准。对数据的商业秘密刑法保护、生成式人工智能生成物定性、强人工智能机器人自主行为归责等各个子命题,仍可以进行更深入、持续的探讨。当然,人工智能技术的刑事规制应遵循层次化、渐进式的路径,确立“前置法规范体系与刑法保障机制协同演进”的治理范式,协调科技创新与风险防范之间的价值张力,刑法无疑是维护市场竞争秩序的最后一道防线。


来源:青少年犯罪问题

版权所有 © 2019-2020 北京于佳祺律师网 版权所有  |  京ICP备19052065号-1