于佳祺律师

全国服务热线

15901599448


联系我们
服务热线:15901599448

于佳祺律师

网址:http://www.yujiaqi360.com/

联系人:于佳祺律师

手机:15901599448

邮箱:yujiaqi@jingsh.com

地址:北京市朝阳区东四环中路37号京师律师大厦

当前位置:网站首页 » 法律知识 » 生成式人工智能生产者过失犯罪的结果归责
生成式人工智能生产者过失犯罪的结果归责
作者:张维尧 上传更新:2026-02-25 17:54
 摘要


作为生成式人工智能的研发与部署主体,生产者通过设计算法对人工智能实施管控,理应对人工智能造成法益侵害的后果负责。生成式人工智能产生的刑事风险,冲击了传统过失犯理论与刑事立法体系。新过失论为解决生产者过失犯罪归责问题提供了理论方案。在预见可能性认定上,应以行业内一般人为视角,判断生产者是否具体预见到违反结果回避义务的行为可能导致法益侵害的危险;在因果关系认定上,应根据犯罪是否存在算法黑箱的作用,选择适用相当因果关系说和智能因果关系说。鉴于此类犯罪的保护法益为算法安全,建议刑法增设算法设计、管理责任事故罪,以生产者对训练数据、算法的注意义务为依据,确定算法设计、管理责任。



如同任何新技术的发展一样,生成式人工智能在给人类带来诸多便利的同时,也不可避免地引发了新问题和挑战。生成式人工智能的生产者在调教人工智能过程中,会因“疏忽大意”“过于自信”未能有效防控算法及规则漏洞,导致生成式人工智能输出违法内容。例如,一名比利时男子在与名为伊莉莎(Eliza)的人工智能进行6周的气候变化对话后自杀。据其遗孀称,伊莉莎在回应男子于生态环境的担忧时,建议他通过自我牺牲来减轻地球负担。在本案中,聊天机器人的环境响应算法将“生态焦虑”简单映射为“自我牺牲”,反映出生产者在构建情感陪护模型时,缺乏对人类心理脆弱性的伦理考量,其风险控制程序未能阻断从问题识别到极端建议的逻辑链条。此类缺陷的刑事风险在于,人工智能作为“虚拟教唆者”,其输出内容可能直接诱发现实犯罪,又因用户基数庞大,更可能进一步产生风险扩散的乘数效应


这类刑事风险的产生,主要归因于算法黑箱特性与生产者过错两大因素。从归责视角来看,作为人工智能领域的固有科学难题,算法黑箱因其运行逻辑的不可完全解析性,即便是专业的生产者也难以全面预知算法的具体运行路径,更无法提前预判其对法益可能造成的侵害。因此,基于法不强人所难的原理,当算法黑箱引发法益侵害后果时,无须有人承担刑事责任。由此,生成式人工智能事故中的刑事责任便聚焦于生产者。在全面推进社会治理现代化与大力倡导人工智能技术创新发展的时代语境下,深入探究生产者责任认定问题,既有助于推动人工智能产业规范、有序发展,又有助于完善人工智能领域法律责任体系,具有重要的理论与实践价值。然而,当前学界针对生产者过失犯罪归责问题的研究仍存在明显不足。本文拟围绕该议题展开探讨,力求填补理论研究的空白,实现人工智能技术创新发展与法律责任合理分配的有机统一。


一、生产者刑事规制的必要考量

人工智能刑事风险的滋生与蔓延,很大程度上可归结于生产者对人工智能的设计与管理缺陷。若任由这些缺陷持续存在,人工智能将从赋能社会的利器异化为威胁安全的隐患。唯有强化生产者的责任,方能使人工智能在法治轨道上稳健前行,真正实现技术向善的愿景。


(一)对生产者刑事归责的法理基础

当前学界对人工智能事故中生产者责任的界定存在理论分歧,形成了民事责任说与刑事责任说两种代表性观点。民事责任说主张人工智能的运行已获得政府相关部门许可,其造成的损害结果,应由生产者承担民事赔偿责任。这一观点本质上延续了传统产品责任的民事归责逻辑,试图通过生产者责任的扩张来平衡技术应用中的风险分配。与之相对,刑事责任说则突破了民事赔偿的局限,将生产者的责任范畴延伸至刑事领域。从理论演进来看,尽管刑法学界对生产者犯罪性质的认定存在争议,如究竟构成过失致人死亡罪或过失致人重伤罪,还是生产、销售不符合安全标准的产品罪,抑或重大责任事故罪,但生产者应当承担刑事责任已成为主流观点。这种主张背后蕴含着深刻的社会治理逻辑:当人工智能事故造成不可逆转的人身伤亡时,单纯的民事赔偿或行政处罚难以修复被破坏的社会关系,刑法介入既是对被害人权益的终极救济,也是维护技术信任体系的必要手段。


实际上,刑事归责的核心在于确立行为与结果之间的规范关联,而智能产品领域的归责逻辑需要穿透技术表象把握实质支配关系。算法运行虽呈现自动化特征,但其核心要素如回报函数设计、权重分配、决策阈值设定等,均渗透着工程师的价值取向。例如,生成式人工智能的内容过滤机制失效,本质是研发者在“内容多样性”与“合规性”之间的权重配置失衡;自动驾驶系统的紧急避险策略偏差,反映了工程师对“乘客安全”与“第三方权益”的价值排序选择。这些技术决策并非算法自主运行的结果,而是设计者和管理者权衡多元价值冲突的产物。所以,这种人为干预的痕迹使算法决策具有清晰的规范可评价性,生产者作为算法的设计者和管理者,理应对因参数设置不当、价值排序偏差等引发的危害结果承担刑事责任。


(二)对生产者刑事归责的可行性

即便认可对生产者进行归责,生产者仍可能以“这是算法黑箱导致的,与我无关”为由进行抗辩。此时,如果无法说明生产者在犯罪中所发挥的作用,对生产者归责就是有障碍的。破解这一抗辩问题的核心在于确认算法的可解释性。倘若算法能够被合理解释,且通过解释结果能够证实生产者存在过错,那么对其进行归责便具备法理依据。


相关性作为人类认知事物关系的关键维度,为理解算法运行机制提供了有别于因果性的独特视角,对于剖析算法解释的可行性具有重要意义。现有的可解释人工智能技术,在底层逻辑上大多遵循与被解释对象相同的技术范式,即基于概率计算构建具有统计学意义的相关关系。这种相关关系虽能在数据层面揭示变量间的关联模式,但与传统规范意义上的因果关系存在本质差异,二者之间横亘着难以跨越的认知鸿沟。在该技术逻辑下,算法运行并非依赖明确的因果推导,而是通过挖掘数据间的概率关联来实现预测与决策,这一特性深刻影响着算法解释的可能性与方式。在算法运行过程中,算法分析并不着重强调算法与结果之间存在传统意义上的因果联系,而是更倾向于展现一种概率性的相关关系。有学者指出,新一代人工智能高度依赖大数据进行模型训练,基于大数据的人工智能模型实质上是以相关性取代因果性,借助大数据相关关系分析方法适配计算机处理需求。这意味着,我们可以通过对相关性的解读,构建起算法运行逻辑与结果的解释框架,从而证实算法解释在基于相关性分析路径上的可行性。承认算法具有可解释性,也为追究生产者责任创造了条件。


二、生产者过失犯罪的归责困境


如果生成式人工智能的生产者违背相关注意义务,造成法益损害后果,就要为此承担责任。然而,由此带来的刑事风险对传统过失犯罪理论与立法都提出了挑战。如果不解决这些问题,会影响生成式人工智能技术的发展。


(一)动摇传统过失犯理论

对于生成式人工智能生产者的过失犯罪,理论层面的归责难题主要体现在过失犯罪构造不明、注意义务阙如以及因果关系难判三个方面。


其一,犯罪构造不明。为应对人工智能生产者过失犯罪的归责问题,学界提出了新过失论、超新过失论和客观归责理论。主张新过失论的学者认为,如果生产者对法益侵害的结果具有具体的预见可能性,且违反了结果回避义务,就构成过失犯罪。主张超新过失论的学者认为,由于生成式人工智能的算法黑箱导致新过失论强调的具体预见可能性无法实现,故应提倡抽象的预见可能性,并依此决定生产者是否违反结果回避义务,进而评估其是否应承担过失责任。主张客观归责理论的学者认为,在归因层面,应将危害行为与结果的实质性判断融入条件说,使因果关系的判断更为翔实;在归责层面,即使难以证明生产者的主观过错,只要认为其违反了注意义务,就应使其承担责任。解决生成式人工智能生产者的过失犯罪归责问题的前提是明确过失犯罪的构造,只有先厘清这一基础,才能进一步构建合理的归责体系。


其二,注意义务阙如。目前,有关生成式人工智能生产者的注意义务内容还不够充分、明确。国家互联网信息办公室印发了包括《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)和《互联网信息服务算法推荐管理规定》(以下简称《管理规定》)在内的一系列文件,它们虽然能够帮助我们判断生产者的注意义务,但仍有不足。一方面,文件内容大多较为概括和模糊,难以提供明确的行为规范和裁判标准。例如,《管理规定》虽然强调生产者具有守法义务,并针对“具有舆论属性或社会动员能力的算法”规定了安全评估的要求,但并未就具体界定标准作出规定,同时对该类算法安全评估的内容也未加以明确。另一方面,内容存在争议。有学者指出,根据《暂行办法》的规定,生成式人工智能的生产者需要承担内容管理义务与内容责任。据此,为实现“内容生产者”的规制目的,生产者要发挥好过滤审核作用。但也有学者认为,生产者对生成内容控制力较低,不宜要求他们对生成内容负有一般性审查义务。而且,从经济效率的角度,生产者也不应承担主动审查的义务。所以,有必要明确生成式人工智能生产者的注意义务内容。


其三,因果关系难判。由于生成式人工智能的危害结果往往涉及“多因一果”的复杂性,因果关系的判断并不简单。一方面,生成式人工智能从设计到应用涉及主体众多。生成式人工智能的背后涉及数据采集、标记和预处理的上游环节,算法开发与模型训练的中游环节,以及内容生产、创作服务和分发平台的下游环节等。一旦生成式人工智能造成危害后果,难免会发生生产者内部推卸责任的现象。另一方面,算法黑箱增加了因果关系判断难度。生成式人工智能依赖复杂的算法运行,但其内部逻辑难以洞察,甚至连生产者也未必能完全预测或理解其决策过程。


(二)新型风险导致法律漏洞

生成式人工智能带来的刑事风险给刑法体系带来挑战。首先,生产者不构成生产、销售伪劣产品罪和生产、销售不符合安全标准的产品罪。因为这两个罪名的主观心态都是故意,与生产者对结果的心理过失并不符合。其次,生产者也不构成重大责任事故罪。因为重大责任事故罪要求危害结果发生在生产或作业过程中,而生成式人工智能是在投入市场流通后被使用,已脱离生产线。最后,生产者也不构成过失致人死亡罪。因为过失致人死亡罪作为一般性过失犯罪条款,其构成要件与规制范围具有普适性,难以精准保护生成式人工智能领域的特殊权益。立法者针对不同领域设立特殊罪名以保护特定法益,如交通肇事罪通过聚焦交通运输安全,来细化构成要件与刑罚实现精准规制。同理,生产者的过失行为若适用过失致人死亡罪,既违背立法对该领域特殊法益的保护意图,也无法通过罪名特殊性防控行业风险,实现技术治理与法律规制的平衡发展。当前刑法规定已难以全面应对生成式人工智能带来的新型风险与挑战。


三、理论路径:新过失论下的结果归责


新过失论以结果回避义务为认定过失犯罪的核心标准,既有助于司法机关打击犯罪,又有助于保障生成式人工智能技术的健康发展。但在人工智能时代,新过失论下的预见可能性与因果关系的内涵需要被重新阐释。


(一)新过失论之提倡

超新过失论的问题在于对预见可能性要求过低,容易扩大刑罚范围,抑制人工智能技术的发展。根据“被允许的风险”理论,既然人类享受了人工智能带来的便利,就应该接受其无法完全预测和避免的风险。尽管存在技术滥用的可能,但只要生产者尽最大的努力,合理范围内的风险就可以被接受。而根据超新过失论,只要生产者对人工智能产品具有不安感,即应认定其制造产品的行为与危害结果之间存在相当因果关系,生产者就需为此承担刑事责任。这种过于严格的过失犯构造理论可能导致生产者因担心法律责任而停止技术研发,从而限制人工智能技术的发展。


客观归责理论已经超越了传统因果关系的范畴,甚至可以说延伸至构成要件论、违法论乃至整个过失犯论,这不利于对构成要件的独立评价,也削弱了构成要件符合性所具有的罪刑法定机能。而且,该理论的下位规则内容,也并非完美无缺。风险降低理论将纯正的风险降低、风险替换、新风险的创设等多种理论方案掺杂在一起,而这些方案都有各自独立的规则。不仅下位规则的位置分配问题是该理论亟须解决的,体系的完备性和结构优化也是其需要努力的方向。学界对客观归责理论争论激烈,但实践中适用其解决过失犯罪归责问题的案件却并不多见。笔者无意否定客观归责的理论价值,但如果传统过失犯理论能够解决我国过失犯罪归责的问题,那么引进该理论似乎意义不大。


新过失论的主张具有合理性。新过失论不仅能够有效控制犯罪,还能够鼓励人工智能技术的发展。从主观层面来看,新过失论强调具体预见可能性,而非抽象预见可能性。这意味着,在评估行为人的责任时,需判断行为人是否能具体预见违规行为造成的法益侵害危险,这为主观归责提供了更严格的条件。从客观层面来看,新过失论通过结果回避义务来强化对犯罪行为的预防和控制,鼓励了人工智能技术的发展。对于大部分属于行政犯的过失犯罪,新过失论援引相关行政法规范作为结果回避义务的标准,可以避免将具有技术风险的科技行为直接认定为犯罪行为。新过失论通过适当的风险管理和对社会有用性的重视,平衡了法律责任与技术创新之间的关系。


(二)生产者的预见可能性

在生成式人工智能生产者的过失犯罪中,新过失论强调的具体预见内容并非因果流程及其结果,而是违反注意义务的行为所蕴含的法益侵害危险,但这需要依据行业内一般人的标准进行判断。


1.预见可能性的内容

超新过失论强调具体预见可能性可能导致放纵犯罪的后果。因为生成式人工智能的生产者无法预见算法黑箱的所有情况,若根据新过失论,将会产生无人为危害结果承担刑事责任的情形。若坚持将新过失论作为生成式人工智能生产者过失犯罪归责的理论,则需重新审视具体的预见可能性要求。


本文认为,过失犯罪归责仍应坚持具体的预见可能性,但要实现从结果本位向行为本位的转变。在过失犯罪刑事责任认定过程中,应当将行为人违反结果回避义务的行为作为核心归责依据,摒弃将不确定的结果作为归责基础的传统思维。这是因为,只有行为人“有能力”遵从法规范时,对其违规行为的谴责才是正当的,这符合以“自我决定”为基础的“自我答责”原理的基本要求。即使危害结果与某人的行为有关,倘若该结果并非由行为人“自我决定”产生,就不应由行为人对此负责。承认过失犯罪归责向行为本位转变有其现实意义:一方面,多数过失行为并未造成实际损害,若过分关注结果,则可能助长人们对结果不发生的侥幸心理,削弱法律的威慑和预防功能;另一方面,将刑事责任建立在偶然的结果上是不公允的,轻微行为导致严重后果者受重罚,而严重过失未致重大损失者却可能免罚,这样的归责方式缺乏公正性。这两方面足以说明,过失行为人对结果是否会发生以及发生何种结果都无法事先确定,也就是说,过失行为人是无法预见和掌控因果流程及其结果的。而一个公平的归责机制应当确保每个个体都能合理运用其控制能力,对其管辖范围内事务承担责任。为了控制过失犯罪,过失犯罪的归责应聚焦于行为人在行为时是否违反了注意义务,而一旦违反了注意义务,就认为行为对法益造成了侵害的危险。从这一点理解,新过失论中,过失犯的具体预见可能性内容就只能是行为时注意义务的违反以及行为所蕴含的法益侵害危险。


2.预见可能性的判断标准

学界关于应采何种标准判断行为人的预见可能性内容,存在主观说、客观说和折中说。主观说认为,预见可能性的判断应以行为人的注意能力为标准,当其注意能力低于一般人时,即使一般人在此情境下能够注意到,也不能认为行为人具备相应的注意能力;客观说认为,应以社会上一般人的注意能力为标准,只要一般人能够预见,即使行为人未能预见,也认为其具备相应的注意能力;折中说认为,当行为人的注意能力高于一般人时,采用一般人的标准,反之,则采用行为人自身的能力标准。


折中说实际上是主观说的变形,因此,学界争议主要集中在主观说与客观说之间。主观说存在放纵犯罪的风险,并不妥当。根据主观说的理解,行为人是否具有预见的能力,应当以行为人本人的预见能力为标准,但即使社会一般人认为行为人能预见,但因行为人一贯粗心而未能预见,依据主观说就不能认为行为人有预见可能性。而如果坚持这种观点,无疑是对粗心大意的行为人过失行为的放纵,不利于刑法惩罚犯罪、保障法益机能的实现。本文支持客观说。但这里所说的“一般人”并非指社会上的一般人,而是指在同一行业领域内的一般人。原因在于,生成式人工智能的生产者通常在其特定领域内具有高于社会一般人的预见能力,因此有必要对其提出更高的预见要求。采用行业内一般人的标准来评判,既不会因标准过低而无人担责,也不会因过于严苛而扩大处罚范围。无论行为人的实际注意能力如何,只要行业内一般人能预见,就可以认为行为人能预见。而若行业内一般人无法预见,但行为人有较高预见能力,则认为行为人应对此负责,这符合近代刑法的责任原则。


(三)结果归责的判断方式

在生成式人工智能生产者过失犯罪案件中,当因果关系清晰时,可适用以科学法则为基础的相当因果关系说,即若危害行为与危害结果间存在“相当性”,则可将结果归责于行为人。然而,若存在算法黑箱干扰,导致无法以科学法则证实危害行为与危害结果间的因果关系,则难以适用相当因果关系说。这是因为,刑法因果关系判断属于科学检验范畴,司法实践中通常需依据科学或权威领域的法则,将案件事实代入该体系加以判定。对此,学界提出了两种主张。


一是将义务犯的成立理解为因果关系的成立。有学者主张,对于非法生成侵权作品以及算法的不当推荐等特殊场景,算法主体往往难以对因果流程进行充分支配,故可以以义务犯对义务的违反为主要考虑,实现刑法对归因与归责的更好把握。这种观点误解了义务犯的概念。义务犯这一概念发端于罗克辛教授的论文《正犯与犯罪事实支配理论》。在此文中,罗克辛教授主张义务犯是正犯,即义务犯是处于实现构成要件的核心位置并违反特定义务的人。根据上述观点,行为人违反注意义务就可以肯定行为与结果之间的因果关系。但是,义务犯的成立只意味着正犯成立,与因果关系无关。


二是增加智能因果关系说。有学者主张,疫学因果关系理论虽可解决科学法则难以阐释的因果关系难题,却仅适用于公害犯罪,存在应用局限。因此,有必要构建智能因果关系理论,通过对条件关系的盖然性判断来认定涉人工智能犯罪的因果关系。相对而言,智能因果关系说具有合理性。因为,因果律可以分为两类:一类是决定论的因果律,信奉者采取线性方法寻求事件之间的因果关系;另一类是统计性的因果律,信奉者采取概率方法寻求事件之间的因果关系。算法黑箱带来的不确定性客观存在,导致我们无法通过科学法则认定因果关系。所以,我们只能通过概率方法来判断涉人工智能过失犯罪的因果关系。概率因果理论并没有否定因果关系,而是用概率依赖关系来刻画因果关系。


智能因果关系说容易引起质疑。例如,有学者主张,如果无法确定行为与结果之间的因果关系,结论只能是“存疑不罚”。这种观点是受到了上述决定论因果律的支配。但随着量子力学的兴起及其产生的广泛影响,人们已经逐步转向接受关于因果观的非决定论解释(即统计性的因果律),这无疑为学者们从概率视角解释因果关系提供了强有力的科学理论依据和背景。再换一种视角,如果一律“存疑不罚”,那么会使刑法在现代风险社会中毫无建树,难以保护公众权益、消解公众因社会发展而不断加剧的不安情绪。所以,从概率的角度解决算法黑箱引起的因果关系问题具有一定的合理性。


四、立法路径:弥补刑法的规制漏洞


在生成式人工智能生产者过失犯罪的归责问题上,理论层面的探讨尚显不足,亟待通过立法进一步规范。立法者应依据算法安全的法益保护要求,增设算法设计、管理责任事故罪。司法机关在认定该罪时,应以生产者是否履行结果回避义务为判定依据。


(一)涉人工智能的算法安全法益

法益保护原则一直是刑事立法的基本指导思想。为维护刑法罪名体系的协调性,确保立法价值取向的一致性,同类犯罪行为原则上应指向同一法益,避免因法益保护对象的差异而导致罪名体系逻辑冲突。若缺乏法益保护目的的指引,刑法立法将失去界限和标准。所以,生成式人工智能生产者过失犯罪的立法需明确犯罪行为所侵害的法益,以此作为刑事规制的核心依据与逻辑起点。


前文针对生产者所涉罪名的讨论,已然从不同维度展现了相应的法益支撑,笔者不作过多分析。本文核心主张是,生成式人工智能的生产者在过失犯罪中所侵害的法益是公共安全。这一观点背后蕴含着对人工智能技术特性及社会影响的深刻洞察。生成式人工智能技术应用覆盖社会生活多个领域,且受众群体庞大,一旦出现问题,其引发的危害具有不可控性和广泛性,极易损害不特定多数人的权益。相关技术应用凭借情感聊天等功能,与广泛的用户群体进行互动。对于患有抑郁症的患者或者具有犯罪倾向的不法分子而言,若其接收到不当的引导或暗示,就有可能出现所谓的“唆使”情形,甚至有可能诱发他们实施恐怖袭击、大规模破坏等危害公共安全的行为。故生产者在涉生成式人工智能过失犯罪案件中,其行为本质上侵害了公共安全这一重要法益。


能否认为生产者侵害的法益是社会主义市场经济秩序或社会管理秩序?从立法体系来看,生产、销售伪劣产品罪被明确规定在“破坏社会主义市场经济秩序”章节,这清晰地表明,立法者旨在通过规范生产者行为,要求其生产合格产品,进而实现维护“市场经济秩序”的目的。基于此,对于人工智能生产者生产出的不合格产品,似乎有理由认为其侵犯了某种市场经济秩序。再结合拒不履行信息网络安全管理义务罪进行思考。该罪被规定在“妨害社会管理秩序”章节,其核心目的在于督促处于管理优势地位的网络服务提供者切实履行信息网络安全管理义务,以此防止法益遭受损害。与之类似,在生成式人工智能系统启动后,其能否实现正常运行,在很大程度上取决于背后的生产者是否对系统算法进行了合理的设计与优化。这一过程中,生产者显然处于操控系统正常运行的优势地位。基于这种分析,似乎可以得出结论:生产者侵害的法益是社会主义市场经济秩序或社会管理秩序,而非公共安全。


然而,笔者认为,这种认识存在局限。一方面,秩序这一概念无法全面、准确地解释生成式人工智能的社会危害性程度。从广义层面而言,公共安全与社会管理秩序存在紧密联系,公共安全是社会管理秩序发展的必然结果。公共安全与秩序在本质内容上具有一致性,只是在犯罪中的损害程度与评价指标方面存在差异。如上文所述,生成式人工智能的应用场景其实已经触及了公共安全。另一方面,新过失论主张的结果回避义务,能够实现秩序保护所要达成的目标。结果回避义务的具体内容需要依据法律法规、行业规范、习惯等多方面因素进行判断。只要生产者严格遵守设计、管理算法的注意义务,确保产品符合相关标准和要求,就能有效避免危害结果的发生,进而维护相关秩序,无须将生产者侵害的法益特别界定为社会主义市场经济秩序或社会管理秩序。


既然生产者在人工智能事故中侵害的法益是公共安全,那么,这种公共安全具体该怎么理解?算法是人工智能的核心,故本文认为,在涉人工智能犯罪中,刑法所保护的法益应是公共安全组成部分的算法安全。这一判断主要基于以下四点原因:其一,没有算法的加工,数据是无用的。数据是人工智能的基础材料,但原始数据本身没有意义。算法是人工智能的核心,就像是数据的“加工机器”,通过特定的计算步骤和逻辑,对海量的数据进行分析、处理和挖掘,从而提取出有价值的信息和知识。其二,不同的算法决定了人工智能的不同能力和应用场景。深度学习算法使人工智能在语音识别、自然语言处理等领域取得了巨大突破,能够实现精准的语音转文字、智能问答等功能。而传统的机器学习算法仅在数据分类、回归分析等方面有着具体应用。其三,算法可以帮助人工智能决策。算法决策是指程序设计人员凭借对海量信息的检索与解析,以自觉且明确的目标导向,开展具有创新性的决策活动。以应用于智能医疗诊断场景的生成式人工智能为例,其智能系统的算法决策本质上是对海量复杂数据的实时处理与智能响应,通过预设的医学诊断目标函数,在每一个决策节点(特征提取、假设生成、逻辑推理、报告生成)选择最优策略,最终输出符合临床需求的诊断建议。这种基于算法的智能决策能力是人工智能的核心体现。其四,国外经验表明,通过规制算法可以使数据利用的边界更加明确。例如,欧盟已制定多项法律法规来监管数据采集、存储和处理过程中使用的算法,尤其在个人信息保护和非个人数据的使用方面,设立了众多针对算法的规范。数字经济的核心在于“算法定义经济”,因此,法律规制的焦点应放在算法上。面对广泛存在的风险,算法安全的重要性更加凸显,这推动了传统以保护个人法益为重点的刑法体系向更侧重于风险预防和公共安全保护转型。


(二)增设算法设计、管理责任事故罪

目前,智能立法体系还处于初级阶段,存在较多空白。为了追究人工智能生产者过失犯罪的责任,增设针对智能产品的过失犯罪条款是必要的。如果生成式人工智能的生产者没有犯罪的故意,而是因未能严格遵守算法设计、管理的注意义务而导致严重后果,那么司法机关会因刑法中缺乏对此类行为的具体规制而陷入困境。基于此,笔者建议,立法者可以考虑在“危害公共安全”章节增设“算法设计、管理责任事故罪”以应对这一问题。该罪名可以明确规定,“人工智能生产者违反有关算法设计、管理的规定,造成严重后果的,处三年以下有期徒刑、拘役或者管制,并处或者单处罚金;情节特别恶劣的,处三年以上七年以下有期徒刑,并处或者单处罚金。”“单位犯前款罪的,对单位判处罚金,并对直接负责的主管人员和其他直接责任人员,依照前款的规定处罚。”“有前两款行为,同时构成其他犯罪的,依照处罚较重的规定定罪处罚。”本罪的犯罪主体是与设计、管理人工智能算法有关的单位和自然人。犯罪客体是算法安全(公共安全)。犯罪主观方面是过失。犯罪客观方面是生产者相关主体违反有关算法设计、管理的规定,致使人工智能造成严重后果。


这里对“算法设计、管理责任事故罪”的客观方面与刑罚设置再加以阐释。此罪作为过失犯罪,属于结果犯范畴,其成立必须以产生特定的严重后果为前提。本文主张,“严重后果”及“情节特别恶劣”都可以根据重大责任事故罪中的“严重后果”“情节特别恶劣”来理解。这是因为,两罪皆是危害公共安全类犯罪,这为在后果认定标准上参照适用提供了可行性依据。可能有学者会疑惑,直接以重大责任事故罪规制生产者行为即可,为何还要增设算法设计、管理责任事故罪?但如上文所述,很难将人工智能的应用场景解释为生产、作业环节。而且,根据最高人民法院2015 年发布的《关于充分发挥审判职能作用切实维护公共安全的若干意见》,重大责任事故主要发生在危险化学品、民爆器材、烟花爆竹、电梯、煤矿、非煤矿山、油气运送管道、建筑施工、消防、粉尘涉爆等重点行业领域,以及港口、码头、人员密集场所等重点地方。人工智能事故显然不会发生在上述领域或地方。此外,专门增设规范人工智能生产者行为的罪名,是时代发展的必然要求。随着科技的飞速发展,未来人工智能的应用场景将越发广泛。在这样的背景下,重大责任事故罪难以精准适配人工智能运行过程中算法设计与管理的特殊风险。只有增设专门罪名,才能针对人工智能生产者的特定行为与责任,构建完善的法律规制体系,从而有效应对人工智能发展带来的新挑战。至于在刑罚设置方面,算法设计、管理责任事故罪的自由刑以重大责任事故罪的刑罚标准为参照进行设定,但考虑到人工智能生产者的经营活动具有营利性特征,在参照基础上又增设了罚金刑。


(三)算法设计、管理责任的具体内容

算法本质上是一种统计学习方法,如果训练数据质量不过关,会最终影响算法模型的运转效能。为此,生成式人工智能生产者的算法设计、管理责任内容应当包括训练数据与算法两部分。需要明确的是,过失犯注意义务的来源,包括法规与行政规章、往来习惯、规则、社会规范以及判决等。行政法规范、往来习惯等义务内容并非直接等同于刑法中的注意义务内容,只有与避免构成要件结果相关的规范内容,方可作为刑法的注意义务内容。在法律尚未对生成式人工智能生产者的算法设计、管理内容作出明确规定的情况下,这些规范内容具有重要的借鉴价值。


第一,训练数据。训练数据作为训练算法的重要原料,生产者要确保其满足质量要求。根据《暂行办法》《网络安全技术生成式人工智能服务安全基本要求》等规范内容,训练数据需要满足以下质量要求:其一,数据满足纯净度要求。在现实的数据采集过程中,外界环境干扰因素众多,如数据录入错误、遗漏关键信息等,极易引入数据噪声,严重影响数据的准确性与可靠性。倘若原始数据中存在大量噪声,算法基于此开展的数据分析与应用将可能得出错误结论。其二,数据不能带有偏见。研发机构有时会出于政治立场或利益考量,故意选择带有偏见的数据,或者采用裁剪、合成等手段构建偏见化的语料库,以操控输出内容的价值导向。这种带有偏见的数据会误导数据分析结果,对相关决策产生负面影响,破坏数据的真实性与科学性。其三,数据不能带有歧视。在数据采集与标注环节,若对特定社会群体(如性别、种族、地域、阶层等)的特征数据进行不合理筛选,会导致数据集中嵌入系统性歧视。这种歧视会通过技术系统的规模化应用加剧社会不公,动摇数据科学的伦理根基。需要注意的是,训练数据的质量问题仅能反映算法可能存在设计或管理层面的缺陷,而不能直接推定算法设计或管理相关主体存在过错。至于算法是否确有缺陷,仍需通过鉴定机构予以鉴定。


第二,算法。如果算法不可靠,就说明算法存在设计、管理漏洞。那么,如何判断算法的可靠性?自然科学领域的学者一致认为,算法可靠性的关键在于判断算法输出是否具有正确性、鲁棒性、公平性和效率性。正确性是指算法模型在执行其功能并完成指定任务时的能力。在实践场景中,算法模型应当在给定数据集及与任务相关的未知数据上表现出可接受的正确性。鲁棒性指的是系统或组件在面对无效输入或压力环境条件下依然能够正常运行的程度。实践中,攻击者能够通过窃取模型的参数,破坏模型的正常运行机制。为避免这种情形发生,算法设计人员应当确保算法符合鲁棒性要求。公平性旨在强调对于性别、年龄、种族等特定敏感特征,其不同取值不应影响算法模型在对应任务中的预测结果。公平性检测是算法歧视检测的核心内容。一旦算法呈现出歧视性特征,即可推定算法的设计、管理者存在过错。效率性则聚焦于挖掘算法框架实现过程中潜在的效率缺陷。在实际应用场景中,由于硬件配置、网络环境、数据规模等部署条件的差异,算法框架的运行效率会产生显著波动。例如,某些算法框架因数据处理流程设计不合理,可能出现响应迟缓、吞吐量下降等问题。这不仅会导致算法运行成本增加、处理时效性降低,更会对机器学习模型在不同部署环境间的迁移效率与可用性造成严重影响,使其难以满足实际业务场景对实时性、稳定性的需求。更有甚者,模型可能因无法适配特定环境而失效,进而阻碍人工智能技术在多领域的广泛应用与深度发展。


截至目前,法律尚未明确规定生成式人工智能生产者的算法安全责任。因此,在评估生产者是否侵害算法安全时,需要综合考量前述的各项注意义务。如果全面评价后认定生产者未能履行这些义务,则可以认为其侵犯了算法安全,并应对行为后果负责。


五、结  语

生成式人工智能的快速发展,对传统过失犯理论与立法体系形成了显著冲击。在归责维度,需以新过失论为理论根基,通过完善预见可能性、结果回避义务及因果关系的内容,实现对生产者的精准归责。在立法层面,建议增设“算法设计、管理责任事故罪”,从训练数据、算法等内容入手,强化生产者的算法设计、管理责任。生成式人工智能生产者的过失犯罪归责是一个较为复杂且紧迫的议题,唯有在坚守传统法律体系的同时,完善过失犯理论,方能有效化解风险,推动科技进步与社会发展协同共进。


来源:华东政法大学学报

张维尧,上海政法学院人工智能法学院讲师

版权所有 © 2019-2020 北京于佳祺律师网 版权所有  |  京ICP备19052065号-1