于佳祺律师

全国服务热线

15901599448


联系我们
服务热线:15901599448

于佳祺律师

网址:http://www.yujiaqi360.com/

联系人:于佳祺律师

手机:15901599448

邮箱:yujiaqi@jingsh.com

地址:北京市朝阳区东四环中路37号京师律师大厦

当前位置:网站首页 » 新闻资讯 » 人工智能时代我国儿童色情的刑法规制
人工智能时代我国儿童色情的刑法规制
作者:朱光星 上传更新:2026-03-09 18:24

摘要


我国现行刑法对儿童色情的规制存在法益定位偏差、规制对象混同以及因儿童年龄差异导致的定罪处刑失衡等问题。人工智能生成虚拟儿童色情,具有制作门槛低、生产批量化、客体虚拟但仿真度高、传播便捷等特点,严重违反“不得性化儿童”的文明底线,对全球儿童色情犯罪治理构成严峻挑战。我国现行刑法尤其面临虚拟儿童年龄识别困境以及对持有行为非罪化的规制缺憾。域外国家的新探索否定了虚拟儿童色情系“无被害人犯罪”的观点,其共通经验值得借鉴。应当确立儿童色情与成年色情的二元规制模式,明确儿童色情侵害法益是儿童人格尊严与性健康发展权。应当将持有儿童色情予以犯罪化,并同步建构下列三类内容的出罪机制:基于正当目的的抗辩、未成年人合意性行为的私密影像记录、执法司法机关依法调查所用的虚拟儿童资料。



一、引 言

儿童色情犯罪在大多数国家被认为严重侵犯基本人权,尤其是侵犯了性人格的自由与完整以及人的尊严。在儿童色情的场景中,儿童无法对与性相关的内容作出真正意义上的有效同意,所以为了区别于基于合意的“色情”,近些年来西方国家更倾向于用“儿童性虐待材料”(Child Sexual Abuse Material)或“儿童性剥削材料”(Child Sexual Exploitation Material)来替代传统“儿童色情”的表述。这种表述能够更直观地体现此类行为的本质,即儿童对性行为或涉性相关行为并无同意,所谓的“儿童色情”本质上是对儿童的性虐待和性剥削。但是,为行文方便,本文仍采用传统的“儿童色情”的表述,其内涵与国外的“儿童性虐待材料”或“儿童性剥削材料”并无差异。


近些年来,人工智能技术快速发展并被广泛应用于儿童色情领域,尤其是以深度伪造等为代表的生成式人工智能,已从最初的娱乐工具异化为违法犯罪工具,不法分子利用人工智能技术快速、批量生成虚拟儿童色情制品并在网络上广泛传播甚至牟利。2025年2月,欧洲刑警组织协调欧洲19个国家开展了一次打击人工智能生成儿童性剥削材料的专项活动,发现273名犯罪嫌疑人,在全球范围内逮捕了25人,这些人均来自同一个犯罪团伙,团伙成员主要从事在网上分发完全由人工智能生成的儿童性虐待材料的活动。2024年12月通过的《联合国打击网络犯罪公约》(以下简称《公约》)第14条规定旨在打击涉及网络儿童色情的犯罪。《公约》所规制的儿童色情是指“描绘、描述或呈现任何未满18周岁的人:(一)从事真实或模拟的性活动;(二)所处现场有正在从事任何性活动的人;(三)主要为性目的展示性器官;或(四)遭受酷刑或残忍、不人道或有辱人格的待遇或惩罚,且此类材料具有性的性质”。根据《公约》第14条前两款的规定,该公约对涉及儿童色情的犯罪行为实行全链条打击。首先,在行为方式上,不仅打击制作、提供、出售、分销、传送、广播、展示、发布等各类犯罪行为,还打击索取、获取、访问、持有或控制儿童色情产品等行为。其次,公约对儿童色情材料的认定不仅包括视觉材料,还包括书面内容或音频内容。但是,对于近些年来伴随着人工智能发展而广泛出现的网络虚拟儿童色情是否属于《公约》各成员国必须打击的范围,则没有硬性规定。


早期的《公约》草案对网络虚拟儿童色情持严厉打击的立场。《公约》草案不仅保护真实存在的儿童的健康权、性自主权和隐私权,还通过打击“貌似儿童的人”从事真实或模拟的露骨性行为,从而维护社会秩序,减少潜在的儿童色情犯罪,但是在谈判过程中由于部分国家反对,《公约》最终限缩了儿童色情的范围,在第14条第3项规定,缔约国可以将第14条前两款所涉及的儿童色情材料限缩为“描绘、描述或呈现某一现实中存在的人,或以视觉方式描绘儿童性虐待或儿童性剥削”的材料。即该公约缔约国有权在严厉打击儿童色情犯罪的基础上,在本国国内法上自行规定儿童色情的范围,将不涉及真实儿童的虚拟儿童色情或者以非视觉方式描绘儿童性虐待等内容的制品排除在刑法规制范围之外。但是,该限缩的主张遭到了部分国家的强烈反对。这凸显了世界各国在一致同意严厉打击儿童色情的共识之上,对于是否要规制以及具体如何规制网络虚拟儿童色情尚未达成一致意见。


我国刑法对儿童色情的规制依附于《刑法》第363条至367条规定的制作、贩卖、传播淫秽物品罪,并未对儿童色情单独规定罪名。从比较法的视野以及我国司法实践的经验来看,这种将儿童色情与成人色情混同规制的模式在打击儿童色情犯罪方面存在诸多缺憾。人工智能技术的普及和广泛应用使得网络虚拟儿童色情易生成、易传播且高度拟真,更是对我国的儿童色情犯罪治理提出了新的挑战。作为全球网络犯罪治理体系的重要参与者以及《公约》的主要推动者,我国应通过完善国内法律实现打击网络儿童色情与《公约》的有效衔接,为全面保护儿童提供制度支持。本文将结合域外国家对儿童色情尤其是网络虚拟儿童色情的规制动向以及我国刑事司法实践的经验,探讨我国在人工智能背景下刑法规制儿童色情的完善路径。


二、虚拟儿童色情的发展脉络与特点


(一)虚拟儿童色情的概念演进与技术迭代

自20世纪网络技术普及以来,虚拟儿童色情的概念最早可追溯至计算机图像技术的发展。早期的虚拟儿童色情多由用户利用Photoshop等数字绘画或合成软件手动修图,生成儿童色情图像。这种创作存在较高的技术门槛且生产效率低,生成的色情制品常常因为技术限制而表现为仿真度不高,往往能被肉眼识别出其并非真实儿童的图像。


近些年来,随着生成对抗网络(GAN)、深度伪造等技术的发展,人工智能开始主导虚拟儿童色情的生产过程。不法分子利用人工智能工具,将真实儿童照片裸体化或者将儿童的脸部拼接到色情影像上,并在网络上广泛传播。2022年以来,以ChatGPT为代表的大语言模型以及以国外Stable Diffusion、Midjourney、DallE等为代表的图像生成模型迅速普及,用户可以利用这些模型通过文字描述自动生成相应的图片甚至视频。这一技术演进将数字内容生产从“技术极客”推向普通用户,人们不需要掌握复杂的技术,仅需要输入简单的指令即可批量生成大量图像或视频。因此,有不法分子利用该技术批量生成儿童色情并通过匿名网络平台进行传播,使得网络空间中儿童色情制品泛滥。相较于早期的虚拟儿童色情,这一阶段的内容具有高度拟真性,更具欺骗性,传播速度更快。


传统的网络虚拟儿童色情与人工智能生成的虚拟儿童色情从技术、拟真程度以及生产、传播方式等方面都存在显著差异。从技术层面来看,早期虚拟儿童色情的生成需要高超的图像处理技巧和大量时间、精力的投入,而人工智能生成虚拟儿童色情则主要通过算法驱动,利用机器学习和深度神经网络从大数据中自动提取规律,极大地降低了创作的门槛。从拟真程度上看,传统虚拟儿童色情图像或视频因受技术限制往往能够肉眼识别出其为非真实儿童,而人工智能生成的虚拟儿童色情则往往具有高拟真性,能够从视觉或听觉层面表现出极高的仿真度,欺骗性强,难以通过传统的方式进行辨识。此外,传统虚拟儿童色情的创作圉于其高技术门槛而多限于小范围的手工制作,而人工智能生成的虚拟儿童色情则没有技术门槛,能够实现大规模的自动化生成和传播,加剧了网络空间中儿童色情的泛滥。


(二)人工智能生成虚拟儿童色情的特点

一类人工智能生成虚拟儿童色情制品是利用人工智能技术创作的,将真实的儿童面孔置换到涉及色情的图片、视频等材料上,或者将真实儿童的照片或视频等裸体化,学者将其称为“基于图像的性虐待”(Imagebased Sexual Abuse)。在2024年,韩国AI换脸事件中,诸多女性的脸被合成到裸体照片、淫秽视频中并在网络上传播,其中有大量受害者是未成年人。2024年,英国一名27岁的男子休·尼尔森利用人工智能技术将真实的儿童照片转化成“淫秽”的不雅图像,并在网上分享和出售给其他恋童癖者,获利5000英镑,之后该男子被判处18年监禁刑,并被列入性犯罪者名册。我国司法机关也审理过类似案件,即行为人利用“人工智能换脸”软件,将他人的人脸信息与部分淫秽视频中主体的人脸信息进行替换,伪造生成淫秽视频、图片,其中涉及未成年人者就属此类。


另一类人工智能生成虚拟儿童色情制品则是完全利用人工智能技术创作的,表现出虚拟或伪造的儿童形象的淫秽、性暗示或性行为内容。这些内容并不涉及现实生活中真实存在的儿童,而是通过技术模拟出儿童的外貌、动作、语言、声音等特征,以产生性化的描绘。较为常见的是通过向人工智能模型输入指令生成看似儿童的虚拟人物图像或视频,并让其参与不合适的性行为或展示淫秽内容。或者,通过语言合成技术,模仿儿童的声音,让其发生淫秽、性暗示的声音或者表达含有性意味的不适当语言。克拉克森诉OpenAI案便提到,有一些恋童癖者使用OpenAI公司的DallE技术以非常低的成本创造出大量儿童性行为的图片和视频,并将它们在暗网上大肆传播。根据《卫报》的报道,2024年5月,美国威斯康星州一名叫史蒂文·安德雷格的男子因使用Stable Diffusion人工智能模型通过输入文字指令生成儿童色情照片而遭到美国联邦调查局的指控。根据检察官的起诉书,安德雷格制作了大约13000张“裸体和半裸的青春期前儿童的超逼真图像”,这些图像描绘的是儿童触摸生殖器或被成年男子性虐待的画面。


这两类虚拟儿童色情制品都具有批量生成、客体虚拟、高度拟真和极易扩散等特点。虽然利用深度伪造产生的儿童色情制品可能会利用真实儿童的图像,但是该儿童并未真实参与性行为,与传统的利用真实儿童制作儿童色情制品存在重大区别。


三、虚拟儿童色情刑法规制的比较法考察


(一)域外规制模式

在许多域外发达国家的刑事立法中,儿童色情犯罪属于侵犯公民人身权利犯罪。例如,在德国,涉及不满18周岁未成年人的色情文书犯罪被置于《德国刑法典》第13章妨害性自决权的犯罪中,认为这类犯罪侵犯的主要法益是性自主权而非一般公众的性道德感。根据《德国刑法典》第11条的规定,文书是指“录音、录像、数据存储、图片和用于同样目的之类似物品”。所以,德国的儿童色情文书犯罪大体上等同于中文语境下的儿童色情犯罪,相应的制作、散发、获取和持有等行为都构成犯罪。


在法国,儿童色情犯罪规定在《法国刑法典》第2卷危害人身罪之第2编侵害个人罪之第7章侵害未成年人及家庭罪中,属于性侵害未成年人罪,固定、录制、传播或持有儿童色情图片或代表儿童的色情形象等行为被规定为刑事犯罪。在比利时,早期的儿童色情犯罪属于该国《刑法》第7编危害家庭与公共秩序罪之第7章妨害风化罪。但是,2022年的立法修改将儿童色情犯罪定位于第8编危害人身罪之第1章性完整性、性自决权与公共道德侵害犯罪的第2节未成年人性剥削。这类犯罪保护的主要法益是未成年人的性人格完整性、人格尊严和私生活,制作、传播、持有或访问儿童色情图像等行为均构成犯罪。新法不仅惩罚传统的儿童色情,还将虚拟儿童色情和伪儿童色情也纳入规制范围,惩罚的具体行为包括制作、传播、持有或访问儿童色情。


在英国,为了加强对未成年人的保护,立法者从20世纪70年代开始将儿童色情从淫秽内容中分离出来进行单独立法,认为儿童色情属于针对儿童的性犯罪,并对之进行严格禁止和打击。根据《1978年儿童保护法》的规定,拍摄、散发和展示不满18周岁儿童的不雅照片、视频的行为,以及为了散发和展示而持有的行为都属于犯罪。《1988年刑事司法法》则进一步规定所有持有儿童不雅照片、视频等行为均构成犯罪。2000年的R诉Bowden案确立了从网上下载儿童不雅照片属于制作行为因而也构成犯罪的规则。在美国,儿童色情犯罪在整个刑事法律体系中属于性剥削及虐待儿童犯罪,而非侵犯公共道德犯罪。因此,美国刑法惩治儿童色情所保护的法益主要是儿童的个人权利,包括儿童的性人格自由与完整性、意志自由、人格尊严及隐私权,规制的具体行为样态包括制作、运输、贩卖和持有。


(二)我国现行规制体系

与许多域外国家不同,我国刑法未将儿童色情作为独立对象进行规制,而是将儿童色情制品纳入“淫秽物品”范畴。因此,对虚拟儿童色情等相关行为的打击,主要是依据我国《刑法》第363条规定的制作、复制、出版、贩卖、传播淫秽物品牟利罪和第364条规定的传播淫秽物品罪等罪名来实现。


根据我国《刑法》第367条的规定,淫秽物品是指具体描绘性行为或者露骨宣扬色情的诲淫性的书刊、影片、录像带、录音带、图片及其他淫秽物品。从立法体例上看,立法者将淫秽物品犯罪置于《刑法》第7章妨害社会管理秩序罪,表明作为其下属概念的儿童色情犯罪在我国也属于侵犯秩序法益的犯罪。理论上关于淫秽物品犯罪所侵犯的法益有不同观点,有国家对与性道德风尚有关的文化市场的管理秩序说、社会主义社会风俗理念说、普通人的正常的性行为观念说等。无论是管理秩序、风俗理念还是性行为观念,都属于抽象法益。总之,儿童色情犯罪在我国属于淫秽物品犯罪的下位概念,通说认为其侵犯的是抽象的秩序法益而非儿童的个人法益。


虽然我国《刑法》未对儿童色情单独予以规制,但相关司法解释对于涉及真实儿童的色情制品犯罪普遍采取较其他普通淫秽物品犯罪更为严厉的打击立场。《最高人民法院、最高人民检察院关于办理利用互联网、移动通讯终端、声讯台制作、复制、出版、贩卖、传播淫秽电子信息刑事案件具体应用法律若干问题的解释》(法释〔2004〕11号)(以下简称《2004年解释》)第6条规定,相关儿童色情制品具体描绘不满18周岁未成年人性行为的,应依照刑法规定从重处罚。在《最高人民法院、最高人民检察院关于办理利用互联网、移动通讯终端、声讯台制作、复制、出版、贩卖、传播淫秽电子信息刑事案件具体应用法律若干问题的解释(二)》(法释〔2010〕3号)(以下简称《2010年解释》)中,最高司法机关意识到需要加大对涉及未成年人的淫秽电子信息的打击力度,规定利用互联网、移动通讯终端制作、复制、出版、贩卖、传播内容含有不满14周岁的未成年人的淫秽电子信息行为构成传播淫秽物品牟利罪或者传播淫秽物品罪的定罪量刑标准,在之前《2004年解释》规定的数量、数额标准的基础上下调一半,以期通过降低入罪门槛来加大对此类犯罪的打击力度。值得注意的是,我国上述司法解释对儿童色情予以严厉打击的前提,均明确指向涉及真实儿童的情形。


四、虚拟儿童色情规制的法理争议与本土困境


由于西方国家将儿童色情犯罪定义为侵犯儿童个体权利的犯罪,虚拟儿童色情的规制在西方国家一直以来都有争议。而我国目前对儿童色情的规制模式在司法实践中也存在诸多缺憾。


(一)域外争议:个人法益视角下的无被害人犯罪之争

1.传统规制的法益根基:防止对儿童的真实性剥削

域外国家近代以来普遍认为儿童色情是一种严重侵害儿童个体人身权利与人格尊严的犯罪类型。儿童不是合适的性行为或性满足对象,凡是描述儿童性行为或者性展示、性暗示的材料都是将儿童的身体与性特征物化,本质上体现的是对儿童的性剥削或者性虐待。儿童色情制品中所描述的儿童是性剥削、性虐待的受害者,即使儿童色情制品不涉及身体暴力,即使儿童认识制作者,或者即使该色情制品是儿童自己制作出来的,都不影响其被害人的身份,儿童色情制品把涉及儿童的性行为或性展示记录下来,未来有可能反复呈现,将对儿童的健康成长和心理健康形成严重的负面影响。在传统规制的理念中,每一份儿童色情制品的制作都意味着有儿童遭受了实际的侵害,禁止儿童色情制品的核心目的就是要保护该制品中真实受害的儿童,除了前期的制作行为,持有、浏览、传播等后续行为因助长了整个儿童色情产业链的持续也受到刑法的打击。


基于此,许多国家对儿童色情制品犯罪的传统规制通常会要求该色情制品必须涉及真实的儿童,而对虚拟儿童色情是否需要予以犯罪化则缺少明确的标准。例如,在欧盟,根据欧盟第2011/93号《关于打击对儿童的性虐待和性剥削以及打击儿童色情制品的指令》第5条第8款的规定,各成员国对于不涉及真实儿童且无传播风险的私人持有的虚拟儿童色情制品可以规定免于刑事处罚。这使得近些年来越来越多的不法分子利用人工智能技术创造出参与性行为或具有性暗示的虚拟儿童形象,从而规避法律上的真实儿童标准,给司法机关的执法带来新的挑战。


对虚拟儿童色情的规制在西方国家最大的争议,在于有学者认为利用人工智能生成虚拟儿童色情并持有等行为并未涉及现实生活中真实存在的儿童,属于无被害人犯罪,刑法应当保持谦抑性,不得对其予以犯罪化,否则将完全虚拟的儿童色情制品定为犯罪是在实际危害尚未发生之前就对个人进行惩罚,违反了刑法中的伤害原则和最后手段原则。司法实践中,也有虚拟儿童色情制品的创作者、消费者以此辩称,认为利用人工智能生成虚拟儿童色情是一种合法的性幻想和技术实验,其造成的危害不大,因为其并不涉及对真实对象的侵犯。更有观点进一步指出,对不涉及真实儿童的色情制品进行过度规制涉嫌侵犯公民的表达自由与艺术创作空间。例如,2002年,美国最高法院在阿什克罗夫特诉自由言论联盟案中裁定,虚拟儿童色情制品是受美国第一修正案保护的自由言论。近几年人工智能技术的快速发展和广泛普及,使得美国许多不法分子利用人工智能生成虚拟儿童色情图像和视频等制品并在互联网上进行传播牟利。在遭到指控后,不法分子往往引用阿什克罗夫特诉言论自由联盟案的裁定,以自己的行为并不涉及真实儿童作为辩护理由,从而逃脱法律的惩罚。


2.生成式人工智能的冲击:无被害人犯罪之否定

近些年来,人工智能技术快速发展,尤其是随着大语言模型的广泛普及,不法分子可以快速、高效、便利地批量生成虚拟儿童色情制品,并在互联网上广泛传播,使得儿童色情在网络空间泛滥。在此背景下,制作、传播虚拟儿童色情等行为属于无被害人犯罪的观点在西方受到理论界和实务界的质疑。


无被害人犯罪是指没有对刑法所保护的法益造成侵害或威胁的行为,传统上较为常见的该类行为包括通奸、同性恋、卖淫、赌博、吸食毒品、堕胎、高利贷等。无被害人犯罪是西方学者在面临犯罪日益增多、司法资源不堪重负的情况下提出的一种犯罪类型。20世纪下半叶,在西方国家中,无论是英美法系还是大陆法系都有对无被害人犯罪进行非犯罪化的思潮,其主要理论依据为英美法系的伤害原则和大陆法系的法益侵害原则。伤害原则认为,国家仅能对危害他人或制造不可接受风险的行为进行刑事化。反之,如果某行为没有伤害他人,也没有伤害他人的可能性,那么国家对该行为的干预就是不合法的。德国、日本等大陆法系国家的法益侵害性原则将国民利益受侵害视为违法性的原点,对于那些没有被害人的犯罪或者自己是被害人的犯罪实行非犯罪化,因为这些行为虽然违反社会伦理,却没有侵犯任何法益。


儿童色情的虚拟化并不等于无害化,无被害人犯罪理论在适用于虚拟儿童色情时存在理论局限。以未涉及真实儿童为由主张对虚拟儿童色情的非罪化,实质上是将法益侵害狭隘地理解为对个人的直接生理伤害,完全忽视了对儿童的群体尊严、性的身心健康发展等法益的侵蚀。从未成年人的个体层面来看,利用人工智能生成的虚拟儿童色情制品如果是将真实儿童的形象替换到色情制品中,即便该儿童未遭受真实性行为的侵害,该虚拟儿童色情也会对该儿童造成持续的心理创伤。而且,其他未成年人也极易被虚拟儿童色情诱导而效仿从事类似性行为。从未成年人的群体层面来看,虚拟儿童色情制品严重违背不可性化儿童的社会共识,削弱儿童保护的道德敏感性,而且会助长现实生活中性化儿童的倾向,为现实生活中的性侵儿童犯罪提供心理铺垫。欧洲刑警组织发现,近些年来人工智能生成的儿童性虐待材料在被发现的儿童性虐待材料中占很大比例,能够生成或修改图像的人工智能模型正被罪犯滥用于制作儿童性虐待材料和进行性勒索。这类人工智能模型广泛可用且发展迅速,输出的结果也越来越像真实材料,使得司法人员更难识别其为人工生成。即便这些儿童性虐待材料的内容完全是人工合成的,并未描绘真实的受害者,欧洲刑警组织认为此类人工智能生成的性虐待材料仍然助长了对儿童的物化和性化,因而为刑法的规制提供了正当性基础。尽管有少数西方学者认为人工智能生成的虚拟儿童色情可以为恋童癖群体的性冲动提供一个可接受的替代宣泄途径,从而有助于减少实际遭受性虐待的儿童数量,但有越来越多的研究显示,长期接触儿童色情制品会滋生对性侵儿童的脱敏,可能导致对更极端、更具虐待性的性侵儿童材料的偏好,削弱行为人内心对虐待儿童的抑制力,而且消费人工智能生成的虚拟儿童色情制品可能会增加现实世界中接触式性侵犯儿童犯罪的风险。


从比较法的层面来看,近些年随着互联网的普及和人工智能技术的发展,西方主要发达国家在打击儿童色情、保护儿童免受性剥削方面呈现出了法益保护扩张的趋势,逐渐突破了传统儿童色情规制中要求有真实儿童受害的要求,立法和司法实践对虚拟儿童色情犯罪的打击力度也越来越大。


在德国,近些年来散布儿童色情犯罪呈现出网络化、匿名化和快速化的趋势,与之关联,线上与线下的性侵儿童犯罪亦呈现出增长趋势。为应对这一新变化,2021年6月德国联邦议会通过的《惩治儿童性暴力法案》对《德国刑法典》第184b条规定的传播、获取或持有儿童色情内容罪进行修改,不仅全面提高了其法定刑,还将虚拟儿童色情也纳入该罪的规制范围。由此,修改后的德国刑法将儿童色情分为“儿童色情内容并非涉及真实的或者接近于现实的事件”与“儿童色情内容涉及真实的或接近于现实的事件”两种类型,前者的刑罚为“3个月以上5年以下自由刑”,后者则被提高至2年以上自由刑。持有儿童色情的法定刑由之前的“3年以下自由刑或罚金刑”提升为现在的“1年以上5年以下自由刑”。传播、获取、持有儿童色情内容罪的最低法定刑被提升为1年以上自由刑后,该罪名性质也由之前的轻罪被调整为了重罪。


在荷兰,刑法对深度伪造技术与儿童色情制品(包括虚拟儿童色情)都设有专门规定。《荷兰刑法典》第139h/1条规定故意和非法制作性图像的行为构成犯罪。2023年,该条款被扩大解释,将利用深度伪造技术制作和传播性露骨内容的行为也纳入刑事处罚范围。对儿童色情制品的规制规定在《荷兰刑法典》第240b条,该条款将生产、持有、分发儿童色情、虚拟儿童色情以及伪儿童色情的行为规定为犯罪。这里的儿童色情包括明显涉及以及似乎涉及未满18周岁的人,这意味着荷兰刑法所规制的儿童色情中的儿童包括三大类:真实儿童;外貌看似儿童的真实成年人(伪儿童色情)以及完全虚构的儿童(虚拟儿童色情)。荷兰立法者之所以将虚拟儿童色情予以犯罪化,主要是出于两方面的考虑。一是出于预防犯罪的考虑。立法者认为犯罪化有助于防止虚拟儿童色情材料鼓励儿童进行不当的性行为或助长宣扬儿童性虐待的亚文化。二是出于程序上降低调查机关举证难度的考虑。在传统的儿童色情犯罪中,检察机关需要证明该色情制品涉及了真实的儿童,而在虚拟儿童色情制品中,仅凭该材料本身往往无法证明儿童的真实性,对虚拟儿童色情的犯罪化能够减轻调查机关的举证责任,他们无须证明在制作儿童色情材料时使用了真实的儿童。荷兰的立法机关通过法益权衡,认为将虚拟儿童色情制品定为刑事犯罪并未侵犯公民的言论自由和隐私权,其核心理念在于预防和打击一切形式(包括虚拟形式)儿童色情制品的普遍公共利益,优先于与之冲突的私人利益。在荷兰的邻国比利时,该国刑法将虚拟儿童色情予以犯罪化的理由包括履行该领域的国际义务、确保刑法的可预测性、保护未成年形象本身——即使涉及伪儿童色情制品。


在英国,政府最近宣布将出台四项新法,以应对人工智能生成的儿童性虐待图像的威胁,包括:将持有、创建或分发旨在制造儿童性虐待材料的人工智能工具定为非法,违法者最高可被判处5年监禁;将运营供恋童癖者分享儿童性虐待内容或提供如何诱骗儿童建议的网站定为刑事犯罪,违法者最高可被判处10年监禁。在美国,最高法院2002年作出阿什克罗夫特诉言论自由联盟案的裁定时,互联网和人工智能技术并未像今天如此发达,当时的虚拟儿童色情对儿童健康成长的威胁并不紧迫。随着近几年人工智能生成虚拟儿童色情的数量激增,美国各州的立法者和检察官认识到美国迫切需要制定禁止虚拟儿童色情的法律。2023年9月,由54名各州检察长组成的联盟敦促美国国会研究人工智能是如何被用于通过儿童性虐待材料来剥削儿童,并要求国会进行该领域的立法,保护儿童免受人工智能生成虚拟儿童性虐待材料的侵害。


尽管不同法系的国家基于本国的法律传统和社会情况对儿童色情的具体规制存在一定差异,上述国家的最新立法和司法动态显示各国已逐渐突破传统规制中要求儿童色情犯罪必须要有真实儿童受害的要件,否定了基于无被害人犯罪理论的非罪化的观点。各国立法者从预防性刑法观出发,为了预防性虐待真实儿童犯罪的发生,转向对儿童群体人格尊严和性的身心健康发展权的保护,以实现对儿童个人法益保护的前移,这种转变是基于人工智能技术的特点对传统法益保护模式的必要调整。事实上,为了实现最大限度地预防对儿童的性侵犯,域外许多国家都将“网络引诱儿童”规定为犯罪行为。“虽然这类行为只是下游性侵或猥亵行为的准备行为,但其目的就是以实现性活动来引诱儿童的,即便没有最后发生危害结果,同样可以定罪处罚,以实现最大限度的预防。”这些立法的法理根基,在于通过截断犯罪链条的早期环节来实现对儿童性剥削风险的源头防控。域外国家的这种立法和司法趋势实际上是对传统的“防止儿童性剥削”的延伸与补充,也符合《联合国儿童权利公约》等国际公约所确立的儿童利益最大化原则的要求,为我国规制网络虚拟儿童色情犯罪提供了有益指引。事实上,伴随着社会发展的复杂化,世界各国刑法普遍存在被纳入犯罪的行为距离真正的法益损害还很遥远的立法现象。在现代法治社会中,儿童被认为是法律上的弱势群体,其身心发育尚未成熟,社会阅历较浅,缺乏足够的判断能力,意志极易被操纵、误导甚至强制,因此世界各国普遍认为对儿童性领域的法律保护具有高度优先性。


(二)国内规制:秩序法益视角下的规制缺憾

如前所述,我国刑法在规制儿童色情时将其定位为侵犯社会管理秩序法益(而非个人法益)的淫秽物品犯罪。从表面来看,这种模式具有一定的优势:司法机关只须判断相关物品是否符合我国刑法所规定的淫秽物品的标准即可认定相关行为是否构成犯罪,而无须考虑是否有真实儿童的个人法益遭到侵害,似乎不存在西方国家所面临的无被害人犯罪之争。但是,通过对我国司法解释对淫秽物品犯罪的入罪标准、量刑规范以及司法实践的深入剖析,可以发现我国当前的这种规制模式在打击虚拟儿童色情方面存在诸多缺憾。这些缺憾既包括规制所有儿童色情所固有的传统缺陷,也有应对新兴的利用人工智能生成虚拟儿童色情时独有的规制困境。


1.传统规制缺陷

首先,我国打击儿童色情的法益保护错位,未能聚焦于儿童色情对儿童人格尊严和性的身心健康发展权这一核心法益的侵犯。作为淫秽物品的下位概念,儿童色情犯罪侵害的是抽象的社会管理秩序。以抽象的秩序法益作为入罪标准,一方面容易导致公众难以理解其内涵而无意识触法,另一方面也使司法机关在判断是否动用刑罚以及刑罚的适用边界时面临困难。问题的关键,在于“淫秽物品”作为规范性构成要件要素,其具体内涵和边界依赖司法者的价值判断,而“儿童色情”作为其下位概念的认定同样如此。这意味着认定儿童色情犯罪赋予了司法者较大的自由裁量空间,同时也对司法者的法律素养、社会经验和价值判断能力等提出了更高的要求。若司法者能力不足,极易引发司法实践争议,某法院审理的一起手办涉黄案即为例证。在该案中,一款以游戏少女角色“妖兰”为原型的手办被认定为“淫秽物品”。根据公开报道,该手办呈现为跪姿少女形象,身着透明轻纱,背后一对翅膀,上身和下体都穿着可脱卸式内衣裤,胸部和关节部位做了色素沉淀,整体姿势具有挑逗性。警方提取的网店交易记录等证据显示,该手办的角色原型设定为少女,主要受众群体也指向青少年。此类以游戏角色为原型设计的淫秽手办在未成年群体中流行已久,但在该法院审理前从未有被认定为“淫秽物品”并施以刑事处罚的先例。


其次,当前的规制模式将儿童色情与成人色情等同视之,忽视了未成年人的特殊保护需求。儿童色情制品与涉及成人的普通淫秽物品性质迥异,我国将其依附于淫秽物品进行规制,忽略了儿童色情本质上是对儿童的性剥削。法律打击普通成人淫秽物品,主要是基于其公开传播有害于普通人的正常性行为观念,而儿童色情的核心危害在于性剥削儿童,无论是否涉及真实儿童,儿童色情制品均违反了不得性化儿童的根本性禁忌,严重侵害了儿童的人格尊严以及儿童在性方面的身心健康发展权。正因为如此,即便在一些色情合法化的国家,涉及儿童的淫秽信息也均被绝对禁止,相关行为通常面临更严厉的刑罚。我国将涉及儿童与成人的淫秽物品混同处理,忽视了对儿童这一特殊群体的特殊保护需求。在我国,利用硅胶充气娃娃为不特定人群提供性服务并收取费用的行为并不构成传播淫秽物品牟利罪,因为成人在私密空间的性行为本身不具有淫秽性,硅胶充气娃娃从其功能定位、使用人群、使用场景等属性特征上来看,不具有淫秽物品“具体描绘性行为或露骨宣扬色情”的属性。上述涉黄手办案宣判后,部分网友对该案进行偏激的讨论,将涉黄手办类比为硅胶娃娃等成人用品,试图为被告人主张无罪,这正是混淆了儿童色情与成人色情本质区别的典型表现。


最后,司法解释过度依赖儿童的年龄要素,使得法律对儿童的保护不平等。《2004年解释》对淫秽物品犯罪罪量要素的认定,主要以文件个数、信息条数、实际点击数、注册会员数以及违法所得数额等各种数量为标准。《2010年解释》仅将涉及不满14周岁儿童的淫秽电子信息适用降低50%的入罪门槛,制作、复制、出版、贩卖、传播已满14周岁不满18周岁未成年人淫秽信息的行为构成犯罪所要考虑的数量标准则没有降低,这类行为只有在其信息内容“具体描述性行为”时才可根据《2004年解释》适用从重处罚规定。这意味着若有关淫秽信息涉及已满14不满18周岁的未成年人,但内容仅为暴露性器官或具有性暗示(非具体描绘性行为)时,则对该相关行为的惩治既无法适用《2010年解释》降低的入罪门槛,也无法适用《2004年解释》的从重处罚规定。这种依据儿童年龄设置差异化打击力度的做法,不仅导致对未成年人的保护不平等,也违背了《联合国儿童权利公约》的儿童利益最大化原则。


2.人工智能时代的新挑战

人工智能生成的虚拟儿童色情也同样面临着前述保护法益偏差、与成人色情混同规制、对不同年龄儿童保护不一致等所带来的规制缺陷和惩罚漏洞。除此之外,其最核心的问题在于司法者会因难以认定虚拟形象的确切年龄而无法适用《2010年解释》的降低入罪门槛和《2004年解释》的从重处罚规定。但是,从性质上看,人工智能生成的虚拟儿童色情因为其高拟真性,普通人难以识别其所描述内容的真假。所以,对受众而言,其对儿童性化的负面影响与利用真实儿童制作的儿童色情并无太大差异。


如前所述,在儿童色情犯罪的规制路径上,西方国家的传统立法通常将是否涉及真实儿童这一要素作为界定儿童色情的核心要件(“质”)。相比之下,根据我国司法解释,是否涉及真实儿童这一要素只是影响相关犯罪的入罪门槛高低与刑罚轻重(“量”)。具体而言,根据《2004年解释》和《2010年解释》,涉案物品如果包含真实儿童的形象,将导致更低的入罪门槛和更重的刑罚处罚。若行为人利用深度伪造换脸技术将真实儿童的形象置换到淫秽图片或淫秽视频中,尚可根据该真实儿童的年龄来确定是否适用司法解释从重处罚的规定,但是,对于调查机关而言,跨平台的数据割裂以及网络匿名技术等都对被换脸真实儿童的身份溯源造成极大困难,且调查机关承担较重的举证责任。若行为人通过向人工智能模型输入指令生成完全虚拟但高度拟真的儿童色情内容,则会在认定该虚拟儿童是否属于“不满14周岁”或“不满18周岁”时产生争议,这不利于全面打击儿童色情犯罪。此外,我国当前的规制模式使得儿童色情的持有尚未实现犯罪化,这与《公约》以及多数域外国家的普遍实践相悖,在人工智能背景下尤为不利于对儿童的保护。


五、我国刑法规制儿童色情的路径完善


针对我国现有刑法规制儿童色情的不足,有学者从不同角度提出了不同的完善路径,目前学者们的讨论主要集中在利用人工智能深度伪造儿童色情的规制。有学者从解释论出发提出通过扩张解释将深度伪造虚拟儿童色情纳入猥亵犯罪的处罚范围。有学者从立法论角度主张将虚拟儿童色情也纳入儿童色情的范围,在现有淫秽物品犯罪的基础上,单独规定制作、复制、传播和出版儿童色情制品牟利罪和传播儿童色情制品罪。有学者建议新增传播淫秽、色情物品危害未成年人罪、网络引诱儿童罪。笔者认为我国当前对儿童色情的刑法规制存在结构性缺陷,其根源在于对儿童色情犯罪的立法理念滞后与法益定位偏差。要突破这一困局,必须首先重构儿童色情犯罪的立法理念和法益定位。


(一)法益定位的范式转型

儿童色情犯罪的法益定位,应从当前的淫秽物品管理秩序转向儿童人格尊严与性身心健康发展权。

对于传统儿童色情,其制作过程以及色情制品的后续传播风险都构成对儿童个体权益的侵犯。域外发达国家普遍将传统儿童色情犯罪界定为侵犯儿童个人权利法益的犯罪,而非抽象的社会风化犯罪。我国将儿童色情犯罪从淫秽物品犯罪中剥离,转置于侵犯公民人身权利罪,具有法理上的正当性和比较法的基础。


对于虚拟儿童色情,即便未直接描述真实儿童,其内容通过模拟未成年人性行为或性暗示构建儿童性化的形象,侵犯了未成年人群体的尊严。人之为人的尊严是一种超越个体的先验价值,人工智能生成的虚拟儿童色情可同时生成海量制品,内容高度拟真,在互联网上传播隐匿且传播速度快、涉及面广,对未成年群体尊严的侵犯更为严重。对潜在的犯罪分子而言,此类制品使得对儿童的性剥削呈现出正常化,弱化了其内心对性侵儿童的抑制,有增加现实生活中性侵儿童犯罪的风险。对未成年人而言,一方面像传统的儿童色情制品一样,此类制品对儿童的性化使得儿童成为性消费的对象,消解了儿童的主体尊严。另一方面,身处青春期的未成年人认知能力尚未成熟,自控能力薄弱,对“性”存在天然的好奇心,虚拟儿童色情制品在网络空间的泛滥和易获取性使其对未成年人的法益侵害性远超过传统的儿童色情,极易扭曲未成年人的性认知观与性道德观,导致未成年人模仿此类危险行为,影响未成年人的身心健康,严重的甚至会引发激情犯罪。


从犯罪预防的角度出发,对人工智能生成虚拟儿童色情的非罪化处置,将侵蚀不得性化儿童的社会伦理禁忌,降低公众对儿童性剥削行为的防护敏感度,进而破坏未成年人健康成长所需要的社会环境根基。因此,即便人工智能生成的儿童色情内容未涉及真实儿童个体,鉴于其批量生成、高度拟真、传播隐匿等独特的技术特性,仍应将其认定为对儿童个人法益尤其是对人格尊严的完整性与性身心健康发展权构成系统性侵害。


域外发达国家近几年的立法和司法动向从某种程度上否定了虚拟儿童色情属于无被害人犯罪的观点,对儿童色情的规制呈现双重转向:一方面是规制范围扩张,将新兴的网络虚拟儿童色情也纳入儿童色情的范畴,另一方面是法益定位的深化,将虚拟儿童色情定位为对儿童人身权益尤其是儿童群体尊严的侵害。这种立法动向为我国的立法和司法实践提供了很好的镜鉴。利用人工智能技术制造儿童性化形象,不仅是对未成年人人格的物化与工具化,更是一种毫无社会福祉的技术滥用,对此类行为应当通过刑法打击予以禁止。


(二)二元规制的模式重构

包括虚拟儿童色情在内的所有儿童色情与成人色情在性质上有着根本性差异:前者违反的是禁止性化儿童的文明底线,直接侵害儿童的人格尊严和性的身心健康发展权;而后者规制的核心在于防止淫秽物品公开传播有害于普通人的正常性行为观念,所涉法益为社会管理秩序。二者法益侵害性的根本差异,要求对二者进行二元化的差异规制。比较理想的选择是通过新增儿童色情犯罪并将其纳入我国《刑法》第4章侵犯公民人身权利、民主权利罪之中来实现对儿童色情犯罪的单独规制,彰显儿童人格尊严和性身心健康发展权作为人身权的独立价值,并且实现与成人淫秽物品犯罪的规制切割。


若认为对罪名作如此大范围之调动较为困难,可以退而求其次,将在现有淫秽物品犯罪之后新增专门条款规制儿童色情犯罪作为过渡性方案。虽然新增条款仍位于妨害社会管理秩序罪之下,但可通过司法解释或其他配套规范性文件宣示儿童色情犯罪属于侵犯复合法益的犯罪,其侵犯的核心法益是儿童的人格尊严和性的身心健康发展权,次要法益是淫秽物品管理秩序。其中,核心法益是区分儿童色情与成人色情的关键。这种复合法益的定位完全符合刑法体系的内在逻辑,并不违背刑法现有体例。例如,《刑法修正案(十一)》在妨害公务罪之后新增袭警罪。虽然袭警罪位于《刑法》第6章妨害社会管理秩序罪,但是,根据相关规范性文件,该罪所保护的法益既包括警察的执法权威这一抽象法益,也包括民警的人身安全这一具体的个人法益。


(三)核心规则的具体再造

在确立儿童色情犯罪侵害复合法益并承认其与成人淫秽物品犯罪存在本质差异的基础上,我国刑事规制体系的完善可以从以下几方面展开。


1.对象范畴的规范界定

就儿童色情的行为内容而言,儿童色情犯罪的核心行为是涉及儿童性行为或性化的展示。《2004年解释》第6条规定对涉及不满18周岁未成年人性行为的淫秽电子信息的相关行为要从重处罚。应当通过规范性文件对此处的“性行为”作广义理解,使其规制的内容包括以下几方面。一是儿童参与的显性性行为,既包括狭义的生殖器插入类的性交,也包括口交、肛交、手淫等明显具有性意义的性接触行为。二是儿童参与的猥亵行为,包括以性刺激或性满足为目的,具有性意味地接触或展示儿童身体隐私部位(例如生殖器、肛门、女性乳房)的行为。三是带有明显性暗示或性刺激目的的对儿童身体隐私部位(如生殖器、肛门、女性乳房)的突出展示。四是对儿童的性化情景营造,包括以引起观众产生性欲或性幻想为主要目的:(一)令儿童摆出性暗示或性挑逗姿态,或将儿童置于具有明显性意味、性诱惑的姿势、着装或环境中;(二)描述儿童遭受或看似遭受捆绑、鞭打、羞辱等性虐待行为;(三)呈现儿童参与模拟的性暴力场景。我国《2004年解释》规定对涉及不满18周岁未成年人性行为的淫秽电子信息的相关行为从重处罚,该规定只涵盖了前述第一类内容,后三类内容只能被视为与成人色情性质相当的普通淫秽物品进行规制,这远远低估了后三类内容对儿童性化的法益侵害性。要完善对儿童色情的打击,应当在规范中将后三类内容也纳入儿童色情的规制范畴,并结合司法实践积累的经验,建立区别于成人淫秽物品的独立评价体系。


就儿童色情的行为对象而言,儿童色情的核心要素是涉及儿童或儿童性征的性化呈现。对“儿童”的界定应当涵盖所有未满18周岁的未成年人,既包括真实的儿童,也包括虚拟儿童或近似儿童的形象。我国当前的《2010年解释》仅对描述涉及不满14周岁未成年人的淫秽电子信息的相关行为在淫秽物品原有入罪门槛的基础上降低了一半,对儿童内部的保护不均衡,未体现对描述已满14周岁不满18周岁的儿童色情的打击力度。比较理想的做法是,首先在规范性文件中对所有涉及不满18周岁儿童色情的相关行为规定比成人淫秽物品犯罪较低的入罪门槛和较重的量刑配置;其次,在儿童色情内部,根据其描述对象是年龄较小的幼童(不满14周岁)还是青少年(已满14不满18周岁)再设置不同的量刑标准,目前《德国刑法典》第184b条和第184c条规定的儿童色情文书罪和少年色情文书罪即为此种分级模式。对于虚拟儿童色情制品的认定,应当根据一般人标准,结合对描述对象的身体比例、未发育性征、面部特征、行为举止、着装配饰以及其是否处于儿童关联环境(例如儿童房、游乐场、教室等)等进行综合判断。根据一般人标准,如果认为其描述的对象可以被识别为儿童或代表儿童的,也应将其纳入儿童色情所规制的“儿童”范畴。该规定既符合《布达佩斯公约》对“儿童色情制品”的定义以及前文所述《公约》对“儿童性虐待或性剥削材料”的定义,也能满足人工智能背景下儿童色情泛滥所产生的规制需求。


此外,应当在规范性文件中构建分类分级的儿童色情犯罪规制体系。尽管虚拟儿童色情具有刑事可罚性,是否涉及真实儿童参与、真实儿童是否直接遭受性剥削等因素决定了不同类别的儿童色情在法益侵害程度上存在差异。基于此,应针对儿童色情的多元形态,建立起差异化的规制框架,具体可将儿童色情划分为三类。一是真实参与型儿童色情。此类儿童色情制品的制作利用了真实儿童参与性行为或与性有关的性展示、性暗示等,其核心特征是对儿童个体人身法益的直接侵害。二是人工智能生成型儿童色情,包括将真实儿童的形象替换到淫秽图片或视频的深度伪造内容,也包括完全由人工智能生成的虚拟儿童色情。此类制品虽无真实儿童受害者,但因其呈现高度逼真的儿童形象,普通人难以辨伪,具有诱发实质犯罪的抽象危险。三是虚拟象征型儿童色情,主要指通过动画、漫画、虚拟人物或游戏模型等虚构、非拟真载体呈现的涉儿童色情内容,其主要法益侵害性在于对儿童形象的性化贬损侵犯了儿童群体的人格尊严和性的身心健康发展权。对于这三类不同的儿童色情制品,应当在总结司法实践经验的基础上,根据制品传播的针对性、受众群体特殊性、社会影响辐射范围等因素构建差异化的分级处罚机制。


就儿童色情的呈现形式而言,应当在规范性文件中突出儿童色情是以视觉化的表达为载体形式。对“视觉化”的规定可涵盖所有能够被视觉感知的载体,如静态图片、动态影像、绘画、卡通、动漫、人工智能生成的图片、视频等。对于纯文字描述,例如描述儿童参与性行为的黄色小说,其法益侵害性与视觉化的儿童色情不具有相当性,不宜放在该定义范围之内,但根据具体情况有可能构成其他犯罪,例如传授犯罪方法罪、传播淫秽物品罪等。对于以音频形式呈现的色情内容是否应纳入儿童色情的范畴进行规制目前在国际上争议较大,仍须深入探讨。我国对此应持审慎态度,避免仓促将其入罪,否则可能导致入罪边界模糊,并增加司法机关的举证难度。


综上所述,结合传统儿童色情的行为特征以及人工智能生成虚拟色情的技术特性,可将儿童色情的概念界定为:以视觉载体呈现的,描绘未满18周岁未成年人或可识别为未成年人的形象参与性行为、模拟性行为或主要为性目的展示未成年人性器官的任何材料。


2.行为类型的必要扩张

其一,应当在规范性文件中明确淫秽物品犯罪的基础行为类型对新增的儿童色情犯罪仍然适用。我国现有立法所打击的淫秽物品相关行为类型包括制作、复制、出版、贩卖、传播以及组织播放等行为,在将儿童色情从淫秽物品犯罪规制中剥离出来后,对儿童色情规制的行为范围也应当涵盖这些类型。对于利用人工智能生成儿童色情的行为,应通过将其纳入“制作”行为的语义范畴进行刑事规制。


其二,应当在规范性文件中规定若性侵犯儿童过程中同时附带有拍摄行为,须对强奸、猥亵等性侵犯行为与拍摄行为进行分别评价。在我国司法实务中,对于行为人猥亵儿童或性侵儿童并同时拍摄的行为,司法机关通常以猥亵儿童罪或强制猥亵罪进行惩罚,这种单一评价模式使得拍摄行为对儿童造成的法益侵害未被评价。以杜某某强制猥亵儿童案为例,杜某某先后多次以金钱诱骗或以上传网络的方式相威胁,强迫许某某等多名未成年人拍摄裸照或裸聊。实务观点认定杜某某犯强制猥亵罪、猥亵儿童罪,数罪并罚。实务观点对行为人胁迫未成年人拍摄裸照的行为仅仅认定为猥亵犯罪,这种处理模式使得刑法对儿童的法益保护存在疏漏,即未能独立评价拍摄行为对儿童人格尊严的二次侵害。制作儿童色情行为本身对儿童有单独的法益侵害性,裸照等作为儿童色情制品记录下儿童被侵犯的经历,未来还会对儿童造成二次伤害。基于此,刑法应该对其进行单独评价。在确立儿童色情犯罪侵犯的法益包括儿童的人格尊严和性健康发展权后,将拍摄行为单独评价为“制作”儿童色情制品而予以处罚符合对儿童色情犯罪的法益定位,而且该做法也与域外多数国家的立法和司法实践保持一致。


其三,应当在规范性文件中将儿童色情的持有行为予以犯罪化。《公约》第14条明确要求“各缔约国均应采取必要的立法措施和其他措施,在本国法律中将没有相关权限而故意实施的以下行为规定为刑事犯罪行为:……(三)持有或控制存储在信息通信技术系统或其他存储介质中的儿童性虐待或儿童性剥削材料”。如果说《公约》对网络儿童色情的特别规制,系基于互联网技术放大传播效能的固有风险,那么人工智能技术通过生成算法、深度合成等工具实现了儿童色情制作源头的去人力化和批量化,根本性地降低了儿童色情制品的制作门槛,持有行为的便利化更是助长了儿童性剥削的产业链。这种技术代际差异,要求刑法必须通过对持有行为犯罪化将刑事打击性侵儿童犯罪的防线前移,构建起覆盖“制作—传播—持有”全行为链条的体系化规制。


我国现有规制框架下将儿童色情依附于淫秽物品进行规制,使得儿童色情与成人色情相混同,因此整体性地规定淫秽物品持有行为构成犯罪不符合社会现实。但是,在前述区分儿童色情与成人淫秽物品的基础之上,单独将儿童色情的持有行为入罪则不存在理论障碍。实际上,我国2020年修订的《未成年人保护法》已经先行确立了禁止持有儿童色情的规定。该法第52条规定:“禁止制作、复制、发布、传播或者持有有关未成年人的淫秽色情物品和网络信息。”这是我国在正式立法中首次提出禁止持有儿童色情制品的规定,标志着立法者已经认识到儿童色情持有行为的危害性。但遗憾的是,该规定仅为原则性的禁止宣言,缺乏与之配套的具体罪名、构成要件、刑事责任等规定。这种“有禁止无罚则”的状态导致该规定在司法实务中难以有效执行。笔者认为,可以将持有儿童色情纳入我国刑法的规制范畴,如此可以构建起与行政禁令相衔接的规制体系。


3.出罪事由的审慎限缩

在对儿童色情持严厉打击立场的同时,应基于刑法谦抑性原则与罪刑法定原则,严格限定出罪事由。综合比较法经验以及我国现有规范体系,可确立以下三类出罪事由。


第一,应当认可行为人基于正当目的的抗辩。我国《刑法》第367条第2款、第3款规定,有关人体生理、医学知识的科学著作不是淫秽物品。包含有色情内容的有艺术价值的文学、艺术作品不视为淫秽物品。该规则应延伸适用于对儿童色情的规制。对于那些因具备真实的教育、医疗、科研、艺术等目的而不可避免地涉及对儿童性征描述的材料,不应认定为儿童色情。例如,医学教材涉及儿童性器官的展示不得被认定为儿童色情。


第二,未成年人之间对于合意性行为的影像记录且未予以传播的,不应认定为儿童色情。该出罪事由与我国性侵犯罪中“青梅竹马”辩护理由的逻辑保持一致。我国的性同意年龄为14周岁,刑法原则上禁止所有人与不满14周岁的幼女发生性行为,否则即构成强奸罪,但《最高人民法院关于审理未成年人刑事案件具体应用法律若干问题的解释》(法释〔2006〕1号)第6条同时还规定已满14不满16周岁的人偶尔与幼女发生性行为,情节轻微、未造成严重后果的,不认为是犯罪。相较于实际性行为,未成年人之间基于合意的私密影像制作如果仅作私用,其所产生的法益侵害性更低,因而更应当获得出罪空间。另外,对于儿童自己利用人工智能技术制作虚拟儿童色情且仅供私用、不涉及广泛传播的情形,也应当予以出罪,以避免给懵懂无知、正在处于性探索期的未成年人贴上犯罪标签,更好地落实宽严相济刑事政策。


第三,执法司法机关在网络诱捕行动中使用儿童色情材料的行为应当阻却违法性,不构成儿童色情犯罪。例如,通过利用一个叫“甜心”的网络虚拟女孩形象,国际刑警组织成功抓捕了许多恋童癖者。“甜心”实际上与深度伪造技术类似,是一种人工智能技术,该虚拟的女孩形象通过在网络聊天室与他人互动、视频通话等识别意图对未成年女孩实施性剥削的犯罪分子。当收集到足够多的身份信息以及性剥削细节后,“甜心”的运营者会将数据提交给国际刑警组织。但需要注意的是,该出罪事由仅限于对完全虚拟的儿童色情予以除罪化。如果执法司法机关为了诱捕恋童癖者而使用涉及真实儿童的儿童色情材料,则不符合法益衡量和比例原则,对此类行为仍应当予以禁止。


来源:中国刑事法杂志

朱光星,中国政法大学刑事司法学院副教授

版权所有 © 2019-2020 北京于佳祺律师网 版权所有  |  京ICP备19052065号-1