【人工智能】善弈者谋势——从近期执法案例看AIGC服务提供者合规重点
石钛戈、张宜轩 竞天公诚律师事务所
2025年4月30日,国家网信办发布通知,宣布其部署开展“清朗·整治AI技术滥用”的专项执法活动,该执法活动分为两个阶段:第一阶段关注AI产品/服务准入合规、训练语料合规性、安全管理措施、法定AI生成内容标识的合规情况;第二阶段聚焦利用AIGC技术的内容合规问题。2025年6月20日,国家网信办总结了第一阶段的执法进展(第一阶段累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个),并介绍了各个主要互联网平台的执法响应情况。

本文将从国家和地方网信办实际发布的行政执法案例和我们的从业经验出发,基于AIGC[1]服务提供者的视角,总结我国基于AIGC服务的3个重点强制性合规要求——市场准入、生成内容合规以及AI标识要求,以期为AIGC行业及法律从业人员提供参考。

一、 市场准入——“算法备案”、“大模型备案”及“生成式服务登记”

我国针对AIGC服务的主要监管部门为国家互联网信息办公室(及其地方机构,业内通称CAC或网信办)。网信办对于AIGC的抓手为备案机制。依据办理窗口不同,备案机制可分为(1)“算法备案”(包括“互联网信息服务算法备案”和“深度合成算法备案”)[2]和(2)“大模型备案”,分别对应网信办出台的3部部门规章[3]。对于基于AIGC技术的内容生成服务来说,通常会同时触发“深度合成算法备案”以及“大模型备案”。

特别地,对于“大模型备案”,若企业通过API接口或者其他方式直接调用已备案大模型产品或能力,向境内用户提供生成式人工智能服务的,经属地省级网信办同意,可采用“生成式服务登记”方式获取备案号。“大模型登记”可以简单理解为轻量化的“大模型备案”,但是如果AIGC服务提供者存在优化训练(fine-tuning)等影响生成内容的调整行为,则仍应办理“大模型备案”。“大模型备案”由省级网信办负责受理,但具体评估仍将由国家网信办主导,由国家网信办整理公示。

算法备案和大模型备案的核心在于AIGC服务提供者[4]向网信办提供有关算法、模型较为详细的信息,据以评估其算法和模型的可靠性与安全性,并依据网信办的指示开展整改,以换取来自(国家和/或省级)网信办的备案号。有了备案号,AIGC服务提供者就可以向境内公众提供服务。已上线的生成式人工智能应用或功能,应在显著位置或产品详情页面公示所使用已备案/登记生成式人工智能服务情况,注明模型名称及备案号。

此外,如果AIGC开发者计划以APP的形式提供服务,应用程序分发平台对于AIGC类应用亦要求提供相应备案信息,方准许上架。

依据国家网信办的第一阶段执法总结,广东、天津网信办对“未备案、未登记即提供AIGC服务”的网站、APP进行了排查,并要求完成备案/登记;上海网信办对“未履行备案或登记程序提供服务且存在风险的应用,依法约谈并给予行政处罚”。江苏网信办甚至联合工信部门,对AI风险域名进行了封堵和取消接入。因此,对于AIGC服务提供者来说,大模型备案/登记是合规运营无法避开的要求。

二、 生成内容合规——训练数据合规与应用功能及内容

大模型底层技术所决定的海量数据输入和输出,使AIGC服务提供者承担较高的内容合规风险。除我们过往分析过的著作权风险及竞争性权益风险外,确保训练数据合法合规,不提供非法功能和不生成违法内容亦为重要的合规要点,也是本次国家网信办的执法重点。

(一)训练数据合规

在本次“清朗·整治AI技术滥用”执法活动中,国家网信办明确要整治训练语料管理不严问题。该等问题体现在“使用侵犯他人知识产权、隐私权等权益的信息;使用网上爬取的虚假、无效、不实内容;使用非法来源数据;未建立训练语料管理机制,未定期排查清理违规语料”这些方面,相关AIGC服务提供者如通义平台亦就此类问题作出了相应说明和回应。

对于大模型训练所使用的各类数据集,企业应注重不同层面的合规要求,例如自有数据中的商业秘密保护、商业授权数据中的合规权属审核、数据质量、侵权责任分配等内容,以及开源数据集(甚至其子数据集)的开源许可协议遵守[5]问题等。我国亦已通过了推荐性国家标准《GB/T 45652-2025 网络安全技术 生成式人工智能预训练数据和优化训练数据安全规范》,对大模型备案中的训练数据合规提供了重要指引,供从业者参考设计训练架构和语料标注。结合本次网信办行动的执法重点,我们认为值得特别注意的点有:

(1) 收集/生成预训练数据和优化训练数据时,应对数据进行评估和记录,数据所包含的违法不良信息[6]不应超过5%;

(2) 通过交易或合作等方式从其他组织或个人收集数据时,应对交易方或合作方所提供的数据、承诺以及相关证明材料进行审核;及

(3) 对不同模态训练数据预处理时,应:

a) 对于文本数据,应设立关键词库、歧义关系库等敏感词库,建立文本分类模型识别隐私、敏感信息;

b) 对于图像数据,应设立敏感图像识别、分类模型或相关机制,过滤涉及违法不良信息、知识产权的图像数据;

c) 对于音频数据,应设立音频处理、识别、过滤模型或相关机制,过滤涉及违法不良信息、侵害知识产权的音频数据;及

(4) 使用生成式人工智能生成内容作为训练数据时,应建立幻觉风险评估机制,识别并处置误导模型的错误知识。

(二)应用功能及生成内容合规

另一方面,AIGC生成内容和功能合规也是网信办执法重点。国家网信办及上海网信办单独列举了一些违规行为:

(1) 未获取相关个人信息主体的合法性基础,提供AI换脸、AI拟声功能。此类问题指个人信息保护违规,即AIGC服务提供者未按照《个人信息保护法》等要求,提示用户在编辑他人生物识别信息时,应依法告知被编辑个人并取得其单独同意。如某网站在未取得被编辑个人同意的情况下,克隆其声纹信息并进行语音合成提供其他用户使用;

(2) 提供生成诱导沉迷、擦边低俗内容的对话服务,或者提供“一键脱衣”功能。此类问题指模型功能、内容生成违规,例如企业未按照《网络安全法》《生成式人工智能服务管理暂行办法》等要求,在平台出现违法违规内容(如色情、暴力等有害图片、性暗示、“分尸猎奇”文字等)时及时采取停止生成、停止传播、消除等措施。上海网信办近期亦约谈查处了一款带来不良影响的AI陪伴软件;

(3) 生成侵犯他人名誉权、隐私权等合法权益的违规信息。此类问题指如根据输入信息,可生成包含公众人物形象的虚假图片;或可根据用户要求生成“开盒教程”“他人隐私信息曝光教程”等违规内容。

对于具体生成内容的合规性的判断,AIGC服务提供者可根据国家推荐性标准《GB/T 45654-2025 网络安全技术 生成式人工智能服务安全基本要求》附录A来判断。该标准亦是大模型备案流程中的重要标准。

三、 AIGC内容标识合规——显式标识与隐式标识的落地

国家网信办牵头发布的《人工智能生成合成内容标识办法》,将于2025年9月1日生效。作为配套实施规范,强制性国家标准《GB 45438-2025 网络安全技术 人工智能生成合成内容标识方法》也将于同日生效。我们先前亦撰文介绍了两份文件的征求意见稿。

作为强制性合规要求,AIGC服务提供者应在自然文本生成、人声人脸生成合成、沉浸式拟真场景等情形[7]下对生成合成内容添加显式标识[8],并对生成合成内容的文件元数据添加隐式标识[9]。对于该等标识信息,内容传播平台(例如UGC视频网站)和应用程序分发平台亦有义务核验相关标识材料。我们理解,显式标识要求意在使公众能够辨别AIGC内容,而隐式标识的要求则意在实现溯源监督。

此次“清朗·整治AI技术滥用”执法行动的第一阶段亦明确将整治该等内容标识问题:“服务提供者未对深度合成内容添加隐式、显式内容标识,未向使用者提供或提示显式内容标识功能。内容传播平台未开展生成合成内容监测甄别,导致虚假信息误导公众”。针对前述问题,微博、抖音、阿里平台、快手平台、MiniMax等重点平台亦推进落实了法规要求。就隐式标识,全国网络安全标准化技术委员会(TC260)近期亦就AIGC文本、图片、音频、视频内容的文件元数据隐式标识方法、防护指南及检测技术征求了意见,供从业人士讨论并提出意见。因此,对于AIGC服务提供者,显式标识和隐式标识的落地仍为一道重要的“必答题”。

四、 总结:监管思路的范式进化

随着监管部门对AIGC产业的进一步深入理解,国家网信部门的监管思路及执法理念也从过往的表层“备案登记留存信息”进化到了“治理实质运营风险”的阶段。监管部门通过识别具体AIGC应用范式风险(“一键脱衣”、“AI陪伴不良诱导”、滥用“AI换脸”等),在执法活动中要求备案/登记、整改生成内容、落实AIGC标识要求,贯穿了AIGC服务提供者“训练—应用—分发”的生成式服务全流程运营环节。

随着网信办“清朗·整治AI技术滥用”第二阶段的展开,我们认为监管部门仍会延续对于生成内容合规的高度关注。AIGC企业不应延续过往“备案即可”的心态,而应看清未来监管趋势,参考目前的执法实践,在实质合规方面采取风险缓释措施,以确保业务的良性发展。具体而言,我们建议AIGC服务提供者采取以下关键性合规措施:

(1) 模型输出安全:参考《GB/T 45654-2025 网络安全技术 生成式人工智能服务安全基本要求》第5.2节,对AIGC生成内容的安全性、准确性及可靠性进行内部评估并落实显式、隐式标识要求,如存在高风险则相应整改。

(2) 不当使用监测:通过采取关键词、分类模型等方式对使用者输入信息进行检测,在使用者连续多次输入违法不良信息或一天内累计输入违法不良信息达到一定次数时,采取暂停提供服务等处置措施。在问题拒答方面,对明显偏激以及明显诱导生成违法不良信息的问题,应拒绝回答。

(3) 端侧部署安全:当模型部署在端侧时,应利用定期更新的关键词库等技术对生成内容进行安全审核,收集并依据《网络安全法》留存安全日志,并支持设备联网时上传日志或支持端侧本地导出日志。

(4) 个人信息保护:梳理个人信息处理活动,并依据《个人信息保护法》公示个人信息处理规则,确保AIGC服务使用者的知情权,决定权,特别是对用户数据训练、数据输入获得充分的合法性基础,并采取措施保障个人信息安全。

作者介绍


石钛戈 合伙人
竞天公诚律师事务所
邮箱:shi.taige@jingtian.com

石钛戈律师先后毕业于北京师范大学、对外经济贸易大学和威斯康星大学-麦迪逊分校,分别获得法学学士和两个法学硕士学位。
石律师的主要业务领域包括网络安全与数据合规、投资与并购、私募股权与风险投资、外商直接投资。他在2021年被法律评级机构LEGALBAND列入中国顶级律师排行榜(网络安全与数据合规);在2020年被LEGALBAND评为网络安全与数据保护领域的中国律师15强。
石律师是国内较早涉足云计算这一新兴领域的法律服务的律师之一,他在网络、数据安全及合规方面拥有丰富的经验:他处理了大量涉及网络安全和隐私保护的法律难题,例如跨法域的数据保护的协调,金融企业客户IT外包的监管合规等。石律师还持续为多家知名外资IT企业的云计算产品在华落地提供法律服务。他带领团队在充分熟悉和了解相关产品的特性、服务提供方式、所涉及的数据收集、传输、流动模式的基础上,围绕相关产品的法律合规性、网络安全和数据保护的充分性等议题为客户提供详细的分析和建议。石律师还为多家从事互联网与增值电信业务的企业就数据安全、个人信息保护、数据传输安全评估、网络安全审查、网络等级保护评测合规、关键信息基础设施保护等合规业务提供法律支持,涉及行业包括电子商务、超级计算、人工智能医疗应用、药物研发、生物科技、互联网视听传播、互联网广告、互联网出版、游戏电竞、奢侈品等。
石律师也作为项目负责人为TMT、互联网、生物医药、产业园区、医药研发、能源、教育等行业的客户的投资和并购交易中提供包括从尽职调查、交易架构设计、合同起草和谈判,直至交割的全流程法律服务。
石律师于2007年取得中华人民共和国执业律师资格,2012年取得通过美国纽约州律师执业资格。
石律师的工作语言为中文和英文。

\"\"
张宜轩 律师
竞天公诚律师事务所
邮箱:zhang.yixuan@jingtian.com

北京办公室
专业领域:网络安全、数据安全与个人信息保护合规

********************
[1] 指具有文本、图片、音频、视频、虚拟场景等内容生成能力的模型及相关技术。
[2] 依据《生成式人工智能服务管理暂行办法》第17条,AIGC服务提供者提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应履行“算法备案”义务。依据目前监管口径,此处“舆论属性或者社会动员能力”应做广义理解,只要面向非AIGC服务提供者内部提供的内容生成服务,都被认为具有“舆论属性或者社会动员能力”。《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》亦对“具有舆论属性或者社会动员能力”提供了一些可供参考的示例,如论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播等信息服务或者相应功能。
[3] 即《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》。
[4] 对于深度合成算法备案,《互联网信息服务深度合成管理规定》还创设了一个“服务技术支持者”的合规义务角色。本文作为为简化读者理解,将统一称为“AIGC服务提供者”。
[5] 例如,GPL、AGPL协议传染性强,不适合商用模型;MIT、Apache 2.0:更宽松,适合商业用途;CC-BY协议需要署名;CC-BY-SA协议还要求共享协议一致性。
[6] 可参考《GB/T 45654-2025 网络安全技术 生成式人工智能服务安全基本要求》附录A.1~A.4中29种安全风险作为判断违法不良信息的标准。
[7] 对应《互联网信息服务深度合成管理规定》第17条第1款规定的五类情形。
[8] 显式标识是指在生成合成内容或者交互场景界面中添加的,以文字、声音、图形等方式呈现并可以被用户明显感知到的标识。考虑到特定场景下显式标识可能会影响AI生成合成内容的正常使用,法规亦允许用户在签署用户协议的前提下,使用未添加显式标识的AIGC服务。
[9] 对应的,隐式标识是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。隐式标识应包含生成合成内容属性信息、服务提供者名称或者编码、内容编号等制作要素信息。
请先同意《服务条款》和《隐私政策》