总第105期 跨越AIGC产品合规上市之路

编者按

正值《生成式人工智能服务管理暂行办法》生效之际,本期专题特别编辑了关于AIGC产品上市合规的系列文章。该系列文章将从算法备案、安全评估、资质证照和内控措施四个方面进行深入探讨,介绍人工智能产品上市所需遵守的相关法律法规、政策规范和行业标准。本期专题为读者详细解读当前法律法规对AIGC产品上市的合规要求,并结合实践经验,为读者提供可借鉴的操作策略。

核心法案解读

一、《互联网信息服务算法推荐管理规定》

《互联网信息服务算法推荐管理规定》于2022年3月1日起施行。该规定是中国第一部算法管理规定,该规定的实施意味着算法相关行业乱象正式告别野蛮生长时代,针对算法的综合长效治理体系正在积极构建。

1、精细化的监管体系 

2、信息主体的权益设置 

3、算法推荐服务者合规义务梳理 

二、《互联网信息服务深度合成管理规定》

2023年1月10日,《互联网信息服务深度合成管理规定》正式施行。《互联网信息服务深度合成管理规定》是针对应用深度合成技术提供的互联网信息服务制定的系统性、专门性规定,明确了各类主体的信息安全义务,同时注重与互联网内容、算法等相关法律法规的有机衔接,为促进深度合成服务规范发展提供了有力法治保障。

深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,包括但不限于文本内容生成、语音内容生成、音乐或场景声生成、人脸或姿态生成、图像生成,以及数字人物、虚拟场景生成。

《互联网信息服务深度合成管理规定》所包含的核心监管思路是以各类主体为监管目标的纵向监管模式,所覆盖的主体包括三类:深度合成服务提供者、技术支持者以及服务使用者。企业应当首先识别自己在经营中是否使用了深度合成技术,其次辨识自己属于哪一类被监管的主体,最后对义务项进行逐项落实。

1、深度合成服务提供者的合规义务

深度合成服务提供者,是指提供深度合成服务的组织、个人。《互联网信息服务深度合成管理规定》对于深度合成服务提供者的义务作出了全面、细致的规定。按照适用情况,深度合成服务提供者的合规义务可以分为普遍义务与特殊义务。普遍义务包括: 

2、深度合成服务技术支持者的合规义务

根据《互联网信息服务深度合成管理规定》,深度合成服务深度合成服务技术支持者是指为深度合成服务提供技术支持的组织、个人。该等界定并未采用“技术提供商”或“技术供应商”等说法,从文意解读,其适用的对象更加广泛,仅提供技术辅助、协助的企业也将被纳入规制。

与深度合成服务提供者相比,《互联网信息服务深度合成管理规定》对深度合成服务技术支持者设定的合规义务相对有限,包括训练数据管理、“单独同意”提示、安全评估,以及算法备案。具体规定与服务提供商对应义务的内容一致,不再赘述。

值得注意的是,《互联网信息服务深度合成管理规定》要求深度合成服务技术支持者履行算法备案义务实际扩大了《互联网信息服务算法推荐管理规定》关于算法备案的适用范围 。此后该类技术解决方案公司是否完成了算法备案可能会成为其被选入供应商库的前置条件。

3、深度合成服务使用者的合规义务

《互联网信息服务深度合成管理规定》对深度合成服务使用者设置的重点义务包括:

  • 配合深度合成服务提供者完成身份认证;
  • 在编辑人脸、人声等生物识别信息前,取得个人信息主体的单独同意。此处,取得单独同意也是其在《个人信息保护法》下作为个人信息处理者的合规义务。

上述规定并不意味着深度合成服务使用者的合规义务较少。事实上,深度合成服务使用者对如何使用深度合成服务拥有最大的自主权,也是直接面对普通个人信息主体的一方,属于深度合成服务产业链的终端,其合规风险更高。

4、特殊主体的合规义务

此外,《互联网信息服务深度合成管理规定》还对两类特殊主体在特定场景下涉及深度合成服务的活动作出强调:

  • 新闻信息发布主体:转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。
  • App、小程序等分发平台:互联网应用商店等应用程序分发平台应当落实上架审核、日常管理、应急处置等安全管理责任,核验深度合成类应用程序的安全评估、备案等情况。

我们总结了各类主体的合规义务表,供读者参考: 

三、《生成式人工智能服务管理暂行办法》

生成式人工智能是一种利用算法与数据自动生成新内容的技术,在各行各业,特别是科技、文化、教育、娱乐和新闻等多个领域,具有广泛的应用和发展空间。然而,生成式人工智能也面临着数据安全、知识产权、伦理道德等方面的挑战和风险。

7月13日,国家网信办会同六部委共同发布《生成式人工智能服务管理暂行办法》。办法充分吸收了此前各界对于征求意见稿的反馈意见,明确坚持发展和安全并重、促进创新和依法治理相结合的原则。

登高壮观天地间,大江茫茫去不还。在未来的一段相当长的时间里,生成式人工智能势必成为科技产业和数据合规领域的热门议题。本文试图探析《生成式人工智能服务管理暂行办法》背后的立法理念和监管路径,以期一窥生成式人工智能未来的发展方向和监管趋势。

1、 立法之谨:合规义务的精准调整 

2、立法之勉:生成式人工智能产业的支持政策 

3、立法之巧:行业监管的特性和路径 

4、立法之智:全球监管的核心抓手 

四、《科技伦理审查办法(试行)(征求意见稿)》

2023年4月4日,科技部公开征求对《科技伦理审查办法(试行)》的意见。《科技伦理审查办法(试行)(征求意见稿)》共五章五十七条,明确了科技伦理审查的适用范围、审查主体、审查程序以及监督管理等内容,既是对《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》要求的科技伦理审查的明确且具有实操性的指导,又是覆盖各领域科技伦理审查的综合性、通用性规定。

1、适用范围 

2、审查主体 

3、科技伦理审查制度 

4、复核审查制度 

5、年度报告义务 

返回顶部

算法备案

一、“深度合成算法”与“生成合成类算法”的区别

《深度合成管理规定》发布之初,业界曾对“深度合成技术”与“生成合成类技术”的关系展开讨论。根据《深度合成管理规定》规定,“深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”。从文意本身分析,“深度合成技术”是“生成合成类算法”的利用形态之一。

根据我们对相关技术的初步调研,生成合成类技术包含深度合成技术:深度合成算法与生成合成算法均可利用深度学习技术(例如卷积神经网络(CNN)、生成对抗网络(GAN)、变分自编码器(VAE)等)生成图像、视频、音频以及其他类型的数据,两类算法均可用于计算机视觉、图像处理、计算机图形学、虚拟现实、增强现实等领域。两种技术的相同点是它们都可以实现和现实完全不一样的内容,而深度合成算法的特点在于其训练时依赖深度学习技术,通过学习数据的特征和分布,不断调整模型参数来生成逼真且与真实世界相似的新数据,如Deepfake,而Deepfake本身也是一种特定生成方法。生成合成类算法则更进一步,其基于一套确定的规则、参数或模型,生成全新的、完全原创的、一种更加趋于“真实”的内容。用更加通俗的语言解释,如果深度合成技术是“换脸”,那么生成合成类技术就是“造脸”。

实践中,“互联网信息服务算法备案系统”显示,“生成合成类算法”与“深度合成算法”被列为一类,即“生成合成类(深度合成)算法”。因此,即使在技术层面深度合成技术与生成合成技术的关系或存争议,但就算法备案实操而言,企业履行算法备案义务以及被要求提供的备案信息并不因生成合成类算法与深度合成算法的区别而有所区分。

二、算法备案实务介绍

1、备案主体

《算法推荐管理规定》所监管的其他几类算法不同,深度合成算法是唯一一项在备案环节需要区分备案主体身份的算法。其备案角色包括服务提供者和技术支持者,且两类主体对同一算法的备案义务相互独立。

对于企业而言,判定其是否应当履行备案义务时,可参照以下线索: 

2、备案范围备案程序

结合《〈互联网信息服务深度合成管理规定〉备案填报指南》以及我们的项目实践,深度合成算法备案的流程包括三个步骤: 

3、备案材料

在算法备案材料中,除了主体信息、算法基本信息等实时填写的基本内容之外,还需单独准备以下几个附件: 

三、备案违法的行政处罚

备案动作是《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》适用对象的法定义务,完成备案并不意味着企业获得有关部门的“资质性”认证。

需要提醒读者注意的是,算法推荐服务提供者提交备案材料应当真实、准确,不得通过隐瞒有关情况、提供虚假材料等不正当手段取得备案。如发生前述情形的,相关主体可能被网信部门予以撤销备案,给予警告、通报批评;情节严重的,可能被责令暂停信息更新,并处一万元以上十万元以下罚款。

此外,对于企业未按照要求办理注销备案手续,或者发生严重违法情形受到责令关闭网站、吊销相关业务许可证或者吊销营业执照等行政处罚的情形,国家和省、自治区、直辖市网信部门将予以注销备案。

随着ChatGPT的横空出世,大厂纷纷下场算法技术,迎来了一波算法备案的热潮。互联网信息服务提供商不仅应当及早完成备案,而且应当及时进行算法公示,避免陷入行政处罚或社会信用舆论的泥潭。

返回顶部

资质证照

一、一般性资质

(一)互联网信息服务许可/备案(ICP许可/备案) 

(二)公安联网备案 

(三)《计算机软件著作权登记证书》、《App电子版权证书》或《软件著作权认证证书》 

二、基于业务场景的选择性资质

除上述必备要件外,AIGC产品的服务领域或业务场景可能导致服务提供者需要取得一些特殊执业证照才能够合法上市。结合我们的项目经验,以下几种资质证照为AIGC产品所常需。

(一)《网络文化经营许可证》 

(二)《网络出版服务许可证》 

(三)《信息网络传播视听节目许可证》 

三、小结

综上所述,AIGC产品在上市运营前需要取得多种资质证照。这些资质证照的取得既是保护企业合法运营的基础条件,也是保障企业自身权益的重要手段。对于AIGC产品服务提供者来说,积极申领相关资质证照,取得上架“通行证”,是其在竞争激烈的市场中站稳脚跟,获得用户的信任和支持的必备要件。

返回顶部

网络安全与数据合规关键控制点

一、训练数据合规要点

针对AIGC服务而言,训练数据是其训练算法模型、提供服务的底层知识来源。相应地,《生成式人工智能服务管理暂行办法》对AIGC服务提供者在开展预训练、优化训练等环节中的训练数据处理活动明确如下合规义务:

1. 数据来源合规 

2. 数据质量把控 

3. 数据标注规范 

二、信息安全治理要点

《生成式人工智能服务管理暂行办法》对AIGC服务提供者赋予了网络信息内容生产者的角色,要求其履行网络信息安全义务。根据《网络信息内容生态治理规定》的规定,网络信息内容生产者应当履行的义务包括鼓励制作、复制、发布积极信息,不得制作、复制、发布违法信息,防范和抵制制作、复制、发布不良信息等。针对上述义务的履行,AIGC服务提供者应当采取如下合规措施: 

三、产品外部合规要点

目前,AIGC服务面向的主要是C端用户,而C端用户在使用AIGC服务的过程中可能会面临诸多问题,如算法歧视、个人信息泄露、未成年人沉迷等。对此,法规明确了AIGC服务提供者在向用户提供服务的过程应当履行一系列合规义务,这些义务内化为产品/服务的文本、环节、功能如下: 

四、禁止垄断和不正当竞争

AIGC服务提供者不得利用算法、数据、平台等优势,实施垄断和不正当竞争行为。和此前钢铁、石油等可见可触的生产资料相比,基于技术、数据等新的竞争形态滋生了新型垄断问题,例如算法合谋、自我优待、平台封禁、扼杀式并购等。2022年修订后的《反垄断法》对数字经济领域的垄断行为进行规制正是对这些新型问题的回应。本次《生成式人工智能服务管理暂行办法》也再次强调了人工智能这一细分领域的反垄断和反不正当竞争要求。对此,AIGC服务提供者在模型生成、算法训练、服务应用等过程中需警惕因算法、数据等优势实施垄断或者不正当竞争行为。

返回顶部

科技伦理合规控制要点

一、防止歧视

在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,AIGC服务提供者应当采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视,前述措施包括但不限于:

  • 建立多样化和代表性的数据集:确保其包含各个族群、信仰、国别、地域、性别、年龄、职业和健康状况的充分信息;
  • 公平性考量:算法设计和模型生成过程中加入公平性考量,保障算法不会对某些群体产生偏袒或不公平的结果。

此外,算法推荐服务提供者要特别注意应向用户提供针对其个人特征的选项,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实施不合理的差别待遇等违法行为。

二、科技伦理审查机制

正式发布的《生成式人工智能服务管理暂行办法》《科学技术进步法》作为上位法,不仅是为了彰显推动人工智能服务科技进步的核心理念,同时也再次强调科技伦理的重要性。此前,关于“科技伦理审查”的要求已经在《算法推荐管理规定》《深度合成管理规定》以及《科技伦理审查办法(试行)(征求意见稿)》中多次出现,特别是《科技伦理审查办法(试行)(征求意见稿)》对涉人工智能的单位设置了较高的合规义务,包括成立科技伦理(审查)委员会,和就自主科技伦理审查活动开展监督管理性质的专家复核。可以说,科技伦理审查将成为算法备案、安全评估之后AIGC服务提供者需面临的另一项合规审核义务。

结合我们的实践经验,在算法备案材料中,科技伦理审查制度属于必备的重点材料之一。针对AIGC服务提供者而言,可从以下几个方面构建自身的科技伦理审查制度,尽早开始部署科技伦理(审查)委员会等科技伦理审查制度。

1. 设立科技伦理(审查)委员会 

2. 依法履行备案程序 

3. 科技伦理审查程序 

4. 针对特定活动需申请专家复核 

三、小结

除上述针对特定板块或者特定环节的管理之外,对于AIGC服务提供者而言,建立和健全内部合规管理制度、机制并采取有效措施推动制度的落地实施,是业务得以持续、健康发展的基石和保障。根据《生成式人工智能服务管理暂行办法》及其他相关规章的要求,结合我们的实践经验,AIGC服务提供者需要建立健全的制度包括算法机制机理审核制度(常见审核方式如模型对齐度评估、模型鲁棒性评估、模型可解释性评估)、互联网用户账号信用管理体系、信息发布审核机制、辟谣机制、数据安全和个人信息保护制度、安全事件应急处置等。

此外,我们也要强调,合规之路是一个不断发展和变化的过程,AIGC服务提供者在努力提高技术能力的同时,需要持续关注和探索新的合规要求和最佳实践,不断完善和提升AIGC产品上市的合规水平,才能在激烈的竞争中立于不败之地。

返回顶部

知识产权合规

《生成式人工智能服务管理暂行办法》(以下简称《生成式人工智能服务管理暂行办法》)为AIGC服务的知识产权保护提供了明确指导。根据其第4和第7条,AIGC服务的提供与使用需尊重知识产权、遵守商业道德,保守商业秘密,不得利用算法、数据、平台等优势实施垄断和不正当竞争行为;同时,AIGC服务提供者在进行预训练、优化训练等训练数据处理活动时,如果涉及知识产权,则不能侵犯他人的知识产权。

当前,AIGC服务从输入数据的获取及预处理,算法模型的构建与训练,到生成内容的输出与优化等各环节,均可能涉及专利、著作权、商业秘密等多种知识产权客体,属于侵权纠纷高发区。例如,用于算法模型训练的输入数据可能包含众多受版权保护的作品、个人隐私数据或商业秘密;采用的算法模型可能实施了他人的专利技术;AIGC产品生成的文本和图片可能与某些知名文学作品或绘画构成实质性相似。此外,由于AIGC产品通常依赖开源生态,开源合规在AIGC产品开发过程中亦十分关键。本部分将从知识产权保护的角度,为AIGC技术开发者建立知识产权保护和开源合规体系提供建议。

一、知识产权保护框架

AIGC产品在知识产权保护方面展现出其特殊和复杂的特征。一方面,由于其需要大规模的数据输入、多元化的输出结果以及算法黑盒问题,其在现行的知识产权保护框架下存在许多待解决的问题。另一方面,由开发者构建的程序代码、用户反复塑造的指令以及AIGC产品本身的训练成熟度共同决定了AIGC产品产出的特定生成物,因此在确定侵权主体时可能存在一定的困难。因此在现有环境下,不同的角色存在不同的知识产权合规保护视角。如技术开发方会重视数据来源、技术许可、专利合规以及开源合规等问题,而技术使用方则会更加强调版权风险、隐私风险和竞争风险等问题。以下主要从技术开发方的视角,结合我们的相关实践经验,为有关企业提供知识产权的合规框架建议:

1、算法专利保护 

2、AIGC产品的著作权保护 

3、AIGC产品的商业秘密保护 

二、开源合规应对措施

开源生态已成为当前人工智能领域的主流技术开发趋势。2023年7月18日,Meta公司宣布其最新版本的LLAMA2模型将采用开源模式发布以鼓励使用。ChatGPT-2及其之前的版本,也采用了开源模式。目前,我国的司法实践对开源软件的保护模式已有初步的判断和认识。根据(2019)粤73知民初207号案例对GPL3.0开源协议的判例,开源软件与商业软件的主要区别在于:开源软件作者将全部著作财产权利让渡给了使用者,开源软件采用的是放弃著作权特定权利的形式进行的软件开发模式。尽管开源软件作者将著作财产权利让渡给了软件使用者,但并不等同于没有使用限制。

根据(2019)粤73知民初207号的判决,开源协议具有合同特性,权利人向不特定用户授予一定权利,用户对此作出承诺,形成法律关系。其授权逻辑是通过预先设定的格式化条款,确保开源代码按照权利人预期的方式传播和使用。因此,一旦授权人违反开源协议,一方面可能产生违约责任,另一方面因违反开源许可而导致授权被终止,产生侵权责任。在这种违约与侵权并存的情况下,权利人可以选择救济途径。因此,我们建议AIGC服务提供者在利用生成式人工智能的开源生态进行研发时,重点注意以下合规事项:

1、审慎甄别开源许可类型 

2、注意区分应对开源合规风险 

三、小结

无论是专利、著作权还是商业秘密保护,亦或是开源体系合规建设,无不是AIGC领域未来发展道路上所必须谨慎对待的知产课题。鉴于此,对于那些有志于在AIGC赛道上努力奔跑且有长期目标的企业而言,我们建议应当尽早部署并落实具有对应性的知识产权合规体系,不仅规避潜在的法律风险,亦为实现健康、可持续的业务发展创造稳固的安全基础。

返回顶部

生成式人工智能产品合规义务清单

参考法律法规:

适用范围:

1. 利用生成式人工智能技术向我国境内公众提供生成文本、图片、音频、视频等内容的服务。

2. 行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用《生成式人工智能服务管理暂行办法》中的合规要求。

注:生成式人工智能技术是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。

一、产品合规义务  

二、内部合规管理要求  

三、外部监管合规应对义务  

返回顶部

内容来源

返回顶部