编者按
目前,许多行业已将AIGC在多个应用场景中进行落地尝试,多个国家和地区也高度重视人工智能的发展,相继出台监管法规。在可预见的未来,人工智能技术将继续向纵深发展,而AIGC将大幅提升生产力,并与Web3时代的新生产模式相结合,进入大规模商业化应用阶段。与此同时,AIGC的应用将会带来一定的法律风险。
本文第一部分立足于中国监管现状,对AIGC在中国法下的多维度法律风险进行具体讨论。本文第二部分将把视角投向域外法域,对AIGC的立法进程和执法案例进行分享和解读。
一、AIGC中国法监管框架的解读
基本监管框架
2023年7月10日,国家网信办发布《生成式人工智能服务管理暂行办法》(“《暂行办法》”),旨在对生成式人工智能服务实行包容审慎和分类分级监管,鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容。《暂行办法》在此前发布的《生成式人工智能服务管理办法(征求意见稿)》(“征求意见稿”)的基础上进行了部分调整,成为国内首部生成式人工智能服务的监管办法。
除此之外,与AIGC相关的法律法规,还包括此前发布的《互联网信息服务算法推荐管理规定》(“《算法推荐管理规定》”)和《互联网信息服务深度合成管理规定》(“《深度合成管理规定》”)。这三部文件对于AIGC的治理思路一脉相承,坚持“科技向善”的监管精神,共同构成了我国AIGC的基本监管框架和主要合规抓手。
法规衔接
- 《算法推荐管理规定》:应用算法推荐技术,是指利用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息。
- 《深度合成管理规定》:深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。
- 《暂行办法》:生成式人工智能技术,是指具有文本、图片、音频、视频等内容生成能力的模型及相关技术。
以上三部监管文件,规制范围与规制重点存在重叠和交叉,因此,在分析AIGC产品或业务的法律风险时,可能需要同时适用三部监管文件,而在某些情况下,只需单独适用即可。以域外效力为例,相比《深度合成管理规定》的适用范围仅为“境内应用”、“境内运营”,《暂行办法》的适用范围为“向中国境内公众提供服务的主体”,因此,生成式人工智能服务提供者不论是在境内还是在境外,是机构还是个人,均受到《暂行办法》的管辖;但相较于征求意见稿,《暂行办法》增加了例外情形,“行业组织、企业、教育和科研机构、公共文化机构、有关专业机构等研发、应用生成式人工智能技术,未向境内公众提供生成式人工智能服务的,不适用本办法的规定”。因此,如果生成式人工智能技术仅用于内部研发或内部使用为目的、未向境内公众提供服务的,不适用《暂行办法》。以规制对象为例,与《深度合成管理规定》不同,《暂行办法》规定,生成式人工智能服务提供者,是指利用生成式人工智能技术提供生成式人工智能服务(包括通过提供可编程接口等方式提供生成式人工智能服务)的组织、个人,因此《暂行办法》的规制对象既包括“服务提供者”,也包括“技术研发者”。
返回顶部
二、AIGC相关法律风险点
本节将从算法合规风险、内容合规风险、数据合规风险、用户管理合规风险、知识产权合规风险五个维度横向梳理三部监管文件涉及的AIGC相关法律风险点/合规要点。
算法合规风险
- 需建立技术保障措施:深度合成服务提供者应当建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施。
- 需采取数据安全保护措施:深度合成服务提供者和技术支持者应当加强训练数据管理,采取必要措施保障训练数据安全;训练数据包含个人信息的,应当遵守个人信息保护的有关规定。
- 需取得生物识别的单独同意:深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。
- 需添加显著标识:深度合成服务提供者提供深度合成服务,可能导致公众混淆或者误认的,应当在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。生成式人工智能服务提供者参照前述要求执行。2023年8月8日,全国信息安全标准化技术委员会发布《网络安全标准实践指南——生成式人工智能服务内容标识方法(征求意见稿)》,要求生成式人工智能服务提供商在生成的图像、音频、视频内容中添加显式水印标识或隐式水印标识;以文件形式输出图像、音频、视频时,还应在文件元数据中添加扩展字段进行标识。
- 算法纠偏义务:征求意见稿曾规定,对于运行中发现、用户举报的不符合征求意见稿要求的生成内容,除采取内容过滤等措施外,生成式人工智能服务提供者“应在3个月内通过模型优化训练等方式防止再次生成”。《暂行办法》本次删除了该项义务,仅要求提供者“及时优化模型并向主管部门报告”。我们认为,算法纠偏义务的可行性存疑。一方面,技术上或许较难拆解、倒推神经网络算法的内容输出逻辑,就更谈不上“纠偏”。另一方面,用户使用AI的行为无形中也会影响对AI的微调。
- 特定权益保护:
- 劳动者:算法推荐服务提供者向劳动者提供工作调度服务的,应当保护劳动者取得劳动报酬、休息休假等合法权益,建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法。
- 消费者:算法推荐服务提供者向消费者销售商品或者提供服务的,应当保护消费者公平交易的权利,不得根据消费者的偏好、交易习惯等特征,利用算法在交易价格等交易条件上实施不合理的差别待遇等违法行为。
- 未成年人:算法推荐服务提供者向未成年人提供服务的,应当依法履行未成年人网络保护义务,并通过开发适合未成年人使用的模式、提供适合未成年人特点的服务等方式,便利未成年人获取有益身心健康的信息。算法推荐服务提供者不得向未成年人推送可能引发未成年人模仿不安全行为和违反社会公德行为、诱导未成年人不良嗜好等可能影响未成年人身心健康的信息,不得利用算法推荐服务诱导未成年人沉迷网络。
- 老年人:算法推荐服务提供者向老年人提供服务的,应当保障老年人依法享有的权益,充分考虑老年人出行、就医、消费、办事等需求,按照国家有关规定提供智能化适老服务,依法开展涉电信网络诈骗信息的监测、识别和处置,便利老年人安全使用算法推荐服务。
内容合规风险
- 内容不符合社会主义核心价值观:
提供和使用生成式人工智能服务,应当坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等法律、行政法规禁止的内容。
- 内容侵犯他人权益:
提供和使用生成式人工智能服务,应当尊重他人合法权益,不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益。
- 生成歧视性内容:
提供和使用生成式人工智能服务,在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取有效措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业、健康等歧视。
- 生成虚假信息:
利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。
数据合规风险
- 利用爬虫技术收集数据:
使用爬虫技术收集数据不应避开或突破访问对象的技术保护措施,应遵守爬虫协议及合同约定,否则可能承担以下民事责任或刑事责任。
- 民事责任:
不正当竞争:被爬方一般会提起不正当竞争诉讼,主张爬虫方因非法获取数据或破坏网站正常运营秩序而损害被爬方利益,为爬虫方创造竞争优势。
著作权侵权:如果被爬数据构成作品且被爬网站享有系列排他性著作权权利,由于不正当竞争的证明标准较高,被爬网站(或原权利人)也可主张构成著作权侵权。
个人信息权益侵权:如爬取了个人信息且造成损害,则信息主体有权提起个人信息权益侵权之诉。
竞合:上述纠纷有时也存在竞合,尤其是不正当竞争与著作权侵权两类案由。
- 刑事责任:
如果避开或者突破计算机信息系统安全保护措施开展爬虫行为,直接接侵害特定数据的完整性、保密性等,且可能破坏网络信息安全及营运环境的,则可能需要承担刑事责任(侵犯公民个人信息罪、侵犯知识产权罪、侵犯商业秘密罪、非法侵入计算机信息系统罪、非法获取计算机信息系统数据罪、非法破坏计算机信息系统罪,如适用)。
- 涉及个人信息保护:
- 个人信息的全流程保护方案:包括事前收集信息的合理注意义务、事中在授权范围内使用信息的义务、事后的监管和及时删除义务。
- 禁止用户画像行为、输入信息保密:生成式人工智能服务提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。如果生成式人工智能服务提供者将用户输入的信息作为训练AI模型的原始数据,那么该等信息可能会被AI模型二次输出。
- 个人信息修改权、删除权或难行使:算法的复杂性和黑箱特性导致算法开发者或服务提供者无法向数据提供者充分解释数据处理的过程和目的。此外,不同于单独从某数据库、服务器中修改或删除数据主体的个人信息,从AIGC的数据集中修改或删除部分个人信息,则可能影响模型的参数,进而影响产品的最终表现,所以数据主体能否有效行使个人信息修改权、删除权值得关注。
用户管理合规风险
- 用户实名验证:
深度合成服务提供者应当基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,依法对深度合成服务使用者进行真实身份信息认证,不得向未进行真实身份信息认证的深度合成服务使用者提供信息发布服务。
《暂行办法》则删除了征求意见稿第九条,取消了生成式人工智能服务提供者对用户实行实名制的要求。
- 用户违法行为管理义务:
提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
- 用户防沉迷机制:
算法推荐服务提供者:应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。
生成式人工智能服务提供者:应当明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术,采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。
- 用户投诉处理义务:
算法推荐服务/深度合成服务提供者:应当设置便捷有效的用户申诉和公众投诉、举报入口,明确处理流程和反馈时限,及时受理、处理并反馈处理结果。
生成式人工智能服务提供者:应当建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。
知识产权合规风险
- 知识产权合规风险主要包括:
AI可能无法成为作者(自然人创作应是著作权法上作品的必要构成条件)、AIGC可能无法构成作品(AI本质上可能并未创造真正具有独创性的作品)、用于AIGC预训练及微调的数据可能含有侵犯知识产权的内容、AIGC的著作权侵权认定有难度(需同时证明AIGC接触了现有作品、AIGC与现有作品构成实质性相似、AIGC的创造过程不属于合理使用的豁免情形等)。
返回顶部
三、AIGC相关主体的责任承担及风险规避建议
AIGC产品的制造及使用涉及数据、算法及最终产品三个环节,针对数据提供者/处理者、算法服务提供者、AIGC服务提供者三类主体,我们就责任承担及风险规避提出以下建议。
数据提供者/处理者
数据提供者/处理者应承担数据收集和处理的合规注意义务。潜在的合规途径:1)建议收集并使用公开的个人信息;2)建议从第三方购买数据库时要求第三方已获得相关个人的明示同意;3)建议购买官方数据库的数据或审核数据提供商的数据合规性。
算法服务提供者
- 与AIGC服务提供者:
可考虑在算法服务提供者与AIGC服务提供者之间的技术服务合同中,约定算法服务提供者仅就其提供的数据、算法产品的知识产权、相关资质等方面承担损害赔偿责任。
- 与用户:
对于用户在使用AIGC服务提供者产品时创作的作品(前提是构成作品),若该等作品未包括算法服务提供者的独创性表达,可以通过协议或用户协议明确约定用户创作的作品的相关法律责任与算法服务提供者无关。
- 与第三方权利人:
可采用避风港规则,当第三方权利人提出侵权主张时,算法服务提供者应及时采取措施(删除、屏蔽、断开链接等)避免侵权结果进一步扩大。
AIGC服务提供者
- 与算法服务提供者:
AIGC服务提供者基于自身数据集对AI模型进行单独训练所创设的知识产权,其所有权由AIGC服务提供者享有。
- 与用户:
《暂行办法》要求生成式人工智能服务提供者直接承担内容生产者责任,不再区分“平台”和“生产者”。该等约定使得生成式人工智能服务提供者需承担比一般网络服务提供者更多的法律责任,即生成式人工智能服务提供者可能需要完成内容的事前审查,这将极大增加其合规成本。
- 与第三方权利人:
同样可适用“通知-删除”的避风港规则。
返回顶部
四、重点合规要求:算法安全评估与算法备案
算法安全评估
综合《算法推荐管理规定》《深度合成管理规定》及《暂行办法》,在中国境内提供AIGC产品或者服务的企业具备以下几种情形的,需要在提供AIGC服务前开展安全评估:
- 具有舆论属性或者社会动员能力的算法推荐服务/生成式人工智能服务提供者;
- 深度合成服务提供者开发上线具有舆论属性或者社会动员能力的新产品、新应用、新功能的;
- 生成或者编辑人脸、人声等生物识别信息的;
- 生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的。
- 属地管辖:
境外主体在中国境内提供上述服务且达到安全评估要求的,需要履行算法安全评估义务。
- 具有舆论属性或者社会动员能力:
主要判断依据为《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(“《安全评估规定》”)。根据《安全评估规定》,具有舆论属性或社会动员能力的互联网信息服务包括:1)开办论坛、博客、微博客、聊天室、通讯群组、公众账号、短视频、网络直播、信息分享、小程序等信息服务或者附设相应功能;2)开办提供公众舆论表达渠道或者具有发动社会公众从事特定活动能力的其他互联网信息服务。上述定义的规制范围较广,因此,企业如何判断其是否提供了具有舆论属性或社会动员能力的信息服务,尚待有关部门的进一步释明。建议企业结合自身服务/产品实践,咨询相关部门的窗口意见和中介机构的实操经验,作出最终判断。
- 评估方法:
相关服务提供者可以自行实施安全评估,也可以委托第三方安全评估机构实施评估。安全评估所依据的标准,可参照《信息安全技术互联网服务安全评估基本程序及要求》。企业在形成安全评估报告后,应将书面的安全评估报告向所在地市级以上公安机关网安部门备案。
.png)
(图:互联网服务安全评估与检查流程图)
算法备案
针对AIGC技术中涉及到算法技术的部分,如提供该服务的企业属于提供具有舆论属性或社会动员能力的信息服务的,应在互联网信息服务算法备案系统(https://beian.cac.gov.cn)网站上填报信息,获得备案号。截至2023年6月20日,国家网信办网站发布公告,公布境内深度合成服务算法备案清单,共有41个算法通过首批算法备案。
- 属地管辖:
境外主体在中国境内提供算法推荐服务且达到备案要求的需要履行算法备案义务。
- 涉及多种算法:
如果同一应用应用了不同类别算法,则各算法均需分别完成算法备案;如果同一算法部署在不同类别的产品应用,可同时操作算法备案。
- 算法信息公示:
互联网信息服务算法备案系统目前已公示完成备案的算法信息,公示内容主要包括算法名称、算法基本原理、算法运行机制、算法应用场景、算法目的意图和算法公示情况等基础信息,并未公开算法安全自评估报告以及算法的详细技术信息。
.png)
(图:某互联网企业的算法公示信息)
- 对外展示:
算法备案通过的,算法服务提供者应当在其对外提供服务的网站、应用程序等的显著位置标明其备案编号并提供公示信息链接。
返回顶部
五、域外监管概述:以欧美为例
将视角转向中国境外,应对AI,其他各个法域也同样正在探寻着各种各样的监管路径。以欧盟和美国为典型,二者虽监管思路不同(一纵一横),但底层的基本监管原则相似(即,重点关注:准确性、安全性、非歧视性、透明度和问责制、可解释性以及数据隐私)。
欧盟
.png)
(图:欧盟监管法律体系)
欧盟的人工智能监管框架顶层是人工智能法案(Artificial Intelligence Act,“AI Act”),以解决人工智能系统特有的基本权利和安全风险。该法案草稿正在审议中。
为护航AI Act的实施,民事责任的相关规定人工智能责任规则(Liability Rules for Artificial Intelligence,“AILD”)、产品责任指令(Product Liability Directive,“PLD”)正在起草过程中,使得责任规则适应数字时代和人工智能。并进一步修订部门制定的安全法例,如修订Machinery Regulation和General Product Safety Directive。
同时,若干现有法规在各自的适用范围内覆盖AI监管,如通用数据保护条例(General Data Protection Regulation,“GDPR”)适用于AI采集和使用个人数据等场景,金融工具市场指令及配套法规(Markets in Financial Instruments Directive and accompanying Regulation,“MiFID II”)适用于算法交易等场景,数字市场法案(Digital Markets Act,“DMA”)和数字服务法案(Digital Services Act,“DSA”)则以透明度为核心,对数字平台服务的提供者分别提出监管要求。
总体而言,欧盟的监管方法更偏向于集中协调和全面监管,不仅涵盖了更多的AI应用,也强调了更具约束力的规则。欧盟的监管模式常被形容为“垂直式/跨部门的立法(Horizontal / Cross-sector Legislation)”。
美国
.png)
(图:美国监管法律体系)
美国尚未正式通过专门解决人工智能危害的法案。但一系列与人工智能相关的联邦立法提案已经出现在了国会中,随着ChatGPT的风靡,新的提案也正在涌现。
白宫和各个联邦机构也在积极探索人工智能政策,并发布指导方针。其中国家标准技术研究所(National Institute of Standards and Technology,“NIST”)、国家电信和信息管理局(National Telecommunications and Information Administration,“NTIA”)和联邦贸易委员会(Federal Trade Commission,“FTC”)近期颇为活跃。
同时,美国各州正在针对人工智能积极立法,希望立足于下一次重大技术革命的前沿。已颁布的州层面立法包括:伊利诺伊州的人工智能视频面试法(Artificial Intelligence Video Interview Act),适用于所有雇主,并要求披露在伊利诺伊州职位申请人视频面试的过程中,使用人工智能工具分析的情况;纽约州的偏见审查法(Bias Audit Law,Local Law 144)对雇主在招聘和晋升中使用自动决策工具进行了规范;佛蒙特州的H.B.410号法案,设立了人工智能委员会。
此外,在诉讼文化盛行的美国,大大小小的民事诉讼(如前言所述),也将倒逼科技企业,主动寻求可以创造出合法、可靠AI的路径,包括联合起来制定行业标准。
总体而言,美国的监管方法更侧重于通过适用现有的监管规则、调整现有政府机构的权力,以尝试处理人工智能问题;目前尚没有一个联邦政府层面的全面立法。当下的监管模式偏向于“轻监管(light-touched)”或者说“部门本位(sector-based)”。
返回顶部
六、欧盟AI法案的框架与要点
当地时间6月14日,欧洲议会高票通过了AI Act草案,尽管该草案的最终定稿和生效依然有些距离——下一步是欧洲议会、欧盟理事会和欧盟委员会之间的“三方谈判(Trilogue)”,但如果进展顺利,AI Act可能会在今年年底前获得批准,并在2026年落地执行。
最新草案新增的第1条,即点明:AI Act的目的是促进以人为本(human-centric)、值得信赖(trustworthy)的人工智能的应用,并在支持创新的同时,确保在欧盟高度保护健康、安全、基本权利、民主与法治以及环境,使其免受人工智能系统的有害影响。
AI Act中值得关注的要点包括:1)风险分级框架;2)适用对象;与3)关键定义(AI、GPAI等)。
风险分级框架
AI Act的核心为“风险分级”,即,通过对特定人工智能实例的社会风险的评估和分级,决定如何对其进行监管。
- 不可接受的风险
在金字塔顶层是具有“不可接受的风险”的AI应用,将被完全禁止。这一类人工智能系统包括:
- 使用超越个人意识的潜意识技术、或有目的的操纵或欺骗技术,对人造成重大伤害的人工智能系统;
- 利用特定弱势群体(身体或精神残疾),对人造成重大伤害的人工智能系统;
- 社会评分(social scoring),即根据行为、社会经济地位或个人特征对人进行分类;
- 公众可访问空间下的实时远程生物识别系统(“real-time” remote biometric identification system)。
这一清单仍存争议。最新通过的折衷修改稿对此清单进行了扩展,例如,其全面禁止在公共空间使用实时远程生物识别系统,并删除了先前版本中的除外情形。此外,本次草稿还新增了对在犯罪风险评估中使用AI系统的禁止。但在接下来的三方谈判中,此清单很可能还会被进一步修订。
- 高风险
对安全或基本权利有负面影响的人工智能系统将被视为高风险。具体包括两类:
在欧盟产品安全立法(General Product Safety Directive)规制范围内的产品中使用的人工智能系统,包括玩具、航空、汽车、医疗设备和电梯。
八个特定领域的人工智能系统:
- 自然人的生物识别和分类
- 关键基础设施的管理和运行
- 教育和职业培训
- 就业、工人管理和获得自营职业的机会
- 获取和享受基本私人服务、公共服务和福利
- 执法
- 移民、庇护和边境管制管理
- 司法行政和民主程序管理
以上八个领域仅为概述,具体情形在AI Act的附件III中有所列示。本次折衷修改稿中值得关注的新增情形包括:用于影响选民和选举结果的人工智能系统,以及拥有超过4500万用户的社交媒体平台所使用的算法推荐系统。
针对高风险的人工智能系统,AI Act施加了较严苛的合规要求,包括:
- 事前评估:即在欧盟数据库中进行登记。受欧盟现行产品安全立法约束的任何AI产品和服务(如医疗设备)将适用现行的第三方符合性框架;其他未受欧盟法律约束的AI系统提供者则必须进行自我评估;用于生物特征识别的高风险AI系统则需要由“指定机构”进行合规评估。
- 风险管理、测试、技术稳健性、数据训练和数据治理、透明度、人工监督和网络安全方面的合规。欧盟境外的提供商需在欧盟指定一名授权代表,以确保合规要求的执行。
- 有限风险
与人类交互的(例如聊天机器人)、情感识别系统、生物特征分类系统以及生成或处理图像、音频或视频内人工智能系统(例如深度伪造/deepfake)等“有限风险”的AI系统将受到关于透明度义务的约束,以便用户做出知情决定。用户可以决定是否要继续使用该应用,并应知悉其与人工智能正在互动。
- 低风险
低风险系统包括垃圾邮件过滤器或支持人工智能的视频游戏等未涉及到个人权益的应用,这类AI系统可以在欧盟开发和使用,无需遵守任何额外的法律义务。
适用对象
AI Act主要适用于:在欧盟境内设立的人工智能系统提供商,或将人工智能系统投放欧盟市场或在欧盟境内使用的第三国提供商,以及设立于或位于欧盟境内的人工智能系统的部署者(deployer)。为了防止规避,该规定还适用于设立于或位于第三国,但根据国际公法适用欧盟成员国法律、或打算在欧盟境内使用输出数据的人工智能系统提供商和部署者
与上一版草案相比,最新草案将适用对象的范围作了进一步明确(将“用户(user)”这一定义表述改为“部署者(deployer)”,但实质内涵不变),更加契合AI产业链的实践理解。
AI产业链包括三个主要角色:通用提供商、定制AI部署者和最终用户。
-通用提供商:通用提供商提供通用的AI计算软件,这些软件可以被不同的定制AI部署者使用。他们开发和提供的软件具有广泛的适用性,可以满足不同行业和应用领域的需求。通用提供商的软件通常是基于先进的算法和模型构建的,可以为定制AI部署者提供一个强大的基础。
- 定制AI部署者:定制AI部署者是在通用AI软件的基础上添加独特理解的实体。他们根据特定行业、应用或客户需求,对通用AI软件进行定制和优化。这可能包括对算法的调整、数据的训练和模型的优化,以确保AI系统能够更好地适应特定的使用场景。定制AI部署者的目标是提供具有差异化和增值特性的AI应用。
- 最终用户:最终用户是购买和使用定制AI部署者开发的AI应用的实体。他们可以是企业、组织或个人用户。最终用户从定制AI部署者那里获得AI应用,这些应用可以帮助他们解决特定的问题、提高效率或创造商业价值。最终用户在使用AI应用的过程中,可以从AI技术的创新和发展中获益。
从产业链的角度,EU AI Act的主要适用对象是定制AI部署者。但最新草案的修订,将通用提供商也纳入了监管范围(见后文GPAI部分)。
关键定义
- 关键定义:AI
根据最新草案第3(1)条规定,“人工智能系统”指:
“以机器为基础的系统,可在不同程度上自主运行,并能为明确或隐含的目标生成影响物理或虚拟环境的输出,如预测、建议或决策;/
a machine-based system that is designed to operate with varying levels of autonomy and that can, for explicit or implicit objectives, generate outputs such as predictions, recommendations, or decisions, that influence physical or virtual environments;”
自2021年首次推出AI Act草案以来,AI系统的定义已经较大幅度的修改,但仍饱受争议。当前最新草案中的定义与经济合作及发展组织(OECD)关于人工智能理事会的建议(Recommendation of the Council on Artificial Intelligence)中的定义非常接近,有助于构建一个全球统一的监管理解和架构。
关于这一定义,广义定义的支持者认为,监管应该更加综合和灵活,以适应不断变化的人工智能技术。在“风险分级框架”下,监管机构应该采取一种原则性的方法,关注AI系统在应用层面的潜在风险和影响,而不仅仅关注特定的技术或应用。
狭义定义的支持者认为,监管应该更加具体和明确,为科技公司们提供更明确的指导。过于宽泛的定义可能导致监管的不确定性和困难,可能对创新和商业发展产生负面影响。
- 关键定义:GPAI,生成式AI,基础模型
通用人工智能系统(general purpose artificial intelligence system,“GPAI”)是指:
“一种可用于并适用于广泛的应用领域,但未因此被有意和专门设计的人工智能系统;/
an AI system that can be used in and adapted to a wide range of applications for which it was not intentionally and specifically designed;”
生成式AI(generative AI)可被理解为GPAI的一种,指:
“被特别设定的、以不同水准的自主性进行内容生成的AI系统中的基础模型,譬如复杂文本、图像、音频或视频等内容/
foundation models used in AI systems specifically intended to generate, with varying levels of autonomy, content such as complex text, images, audio, or video”
基础模型(foundation model)则指:
“一种依托大量数据规模化训练的AI系统模型,为生成结果之通用性而设计,并能适应广泛的特定任务/
an AI system model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks;”
最新草案加强了对GPAI的透明度要求,包括:
- 披露内容是由人工智能生成的
- 设计模型以防止生成非法内容
- 记录和公开用于训练的版权数据摘要
基本可以理解为,该等概念和监管的引入正是为了应对GPT这类基础应用类的大模型。
由于基础模型通用、可以适应广泛任务,不应被当然视为“高风险”类别的AI;但是,基础模型具备更大的可解释性,相应地,其在模型类别和自我治理方面的演变方式具有显著的不确定性,因此,欧盟立法者认为,有必要阐明相关提供者的法律地位。
但同时这也意味着,当前的法案可能更多地关注人工智能技术的特定属性和功能,而不是基于其应用场景和风险程度,已经偏离了最初的“风险分级框架”。
返回顶部
七、美国的政企合作与AIGC蓝图
尽管常常被评价为“整体立法缺失”或“立法行动缓慢”,但美国可能正在以一个完全不同于欧盟或中国的路径,通过鼓励AI技术的发展、及与科技行业的密切合作,实现颇具效率和影响力的监管。
一个重要节点是,7月21日,拜登政府宣布已与七家人工智能公司达成协议,并获得这些公司“帮助人工智能技术走向安全、可靠、透明”的自愿承诺。这七家公司分别是:Amazon、Anthropic、Google、Inflection、Meta、Microsoft和OpenAI。承诺内容包括:
- 在向公众推出产品之前确保其安全:在发布人工智能系统之前,对其进行内部和外部安全测试,以防范关键的人工智能风险。与行业和公众分享人工智能系统的风险管理实践。
- 构建将安全为先的系统:在网络安全和内部威胁防护措施的建设上投入资金,以保护专有和未发布的模型权重。建立人工智能系统漏洞的第三方发现和报告制度。
- 赢得公众的信任:强化标注机制,确保用户知悉内容由人工智能系统生成。公开人工智能系统的功能、局限性和适用领域。研究人工智能可能带来的社会风险,同时致力于对人类有利的人工智能系统开发(例如癌症预防、气候变化缓解)。
今年6月,美国国家电信和信息管理局(NTIA)就人工智能问责制政策征求意见(AI Accountability Policy Request for Comment),旨在征求公众对人工智能风险相关政策的反馈。NTIA计划根据收到的意见,向白宫提出关于人工智能治理政策的建议。官网显示,NTIA已收到超过1400条公众反馈意见。
几乎与此同时(6月20日),一个由民主党和共和党议员共同组成的小组向美国国会提出了“关于建立人工智能委员会的法案”。根据目前的文本,该专门委员会将是一个由立法者、行业和民间社会成员组成的两党团体。委员会拟设12名成员,参众两院的民主党和共和党成员各占三名,另外八名成员将由总统从这四个团体产生的两党名单中选出。该委员会的任务是考虑人工智能监管如何既(1)减轻人工智能的风险和危害,又(2)保护美国“在人工智能创新方面的领导地位以及这种创新所带来的机遇”。
以上种种监管动作表明,美国政府正在积极地寻求平衡的监管方式。与欧盟不同,美国更多基于对人工智能产业扶持发展的考虑,颁布指引性(而非强制性)的政策。
白宫发布的人工智能权利法案蓝图:让自动化系统为美国人民服务(Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People,“AI Bill of Rights”),以及NIST推出的人工智能风险管理框架(Artificial Intelligence Risk Management Framework,“AI RMF 1.0”)正是美国政府对人工智能采取轻监管方法(light-touch)的象征。
AI Bill of Rights
AI Bill of Rights作为一份指南,不具有强制约束力。其提出了指导人工智能和自动化系统设计、使用和部署的5项原则,并以配套的从原则到实践(From Principle to Practice)支持框架的实施:
- 安全有效的系统:用户应免受不安全或无效系统的影响
- 系统的设计应能够防止可预见的损害
- 在部署系统之前应测试、识别和减轻风险
- 应持续监控以确保系统安全有效
- 应尽可能对系统进行独立评估和审计并公开
- 算法歧视保护:用户不应该面临算法的歧视,系统应该以公平的方式使用和设计
- 设计人员、开发人员和部署人员应主动、持续地考虑自动化系统可能如何导致歧视性结果或待遇
- 应不断测试并减轻不同的影响或歧视性结果
- 应进行独立评估和审计并尽可能公开
- 数据隐私:用户应该被提供内置保护措施,以免数据被滥用,并且应该有权决定如何使用其数据
- 算法系统应该具有内置的保护措施,防止恶意使用数据
- 数据的收集、传输、使用、访问和存储应获得用户同意,且同意请求应简短、清晰
- 持续监控技术应适当并仅限于实现合法目的所必需的范围
- 持续监控技术不应用于健康、工作、教育或金融等敏感环境
- 通知和说明:用户应该知道正在使用自动化系统,并了解它如何以及为何会产生影响用户的结果
- 设计人员、开发人员和部署人员应提供简单易读的文档,介绍系统功能、如何使用自动化、谁负责系统以及系统结果
- 通知应是最新的,并且在系统发生任何重大更改后应发出附加通知
- 通知应尽可能公开发布
- 人工替代、审议和回退:用户应该能够在适当的情况下选择退出人工智能系统,并能够联系到可以快速考虑和解决所遇到的问题的人
- 在适当的情况下,应该有一个选项可以选择不使用人工智能,而选择人工替代系统
- 在自动化系统失败、导致错误或对输出提出上诉时,应当能够通过回退和升级(fallback & escalation)流程,获得人工审议和补救(human consideration and remedy)
- 在刑事司法、就业、教育和健康等敏感环境中使用的自动化决策,应受到额外的监督,并且与系统交互的人员应接受适当的培训
- 应尽可能提供公开的文件,详细说明人工治理和监督流程、其结果和有效性
AI RMF 1.0
尽管AI RMF 1.0是由国家标准与技术研究院(NIST)这一联邦机构发布的,但它是在国会特别授权的基础上制定的,一定程度上反映了国会的监管方法。AI RMF 1.0全面收集了适用于人工智能应用的风险管理实践,旨在汇集专业知识并提供指导,但同样并不具备强制性。NIST强调了AI RMF 1.0的自愿性质,甚至鼓励应用者根据自身需求选择性地使用框架的部分内容,并进行相应的调整。
但该框架有可能成为行业内的实践标杆。例如,NIST先前发布的提高关键基础设施网络安全框架(Framework for Improving Critical Infrastructure Cybersecurity),就已被大多数美国公司和美国以外的许多公司广泛使用,并被其他几个国家作为范例。
返回顶部
八、AIGC的全球性监管困境
政府专业人才不足:政府在吸引和保留专业技术人才方面面临挑战。这不仅限于理解和应对当前的AI技术(例如对大语言模型进行定义),也包括预见和应对未来可能出现的风险和挑战。
多头监管:特别是在美国的语境下,当前不同的政府机构分别从不同的角度进行监管,这可能导致监管的不一致性和混乱。同时,正如Harvard Business Review的评论文章所指出,许多拟议的法规需要国会赋予这些机构更多的法律权力,这在美国当前的政治环境下似乎不大可能实现。
公众利益保护和技术创新发展之间的平衡:这可能是一个老生常谈的话题。过度的监管可能会阻碍创新,而不足的监管可能会导致公众利益受损。
去全球化时代下的全球化威胁:一个稍显宏大的议题是,AI的影响和威胁面向全人类整体。它所可能带来的失业浪潮、对文化和叙事方式的解构、对人类决策和情感的操纵、甚至被作为战争机器而利用等全球性问题,可能并非某一个国家或监管机构或法律可以解决。
道德和伦理问题:AI技术引发了一系列复杂的道德和伦理问题,例如,AI的决策应该如何公正、公平、去除偏见,AI引发的损害责任由何主体承担等。这些问题的解决可能还需要深入的哲学和伦理学讨论。
返回顶部
九、结语
本文所探讨的诸多政策,展示了在针对AIGC的监管路径中,中国及境外全球监管机构在把控风险、保护隐私、确保公平和推动创新之间如何努力寻求平衡。
然而,不论是对东方还是西方来说,人工智能的治理并非易事,唯有国际组织、各国政府和科技行业的跨国界的共同努力,才能够为人工智能的所有挑战提供全面的解决方案。
我们将持续关注人工智能领域的发展,并期待未来监管政策的落地。
返回顶部
参考资料
- 《生成式AI应用实践报告》,ifenxi。
- 《风险等级下的人工智能法律监管研究》,吴玉婷。
- 《论算法认知偏差对人工智能法律规制的负面影响及其矫正》,刘泽刚。
- https://mp.weixin.qq.com/s/Yt- EaoUqhP5c2TYssEXmvw,21世纪经济报道。
- https://mp.weixin.qq.com/s/9ilQtxORZwZnxx54D2ZOwA,新则。
- The EU and U.S. diverge on AI regulation: A transatlantic comparison and steps to al ignment, Al ex Engler
- A European approach to artificial intelligence, European Commission
- Federal AI Legislation: An Analysis of Proposals from the 117th Congress Relev ant to Generat ive A I tools, Lenhat, A., Institute for Data, Democracy & Politics
- US won't follow in EU's footsteps with AI regulation, Makenzie Holland
- The European Approach to Regulating Artificial Intelligence, CSIS
- Unpacking the Proposed EU AI Act, Holistic AI
- Reconciling the U.S. Approach to AI, Carnegie Endowment for International Peace
- Who Is Going to Regulate AI?, Blair Levin and Larry Downes
返回顶部
作者介绍
.png) |
牟鑫
北京国枫(上海)律师事务所律师
主要从事私募基金、跨境投融资、Web3等领域的法律业务。 |
.png) |
官欣
北京国枫(上海)律师事务所律师
主要从事私募股权、投资基金、公司治理、监管与合规等领域的法律业务。 |
返回顶部