随着人工智能(“AI”)技术在企业的业务经营和管理活动中的广泛应用,其法律风险逐步延伸至平台责任、行业合规及责任分配等多个层面。另一方面,法院等司法机关和网信等监管部门在裁判和监管的实践中通过对既有侵权规则与注意义务标准的具体适用,对AI应用中的风险边界予以了回应和处置。本文拟结合近期相关裁判与监管导向,对企业应用AI技术的主要法律风险与合规要点进行分析。
一、生成式人工智能应用中的侵权风险:既有侵权规则的延续适用
在经营实践中,生成式AI已被广泛应用于内容生产、品牌营销及对外传播等业务环节。在司法实践中,法院正通过相关判例,对企业在使用AIGC技术过程中可能产生的侵权风险作出回应。
从目前的裁判实践来看,有关判决并未因内容系由AI生成,而在侵权认定标准上作出实质性调整。相反,相关裁判普遍体现为在既有《著作权法》《民法典》等法律框架内,对新技术应用场景进行解释和适用:即通过对既有权利要件与责任规则的应用,判断企业在AIGC具体使用行为中是否构成侵权。
从已公布的判例来看,法院在判断AI生成内容能否构成《著作权法》意义上的“作品”时,已形成以人类干预程度为核心的审查路径。即用户通过提示词设计、参数调整、生成结果筛选或后期修正等行为,使生成内容体现出符合《著作权法》要求的独创性表达的,该等内容可以被认定为《著作权法》项下的作品,依法受到著作权法保护。该裁判思路的要义在于,尽管AI模型本身并非著作权法所保护的主体,亦不能成为著作权法意义上的作者,但只要AIGC体现了人类智力创造并具备独创性表达,仍可被认定为作品。相应地,一旦AIGC被认定构成作品,其后续传播与使用行为,即应当纳入传统著作权侵权责任的评价框架。
对企业而言,这意味着,AIGC技术的使用并不会当然影响侵权责任的成立与否。企业在将相关生成内容用于商业宣传、对外传播时,仍需就权利归属、授权来源及使用范围承担必要的注意义务,而不能仅以“内容由AI生成”为由主张免责。在侵权认定层面,部分企业尝试以生成内容具有随机性、并非人为刻意模仿为由进行抗辩。但司法实践已明确,是否构成侵权,仍应以生成结果是否与在先作品构成实质性相似为核心判断标准。因此,只要生成内容在整体表达、核心元素或结构安排上与在先作品高度近似,即便内容系通过AI生成,仍可能被认定构成侵权。
除著作权风险外,AIGC应用还涉及人格权益保护问题。北京互联网法院公布的多起涉及AI合成声音、虚拟形象及数字人应用的人格权纠纷典型案例表明,“是否具有可识别性”是判断是否侵害自然人人格权益的重要标准。即便生成内容并非对特定自然人声音或形象的完全复制,只要其音色、语调或外在特征足以使公众将其与特定自然人建立联系,且用于商业用途,即可能构成侵权。
从案件发生的实际情况看,此类风险往往发生于广告投放、品牌传播等商业化使用环节。企业在对外的经营活动中使用AI生成内容前,若未对其是否涉及他人人格权益进行必要评估,相关使用行为存在被认定构成人格权益侵权的风险。
二、平台责任与合理注意义务:平台风险管理义务逐步具体化
相较于单纯的AIGC使用者,向用户提供AIGC工具、模型服务或内容发布渠道的平台型企业,其承担的责任要求呈现出进一步明确和强化的趋势。近年来的相关裁判表明,法院在判断平台是否应当承担侵权责任时,已不再仅以其是否直接参与内容生成作为判断依据,而是综合考量平台的运营模式、风险防控措施以及主观过错等因素。以杭州互联网法院审理的“AI奥特曼图侵权”案为例,法院在否定平台构成直接侵权的同时,认定其在特定条件下构成帮助侵权。该案中,平台主张其仅提供生成工具,相关侵权内容由用户生成并发布,主张适用“避风港原则”予以免责。但法院并未采纳其抗辩,而是结合平台的具体运营情况进行分析。即涉案平台通过会员制度、积分机制等方式推动用户使用相关功能,并从中获取商业利益;同时,平台实际具备通过模型管理、关键词设置等方式降低侵权风险的技术能力,却未建立相应的防控机制。在此情况下,法院认为平台对侵权行为的发生具有可预见性,且未采取必要措施予以防范,主观上存在过错,构成帮助侵权。
该案的裁判逻辑表明,法院在认定平台侵权责任时,并非停留于其是否直接参与内容生成的形式判断,而在于其是否已尽到与其运营模式和风险可预见性相匹配的注意义务。平台是否具备相应管理能力、是否能够预见侵权风险、是否采取合理防控措施,往往成为责任认定的重要考量。
此外,在部分涉及AIGC标识的案件中,法院亦对平台履行标识义务作出了更为细化的阐释。《人工智能生成合成内容标识办法》规定,对AIGC进行标识系平台与用户共同应当履行的法定义务,其目的在于确保用户能够辨别AIGC,维护网络信息环境的透明度。在相关案件中法院明确指出,标识义务的履行应当建立在准确判断和合理说明的基础之上。平台在对内容进行标注或采取管理措施时,不宜仅依赖算法的自动识别结果作出“一刀切式”处理,而应向用户提供必要的标注依据、解释说明及申诉渠道。若平台在标识过程中存在随意扩大适用范围、错误标注或缺乏程序保障的情形,相关处理行为本身可能构成对用户权益的侵犯。
三、行业领域中的AI应用:医疗、金融与工业场景下的责任延伸
随着AI技术从内容生成扩展至更多新兴应用场景,其引发的法律风险亦不再局限于著作权侵权或人格权益纠纷,而是逐步体现为对既有安全责任与注意义务标准的进一步细化与强化。
在医疗领域,AI技术已被广泛应用于影像识别、辅助诊断及报告分析等场景。尽管AI技术的引入有助于提升诊疗效率,但司法与监管层面的基本立场并未发生改变,即AI技术的引入并不改变医疗机构及医务人员在诊疗活动中的法律义务。即便诊断建议来源于AI模型,最终医疗决策仍应由具备执业资格的医务人员作出。在医疗责任层面,若AI系统在诊疗过程中出现误诊或错误建议,医院作为医疗服务提供者,仍可能面临患者索赔。根据《民法典》《医疗纠纷预防和处理条例》以及医疗损害责任相关司法解释的规定,医疗机构在引入AI辅助诊疗工具时,负有对其安全性、有效性进行必要评估,并履行相应的说明与管理义务。此外,根据《医疗器械监督管理条例》的规定,医疗器械包括为实现疾病诊断、监护、治疗等目的所需的计算机软件,对于具有疾病诊断、监护功能,或者通过对来自人体的影像、检测数据等样本进行分析,为医疗或诊断目的提供信息的AI医疗软件,属于医疗器械监管范畴,应按照医疗器械相关规定进行管理。在具体规范层面,国家药监部门已通过《医疗器械分类目录》将医学影像处理、医学数据分析及辅助诊断类软件明确列入医用软件类别,并配套发布了《人工智能医疗器械注册审查指导原则》《医疗器械软件注册审查指导原则》等技术审查文件,对有关AI医疗软件的注册路径、临床评价要求以及安全性、有效性验证标准作出专门规定。相应地,相关AI医疗软件在投入临床使用前,通常需要完成注册或备案,并通过必要的临床评价与风险验证;同时,在使用阶段,医疗机构仍需依照《医疗器械临床使用管理办法》等管理规范,将应用的AI软件或系统纳入医疗质量与安全管理体系,对其使用情况实施必要的培训、监测与评估。若医疗机构未对有关AI软件或系统进行必要的管理和合理验证,或未向患者明确说明其分析结果仅具有辅助参考性质,导致患者对诊疗结论产生误解,相关情形在责任认定中可能被推定为未尽合理诊疗义务,从而承担相应法律责任。
在金融领域,AI技术已被广泛应用于风险评估、信贷审批及智能投顾等业务,但其引入并未改变金融机构在现行法律与监管框架下应当履行的消费者保护与适当性管理义务。依据《金融消费者权益保护实施办法》《银行保险机构消费者权益保护管理办法》等规定,金融机构在向金融消费者提供产品或服务过程中,负有充分的信息披露、风险提示以及与客户风险承受能力相匹配的审慎管理义务。在具体业务场景中,若金融机构在授信、拒贷、投资建议或资产配置等关键决策环节,完全依赖AI模型的评分或输出结果作出判断,却无法向客户或监管机构说明影响决策的主要因素,亦未对模型可能存在的偏差、异常结果进行必要审查和校验,相关行为可能被认定未履行法定的信息披露与审慎经营义务。特别是在智能投顾业务中,《证券期货投资者适当性管理办法》《关于规范金融机构资产管理业务的指导意见》等管理规定已明确要求机构对投资者进行风险识别和分级管理,并对推荐逻辑、风险收益特征及潜在损失作出合理说明。对于金融机构仅以AI生成为由,向投资者提供投资建议与推荐产品,而未对AI模型输出进行必要的审查或未结合投资者具体情况作出适当性判断,前述情形如引发纠纷,则金融机构可能被认定为违反适当性义务和消费者保护义务。
在工业自动化与智能制造领域,AI正深度参与生产调度和设备控制等环节。一旦AI系统决策失误导致设备损坏或人身伤害,责任认定通常不会因决策系由 AI作出而发生根本变化。企业作为系统部署与运营主体,仍需对整体运行安全承担责任,AI的引入并不改变对外承担责任的法律规则,而是对其在安全管理、风险防控及事故预防方面提出了更高要求。
除前述因AI介入业务决策或系统运行所引发的责任问题外,AI技术的应用还可能在模型训练及成果转化阶段引发数据权益层面的争议。实践中,围绕AI模型训练所使用的数据来源、使用范围及由此形成的模型成果,合作各方之间的权利边界往往并不清晰。合作开发AI应用的场景中,若合作各方未在合同中明确训练数据的权属、使用范围及模型成果归属,即便后续将数据进行脱敏处理而用于其他商业化开发,仍可能引发合作方之间的权益争议。该类纠纷表明,在AI训练与数据合作中,若缺乏对数据使用边界及成果转化安排的事前约定,即便相关数据已作脱敏处理,仍可能在商业化阶段引发实质性的法律风险。
四、企业应用 AI 的合规要点:将风险评估前移至开发与应用阶段
综合现有司法裁判与监管导向,法院与监管机构并未为人工智能设立独立于既有法律体系之外的责任规则,而是通过细化合理注意义务的适用,明确企业在不同应用场景中的合规要求。
对企业而言,AI应用的合规重点在于建立与风险水平相匹配的事前评估与管理机制。在AIGC应用场景中,企业在使用或对外提供生成内容前,应结合具体应用场景,对可能涉及的著作权及人格权益风险进行审查,以降低对外使用过程中发生侵权争议的风险。
对于平台型或技术服务企业而言,应当重点建立以事前风险防控为核心的合规管理机制,而不能仅依赖事后删除或免责条款。平台是否结合自身运营模式建立相应的管理规则、审核流程和纠纷处置机制,往往将直接影响法院对其过错程度的判断。与此同时,平台还应依法履行对AIGC进行标识义务。《人工智能生成合成内容标识办法》已明确,平台与内容发布主体共同承担对AIGC内容进行标识的法律责任。平台在履行标识义务时,应当基于合理判断采取准确、必要的标注措施,并配套提供相应的说明和申诉机制,避免因错误标注或程序缺失而遭致用户投诉,引发新的法律风险。在此基础上,国家互联网信息办公室近期公开征求意见的《人工智能拟人化互动服务管理暂行办法(征求意见稿)》进一步提出了拟人化互动服务的治理框架,该草案明确对提供模拟人类人格特征、思维模式及沟通风格互动服务的主体在用户说明、服务定位及风险防范等方面提出要求。平台企业及相关服务提供者亦需提前关注其对拟人化交互、身份提示及用户知情权保障等方面的监管导向,在产品设计和服务运营阶段避免弱化或模糊人工智能属性,防止因未遵循拟人化互动服务的监管要求而引发新的法律风险。
在医疗、金融、工业自动化等高风险的应用领域,企业应通过制度设计保留必要的人类审查与干预机制,避免将关键判断完全交由AI系统自动完成。同时,还应围绕应用于具体业务场景的AI技术的功能边界、适用场景及潜在风险,履行与其风险水平相匹配的事前评估、持续管理与必要说明义务。
此外,在AI模型和技术的开发、训练及应用过程中,个人信息保护亦是企业不可忽视的合规重点。企业在引入或自研AI技术时,应当关注训练数据的来源的合法性,明确数据收集、使用及处理是否符合《个人信息保护法》《数据安全法》等法律规定,特别是在涉及个人信息或敏感个人信息的场景中,企业需确保已取得相应的合法授权或满足法定处理条件,并采取必要的去标识化、安全管理及访问控制措施,对AI模型进行开发与训练时,履行有关算法安全义务。若企业在数据使用过程中超出约定用途、改变处理目的,或未履行相应的告知与安全保障义务,即便相关数据已作脱敏处理,仍可能被认定构成违法处理个人信息或违反相应的数据安全义务。
五、结语
结合当前技术应用情况及司法裁判趋势来看,AI技术并未改变侵权责任与合规义务的基本逻辑,但其应用方式客观上放大了风险传播的速度和影响范围。企业若能在技术部署和业务应用阶段即开展必要的法律评估,并结合司法与监管导向完善内部管理措施,将更有助于在利用AI技术优势的同时,避免承担超出预期的法律风险。
作者简介
.png)
石钛戈 合伙人
竞天公诚律师事务所
邮 箱:shi.taige@jingtian.com
石钛戈律师毕业于北京师范大学、对外经济贸易大学、美国威斯康星大学-麦迪逊分校法学院,获得中美两地法学硕士学位。加入竞天公诚之前,石律师在国内知名的律师事务所执业。石律师具有中国大陆地区以及美国纽约州律师执业资格,可以熟练使用英文作为工作语言。
石律师在网络、数据安全及合规方面拥有丰富的经验:他处理了大量涉及网络安全和隐私保护的法律难题,例如跨法域的数据保护的协调,金融机构IT外包和云计算应用,医疗科技产品的数据安全与合规等。石律师还为不同行业的企业就数据安全、个人信息保护、数据传输安全评估、网络安全审查、网络等级保护评测合规、关键信息基础设施保护等合规业务提供法律支持,涉及行业包括云计算、电子商务、超级计算、人工智能医疗应用、药物研发、互联网视听传播、互联网广告、互联网出版、游戏电竞等。他带领团队为多个赴境外上市项目提供了网络安全与数据合规的专项法律服务。
石律师是国际隐私专家协会(IAPP)会员,并获得CIPP/E认证。
石律师在2023年获得全球智能内容聚合平台Mondaq发布的2023 Autumn Thought Leadership Awards的合规领域奖项;他在2023年被《商法》杂志评为“2023年律师新星”;在2022 ACE LEGALTECH AWARDS 中被评为 Top 15 LegalTech Lawyers ?;在2021年被法律评级机构LEGALBAND列入中国顶级律师排行榜(网络安全与数据合规);在2020年被LEGALBAND评为网络安全与数据保护领域的中国律师15强。

张沣铭 律师
竞天公诚律师事务所
邮箱:zhang.fengming@jingtian.com
北京办公室