总第56期 生成式人工智能在保险行业的应用分析
随着人工智能技术的不断发展,ChatGPT作为自然语言生成技术的代表,已经成为最火热的讨论话题。在保险业中,保险产品和服务都涉及大量文字和数字信息交流,如投保、核保、理赔、客户咨询以及增值服务等。使用ChatGPT有助于提高保险公司的工作效率,从而降低成本,并为客户提供更好的服务体验。本期专题探讨ChatGPT在保险行业应用的相关法律问题,并提供一些合规建议。
|
|
(一)自然语言处理技术长期以来尝试解决的问题
(二)在语言模型之前
(三)语言模型的出现
(四)从语言模型到大语言模型
(五)大语言模型是一种连续性技术进步
(六)当前大语言模型的优势与局限性
本节基于当前大语言模型技术本源,分析其短期内的能力与局限性,希望总结出基本的应用决策逻辑。以便下文基于这些逻辑,结合具体的保险业务场景,作进一步探讨。
1.当前大语言模型能力优势
2.当前大语言模型局限性
在充分理解了类ChatGPT大语言模型的优势与不足之后,作为行业用户,保险公司迫切需要构建一个决策链路,该决策链路需要回答一个问题:基于目前或者未来几年可能的技术水平,应该在什么情况下考虑应用大语言模型?这里仅讨论作为保险公司的情况,对于个人而言,现在就是最好的接触时机。
毫无疑问,我们应该在类ChatGPT技术上具有无可取代的优势,并且在投入产出比正向的场景中去应用这样的模型,而在另一些场景中,也许有更好的选择。基于这种思路,笔者尝试建立一个关于应用场景的自评表,通过简单回答问卷中的问题,判断场景适合运用当前哪种机器学习技术。
(一)大语言模型在保险行业应用场景分析
在了解大语言模型的优势与局限性、从技术发展的角度建立了基本的应用决策标准后,本节试着按照上文所述标准对保险行业中热烈讨论的大语言模型应用方向进行评估,来看看大语言模型潜在的应用可能性究竟如何。
1. 2C客服/营销机器人
由于ChatGPT本身是一个聊天机器人,相信大部分人看到ChatGPT的能力之后,最直观的想法就是可以用来做2C 的客服或者营销聊天机器人。本文尝试用自评表(见表4)来确定保险业务中的这类场景是否适合ChatGPT的应用。
可以看到,对于客服场景而言,实际上并不需要类似ChatGPT的技术来改善对话机器人,采用近代深度学习技术的任务型(Goal Oriented)对话机器人能很好地服务客户。对于营销场景而言,通过类ChatGPT技术的创造力、世界知识为客户带来个性化的体验提升,有可能为保险公司打开新的营销机会来源。但是同样需要注意的是,在应用过程中,由于可操纵性不足带来的潜在声誉风险是保险公司需要特别关注的。
2.处理核保/理赔等业务流程
大语言模型的逻辑推理能力以及对多模态数据的处理能力,让不少保险从业者想到,能否利用能听、能看、会分析的AI模型直接代替人工或者系统,处理关键的核保、理赔等业务流程?同样用自评表(见表5)来看一看结果。
从结果不难看出,在保险核心的业务环节中,并不需要利用ChatGPT这种千亿参数大模型的能力。更多的可能性是,可以利用ChatGPT背后的技术思想,尝试改进机器学习技术在这些关键环节模型的应用效果。
3.信息处理与数据分析
ChatGPT的代码生成能力、推理能力都令人印象深刻,那么能否利用ChatGPT来提升保险公司内部信息处理与数据分析的效率?比如,对于各类冗长信息的摘要;又比如,在BI分析中进行自动化查询并生成总结。从模型能力上来说,ChatGPT比较能够满足这种需求,同样用自评表(见表6)看一下必要性。
从结果看,如果单纯是这个场景,似乎并不需要ChatGPT这种级别的模型能力,但是ChatGPT开箱可用的特点使得在场景数据缺乏时不失为一个好选择。
4.内容生产
在保险公司中,从标准文档、营销文案到产品海报再到广告视频,内容的生产是数字化运营中重要的组成部分。传统的以人为中心的内容生产模式,在效率和效果评估方面存在短板,而ChatGPT及其他一系列生成式AI模型的出现,使得程序化内容生产成为可能。在内容生产场景中,ChatGPT只是流水线中的一个环节,用于与设计人员进行需求交互,链接其他AI模型。同样用自评表(见表7)看一下该场景下ChatGPT的适配度。
可以看到,内容生产的场景是一个比较契合类ChatGPT模型能力的场景,整个AIGC的流水线也处在飞速发展当中,相信很快就可以看到实际的应用。
(二)大语言模型背后的技术启示对保险行业机器学习应用的影响
除了ChatGPT本身以外,ChatGPT背后的技术以及发展过程中机器学习应用范式的演进带给保险公司很多启示。保险行业属于比较重视数据分析和运用的行业,但是长期以来,保险行业关键环节的机器学习模型还处在老旧的范式中,即一个模型解决一个问题,没有预训练,几乎所有的模型都是从零开始构建。虽然头部保险公司通过将机器学习、特征工程平台化、工具化,实现了开发成本有一定程度的下降,但是由于应用范式落后,始终没有出现预训练+精调范式下的模型应用,因此导致数据利用效率偏低,开发人员陷入重复劳动,模型效果上限较低。
GPT系列模型背后的Transformer模块为这一现象带来了根本性的改变。Transformer结构虽然最早用于解决自然语言处理问题,但是很快被应用到计算机视觉领域。基于一切都可“序列化”的思想,Transformer结构及其背后的注意力机制是机器学习技术发展到目前最为广泛适用的自适应特征提取器。在机器学习领域可以说是第一次仅需一种基础结构能够对各个模态的数据进行有效的建模,除了图像、文本、语音,自然也包括结构化的业务数据。
从2020年开始,众安保险利用文本+结构化数据的多模态模型将健康险理赔风控模型的性能提升到了传统方法无法达到的水平。而从2022年开始,基于Transformer结构的用户行为序列模型被应用在与头部互联网媒体对接的实时广告投放筛选模型中,同样达到了传统模型无法达到的水平,并且简化了海量稀疏特征场景下的特征工程开发工作。
在多模态数据融合、Transformer建模事件序列之后,一个关键的趋势性变化即将发生,那就是建立保险用户行为数据的多模态预训练模型。用户生命周期中每一个事件都被视为这个行为序列中的一个“词”,用户整个生命周期被视为一个句子,我们完全可以在多模态数据的基础上基于数亿用户的保险行为建立预训练模型,训练目标与GPT类似,即预测下一个事件发生的概率。一旦这类预训练模型完成,将推进保险业务的营销、风控等机器学习模型应用进入一个新的范式:预训练+精调范式。这将大大提升保险公司数据利用的效率,大大简化各类模型的开发过程,有效提升模型性能的上限。
(一)著作权归属
AI生成的内容在著作权方面仍存在一些争议和挑战,因为这些内容的创作过程涉及到多种因素,包括人工智能算法、数据集、训练模型等。在某些情况下,AI生成的内容可能会被认为是人工智能技术的创造物,而不是单一的个人或团体的智力劳动成果。这可能导致一些法律问题,例如:如何确定和维护这些内容的著作权和知识产权,以及这些内容的使用和分配方式等。
目前,不同国家和地区的法律制度对于AI生成内容著作权的认定和保护存在差异。例如:欧盟制定的《数字单一市场版权规则》强调了AI生成内容的著作权保护,并要求创造者或机构为AI生成内容申请著作权,而美国的版权法则对AI生成内容没有特别规定。然而,关于AI生成内容的著作权归属,我国法律并没有明确的规定。根据我国《著作权法》规定的“作者”,应当是“自然人、法人或者其他组织”。由于AI并不是自然人、法人或其他组织中的任何一种,依据法律直接赋予ChatGPT作者身份仍有争议。
为弥补立法空白,2019年11 月,我国国家版权局发布了《关于深入推进数字版权产业发展的意见》,提出要推动数字版权产业的发展,包括加强数字版权保护和维权,以及加强数字版权产业的法律保护。此外,我国法院也已经处理了一些涉及AI技术的知识产权案件,如侵犯软件著作权、侵犯商标权等案件。这些案件中,法院通常会根据AI技术的特点和相关法律规定,结合具体情况来判定案件的结果。从我国的司法实践来看,法院一般视AI程序的开发者为AI生成作品的著作权人。
随着AI技术的不断发展和应用,相关的法律规定和司法判例在不断完善和更新,以适应新技术的需求。在实践中,国外一些公司已经开始对AI生成内容进行知识产权保护,采取多种方式来确保其权益,例如:注册AI模型,或者与AI生成内容的使用者签署协议来保护其知识产权等。
(二)OpenAI的态度
根据OpenAI在其平台发布的“Term ofuse”中的相关规定可知(见图1),OpenAI是支持将ChatGPT生成的内容用于商业用途的。
当然,“Term of use”对于使用ChatGPT生成的内容也设置了一些限制条件(见图2),诸如不得“以侵犯、挪用或侵犯任何人权利的方式使用服务”“反向组装、反向编译、反编译、翻译或以其他方式试图发现服务的模型、算法和系统的源代码或底层组件”或“使用服务的输出来开发与OpenAI竞争的模型”,等等。
这意味着如果将ChatGPT生成的内容用于商业用途,需要确保所使用的内容没有侵犯第三方的知识产权或其他权利。此外,还需要遵守适用的法律法规和道德规范,确保商业活动不会违反相关规定。
作为一个人工智能模型,ChatGPT可以在客户服务方面为保险公司提供一些潜在的好处,如提高客户满意度和保险公司的经营效率。但是,使用ChatGPT也会涉及一些潜在的风险和挑战,主要包括以下几点。
(一)个人信息保护
随着《个人信息保护法》的出台,保险公司使用ChatGPT或其他类似的AI程序,需要考虑以下因素可能会带来的个人信息保护风险。
1. ChatGPT的第三方类型
在《个人信息保护法》的规定下,个人信息处理者一般可分为三种,即受委托的个人信息处理者、独立的个人信息处理者以及共同个人信息处理者。
一般情况下,如保险公司将ChatGPT用于自动客户服务、精准营销以及风险管理等方面,其作用均为辅助保险公司开展本就应由其自身开展的工作,并且根据ChatGPT的特点,其被认为是受第三方委托的可能性比较大。在这种情形下,保险公司在履行《个人信息保护法》第二十一条时,对于受托方的管理义务的监督存在难度,需要进一步考虑合适的实践操作。而且一旦出现个人信息泄露等侵害个人隐私的情况,保险公司应承担相应的赔偿责任。此外,由于客户只认为自己的个人信息交给了保险公司,如发生上述情况,还极易引发客户对保险公司的投诉。
当然,不排除在一些特定的业务场景下,保险公司用于某商业用途使用时,ChatGPT可能被认定为独立的第三方个人信息处理者。此时,保险公司要注意履行《个人信息保护法》中规定的“告知与同意”义务,并在相应的个人隐私或个人信息保护政策中,如实向客户告知该第三方的相关信息,并取得其单独同意。
2.是否涉及数据与个人信息出境
根据图3的询问结果,ChatGPT自称不会存储任何输入的个人信息,如果事实如此,则保险公司使用ChatGPT时,暂时不涉及数据与个人信息出境的问题。但由于ChatGPT是“黑箱”运作,其需要收集或学习大量的数据和信息来训练人工智能模型,这些收集的数据和信息中是否包含相应的输入的个人信息内容,后续应予以关注。
3.安全事件处置
ChatGPT发生个人信息泄露事件时,必须及时向用户告知相关情况,并采取有效措施防止和减少损害。如前文所述,ChatGPT通常是作为受委托的个人信息处理者,假定ChatGPT不能及时通知保险公司个人信息泄露事件,在这种情况下,保险公司作为数据处理者很可能会因违反《个人信息保护法》的相关规定而承担行政处罚和民事赔偿等法律责任。并且,实际上已经发生了类似的泄露事件:据报道,今年3月,ChatGPT遭遇了一次用户数据泄漏事件,许多ChatGPT的用户都在自己的历史对话中看到了其他人的对话记录。不光是对话的历史记录,不少ChatGPTPlus用户还在Reddit和Twitter等平台发出了截图,表示在他们的订阅页面上看到了其他人的电子邮件地址。
4.安全保障措施
使用ChatGPT需要技术支持和维护,包括模型更新、故障排除和系统维护等。如果技术支持不充分或维护不当,系统就可能发生故障或停机,从而影响客户服务的质量和保险公司的形象。而且,ChatGPT可能需要访问客户的个人信息,如姓名、地址和联系方式等。因此,保险公司需要确保ChatGPT对客户数据的处理符合数据隐私和安全相关的法律法规。这可能需要采取额外的安全措施,例如:加密客户数据、限制访问权限以及制定保密协议等。
5.个人信息保护影响评估
《个人信息保护法》第五十五条规定,对于一些特定的个人信息处理情形,个人信息处理者应当事前进行个人信息保护影响评估,并对处理情况进行记录。由于信息不畅,保险公司在对OpenAI做个人信息影响评估时,会遇到非常大的困难。
(二)通过网络使用ChatGPT的风险
由于ChatGPT目前尚未开放给中国用户使用(见图5),这就迫使在中国的用户必须使用VPN(Virtual Private Network),并且需要通过输入境外国家手机号码获得短信验证码后方可以使用。2017年,我国监管部门开始对VPN进行严格审查和管制,要求VPN提供商必须在中国注册并获得政府批准,否则将被禁止在中国提供服务。并且,我国政府还加强了对VPN的监控和封锁。因此,中国用户使用VPN浏览境外网站可能会面临一些法律风险。
(三)知识产权风险
在我国,商用ChatGPT存在各种著作权侵权风险,这些风险包括:
1.著作权侵权
使用ChatGPT可能侵犯著作权的问题是一个复杂的话题,需要综合考虑许多因素。作为一个语言模型,ChatGPT可以生成大量的内容,并且这些内容可能包含被他人拥有版权的素材。
2.违反开源许可证
如果ChatGPT模型的一部分使用了开源代码,那么商业用户必须遵守该代码的开源许可证规则。如果商业用户未遵守该规则,则可能会侵犯著作权并受到法律追究。
3.派生作品的著作权问题
商业用户可能会对ChatGPT模型进行修改或添加功能,从而创建派生作品。商业用户必须确保这些派生作品不侵犯原始作品的著作权,并遵守相关法规。
为了避免这些风险,商业用户应该了解著作权相关的法律法规并遵守法律法规的要求。商业用户应该获得使用模型所需的所有授权和许可,并且必须确保他们在使用模型生成的内容时不侵犯版权。
(四)其他风险
1.缺乏人类情感和判断力
ChatGPT是一种机器学习模型,它没有人类情感和判断力。这意味着它无法像人类一样理解客户的情绪、语气和上下文,并可能提供不恰当的回答,从而导致客户不满意或者误解保险公司的政策。
2.数据偏差和错误
ChatGPT的训练数据是从大量的互联网文本中提取出来的,并且其资料与数据最后更新至2021年,这些文本中可能存在偏差和错误。如果这些偏差和错误未被纠正,ChatGPT可能会学习到错误的信息,在回答客户问题时提供不准确的答案。
3.泄露商业机密
保险公司员工在使用ChatGPT时,可能会在不自觉的情况下输入公司的商业机密信息,如果用户向ChatGPT输入包括商业战略细节的数据,该文件会被提供者获得,也可能会被提供给其他用户,或被用来制作可供竞争的策略。同样,如果一个企业输入了与客户或商业对手有关的机密信息,那么提供者一方和提供者的附属机构可能会有其他人查看。
4.销售与服务误导
ChatGPT提供的回答可能会影响到客户的决策和权益,如投保决策、理赔处理等。因此,保险公司需要确保ChatGPT的回答不构成销售以及服务的误导。
5.违反歧视和平等原则
ChatGPT提供的回答可能会涉及到种族、性别、年龄和其他个人属性等方面,如果回答存在歧视或偏见,可能会触犯反歧视法律法规。因此,保险公司需要确保ChatGPT的回答符合平等和非歧视原则,并避免歧视性言论和行为。
保险公司虽然可以较为自由地对ChatGPT内容进行商业使用以作为生产力工具,但同时应关注其可能潜在的法律风险,注意履行相应合规义务。对此,结合法律规定、司法实践及法律服务经验,对保险公司提出如下合规管理建议。
(一)及时公示
保险公司使用ChatGPT为客户提供服务时,虽然ChatGPT通常是作为受委托的个人信息处理者,但仍建议保险公司向客户明示收集使用了个人信息的种类以及收集后的去向,生成提供了哪些内容并可以提示用户ChatGPT内容可能存在的缺点及不足,保障用户的知情权及选择权。
(二)保密制度
禁止员工在未经公司批准的情况下,向ChatGPT输入公司机密信息。同时,如有必要,建议保险公司应及时更新公司管理制度,对于未能遵循管理制度的员工及时进行教育惩戒,完善公司的商业秘密保护体系。
(三)监控及引导
考虑到目前ChatGPT内容仍存在准确性与道德性问题,建议保险公司将其用于智能客服系统时,应对其回复内容进行监测及控制,一方面提示客户相关回复内容可能在真实性、准确性方面存在偏差;另一方面应建立禁止问题目录,如发现客户询问特定问题时,应当引导客户直接求助人工客服。虽然对ChatGPT的输出结果进行监控在效率上有所欠缺,但在初期应予以重视。
(四)通过合法正规途径的VPN使用ChatGPT
保险公司使用ChatGPT的基本前提是拥有合法的网络连接,对此,保险公司应履行相应的申请手续,租赁合规的国际专线,不得私自使用未经备案的网络服务。
内容来源:
其他文章: