ai智能自动生成视频软工具 【前沿思考】试论人工智能域内法律规制问题

默认分类1年前 (2023)发布 admin
2,535 0
ChatGPT国内版

摘要:近年来,人工智能技术发展突飞猛进。本文通过对人工智能相关概念进行明晰,并将欧盟和我国境内对人工智能以及AIGC产品的监管法规进行对比分析,认为AIGC产品在开源合规、伦理道德、知识产权以及数据安全方面都具有一定的风险,可以从设计环节、数据治理以及内容审查环节入手规避上述风险。首先,在开发设计阶段,必须要做好定期审核、评估、验证生成合成类算法机制机理的工作。其次,在运行阶段必须要建立健全数据全生命周期管理制度,将数据收集的事前评估、事中维护以及事后处理全过程贯穿整个算法系统。最后对内容发布要进行严格审核,建立相应的平台内网络信息内容生态治理细则,完善平台服务协议,对平台内的使用者进行有效管理。

关键词:人工智能(AI);人工智能生成内容(AIGC);深度合成

作者介绍:甘青锋,英国布里斯托大学商法硕士,现任三六零集团高级法律顾问。

一、前言

近年来,人工智能产业发展迅速。自“”大战的新闻后,近日一款聊天内容生成器-“”,又掀起全球热议,尤其是多方资本宣布下场的新闻也让人工智能(AI)、人工智能生产内容(AIGC)等概念再次进入大众视野。而人工智能相关的多个问题引发各界讨论,例如以何种方式确保AI产品符合现有伦理规范,AIGC是否可被认定为“作品”,如何保证使用AI的安全等。本文拟从相关概念的定义出发,从国内人工智能行业的监管规范入手,分析梳理AI/AIGC产品的相关合规风险,并提出对应的风险控制建议。

二、相关术语定义

1.AI( ),人工智能

针对域外立法,在目前已知的定义中,以欧盟《人工智能法案》草案(以下简称:欧盟草案)中对于人工智能系统的定义条款流传最广。根据《欧盟草案》第三条的规定,人工智能系统是指使用机器学习方法、推导演绎方法或统计学方法等《欧盟草案》附件一列举中的任意方法,能够针对人类定义的一组目标,输出内容、建议、预测或影响互动环境结果的系统。《欧盟草案》将人工智能定义为“系统”,即包含软件、硬件在内的集成性含义,而非仅指“软件”。而对于是否排除特定的开源系统和“完全可追溯、可预测”的系统,目前仍有较大争议。[1]例如 的CEO就曾建议,欧盟人工智能法案不应适用于开源代码的开发者。[2]在《欧盟草案》的第六条,明确表述了对于人工智能的定义,应辅以一份用于其开发的具体技术和方法的清单,该清单应根据市场和技术的发展,由委员会通过授权法案对该清单进行修订,以保持最新的内容。欧盟将通过对附件一内的技术更新修订的方式,以适应人工智能底层技术迭代产生的法律适用空白的问题。但基于最近的立法讨论文件,可能最终会删除附件一的文件,考虑等产品一经上市即火爆市场的情况,将人工智能解释由“最大程度自动化”改为“以不同程度自主运行”的情形也存在可能。[3]

域内立法中针对人工智能尚无统一定义。目前《上海市促进人工智能产业发展条例》(以下简称:上海发展条例)及《深圳经济特区人工智能产业促进条例》(以下简称:深圳促进条例)等地方性文件尝试对人工智能做如下定义:均指利用计算机或其控制的设备,通过感知环境、获取知识、推导演绎方式,以模拟、延伸和扩展人类智能。其中《上海发展条例》中的人工智能含义则包括“理论、方法、技术及应用系统”四个侧面。在产学研界,也存在这样的讨论,例如认为“人工智能”即“智能系统”,即“人工智能的智能系统是指能够产生人类智能行为的计算机系统,所谓的智能在现阶段至少应具备自动获取信息、自动学习知识、逻辑推理演绎、应用解决问题等多方面的能力。”[4]

就本文而言,人工智能在域内适用时可考虑如下定义方式:即人工智能是指为模拟、延申或扩展人类智能之目的,利用机器学习、推导演绎等相类似方法或技术,针对人类定义的一组目标实现不同程度自主运行的计算机或其控制的设备、软件及其应用系统。

2.AIGC(AI )/ Media,人工智能生成内容/人工智能合成媒体

上述两个术语,前者常见于国内产学研界讨论中,后者则是国际上常用的对应术语。域外维基百科对于AI Media的解释十分直接,即“通过人工智能算法对数据或媒体进行生产、操控和修改的简称”。从国内理解来看,AIGC则是指继专业生成内容和用户生成内容之后,利用人工智能技术自动生成内容的新型生产方式。[5]AIGC发展历程简述如下表[6]:

从国内相关法规来看,并无直接对AIGC的定义解释。但在国家网信办、工信部、公安部于2022年11月25日发布的《互联网信息服务深度合成管理规定》(以下简称:深度合成规定)中,对于“深度合成技术”做了列举式定义,即深度合成技术是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术”,该规定已经于2023年01月10日正式生效实施。可以说目前大火的无论是产品或是各家新闻预告发布的类产品,只要是基于深度学习、训练数据、生成合成式算法等技术,产出文本、图像、音视频等内容产品的,并在境内应用的,均落入该规定的管辖范围。

三、监管规范概述

ai智能自动生成视频软工具 【前沿思考】试论人工智能域内法律规制问题

1.人工智能监管

从人工智能类的法律动态来看,受近日产品火爆全网的影响,欧盟委员会宣布将于2023年3月就《欧盟草案》内容达成一致,并争取在年底与各欧盟国家达成协议。[7]现就《欧盟草案》的框架内容,与境内两部地方性立法内容做如下对比理解:

除上述内容外,《欧盟草案》还就具体的治理责任承担方(如AI系统的提供方、使用方、进口方、分销方)、高风险AI系统治理方式(上市前、上市后)等,相比较其他法域内的人工智能法律规制更全面、清晰。但该法案也因约束范围过广(增加企业成本)、预留解释空间过大(实用性差)、例外情形过多(监管力度弱)等原因而引发产学研各界讨论。[8]

我国两部地方性法规则主要以推动人工智能产业发展为主,多为指导性内容,且地域性强,对于实质监管的内容并无过多涉及。除此之外,国内也有许多其他规范性文件,但均立足于推动人工智能行业发展,并未涉及统一的法律规制框架。如《最高人民法院关于规范和加强人工智能司法应用的意见》,强调司法领域以安全合法、公平公正、辅助审判、透明可信、公序良俗等原则在司法管理、多元纠纷解决领域应用AI产品或服务。在伦理规范上,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》已经于2021年9月25日生效,建议新上市的AI产品参考该规范中关于管理、研发、供应、使用等内容,将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。而在网信办发布的《网络数据安全管理条例(征求意见稿)》中也提到对于人工智能技术的要求:互联网平台运营者利用人工智能、虚拟现实、深度合成等新技术开展数据处理活动的,应当按照国家有关规定进行安全评估。

2.AIGC监管

从AIGC类的监管政策来看,三部委联合发布的《深度合成规定》则具有明确的适用性。该规定是基于《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《互联网信息服务管理办法》等上位法针对深度合成技术提供互联网信息服务而制定的部门规章文件,对于开发运营AIGC类产品的企业具有指导意义。例如,规定要求平台涉及敏感信息获取的,如提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。

如AI或AIGC产品涉及算法推荐服务的,比如日前刚刚发布的Chat GPT版Bing浏览器,在国内如上线类似产品,则需考虑适用网信办等部门于2022年03月01 日发布实施的《互联网信息服务算法推荐管理规定》(以下简称:算法推荐规定),以规避相应的合规风险。在《算法推荐规定》内明确规定了,算法推荐技术是包含利用生成合成类的技术的。[9]所以AIGC类产品也需考虑该规定的相关内容,例如需公示推荐原理,以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。又如,需完善用户模型及标签管理,不得将违法和不良信息关键词记入用户兴趣点或者作为用户标签并据以推送信息等。

如AIGC中涉及文本、音视频、图像合成技术的,除参考上述法规外,还需考虑《网络直播营销管理办法(试行)》《网络音视频信息服务管理规定》中对于虚拟形象等新技术应用的法律规制,以及参考中国电子工业标准化技术协会发布的《人工智能 智能字符识别技术规范》《人工智能 视频图像审核系统技术规范》《人工智能 深度合成图像系统技术规范》等行业性规范。

四、AIGC风险类型梳理

1.开源合规风险

在目前市场AI或AIGC产品(简称:AI产品)层出不穷的背景下,相关产品在开发设计过程中,需注意使用开源代码的合规风险。而不同类型的开源协议或开源许可证,对于开源方式、是否具有代码公开传染性、商业化使用限制、是否付费等均有不同要求。例如使用宽松型开源许可证的,没有继续开源的要求,可以直接修改或使用代码,并直接用于商业化目的,如、BSD等。但如果使用的是强著佐权型开源许可证的,则需要注意使用时的多项限制性要求,如修改和发布开源软件的,必须在源代码中标注修改内容和日期;代码分发必须附随源代码;后续开发设计的软件也可能被“传染”为新的开源软件,需遵循该许可证的要求,可参考GPL许可证。[10]

虽然国务院印发的《新一代人工智能发展规划》的通知中提到“要建立大数据人工智能开源软件基础平台、终端与云端协同的人工智能云服务平台、未来网络中的大数据智能化服务平台”等规划要求,但在目前的技术环境下,尚不具备免费开源的技术基础支撑平台。如违反开源协议或开源许可证,可能引发对应的软著侵权、专利侵权、商标侵权等知识产权风险,更严重的可能还会涉及侵犯商业秘密,导致被迫公开代码等后果。[11]

2.伦理规范风险

ai智能自动生成视频软工具 【前沿思考】试论人工智能域内法律规制问题

AI产品可能引发出各类歧视问题从而引发伦理规范风险。例如 智能音箱Alexa就曾引导用户实施自我伤害的行为[12],美国的 系统会对用户做出个人的“危险指数”评价,也就是未来再次犯罪的可能性。而最近复旦大学发布的国内首个内测产品MOSS,也有意规避掉涉及人身伤害提问的自动生成回复。而近日新闻显示,特斯拉及Space X的创始人马斯克、苹果联合创始人Steve 、 AI 创始人Emad 等1377名科技行业从业者已联名签署题为《停止强AI实验》的公开信,敬告强AI研发者暂停对GPT-4以上系统的研发,以共同探讨对AI的伦理监管问题。该公开信仍在开放签名中。[13]

这些类似的场景大多源自于“机器自我学习过程中对参数选择的算法歧视和算法黑箱问题”,面对已经发展出神经网络,会自己建立数据连接的AI,就连开发者也无法解释软件中隐藏的由AI做出的具体决策过程。[14]对于那些提供因民族、种族、性别、年龄、职业和宗教信仰等歧视用户或对用户身体或精神造成损害的产品和服务;又或者利用算法技术实施歧视性行为(如价格歧视、消费歧视等);或AI系统的自我意识觉醒,数字人、涉及仿生或复活逝者等行为[15],都容易引发社会公众间对于AI产品的伦理规范风险的担忧。

3.知识产权风险

随着AI产品的不断面世以及迭代新产品,对于AIGC的知识产权属性的讨论甚嚣尘上。以为例,其生成了世界上第一篇由人工智能写作的学术论文。该论文由-3生成,并由署名第一作者,标题为《GPT-3能否在最少的人力参与下,自行撰写学术论文》。[16]争议之处在于,的署名是否有效,该文章的权益由何人实际享有,该论文是否属于版权法域内的具有独创性、创新性的“作品”等。目前尚无统一定论。从境外来看,美国知识产权局于2023年3月16日公布的一份更新版著作权注册指引文件,其明确指出AIGC内容不能被注册为著作权作品,因为“作者”一词的含义在美国宪法或著作权法中都排除了非人类的情况。[17]而从境内司法观点来看,目前存在相反的司法判例观点,仍未形成统一论调。例如存在支持AI开发运营者享有AIGC内容的著作权,即承认AIGC内容具备“作品”属性的案例,可参考深圳市腾讯计算机系统有限公司与上海盈讯科技有限公司著作权权属、侵权纠纷、商业贿赂不正当竞争纠纷一案。但同年由北京知识产权法院作出的北京菲林律师事务所与北京百度网讯科技有限公司著作权权属、侵权纠纷二审民事判决书内,却未支持AIGC具备“作品”属性的观点。

在AIGC作品性质、知识产权归属等尚未厘清的情形下,在运营该类应用产品时,则可能引发提供数据训练素材的原作者、用户、消费者以及开发运营平台之间知识产权相关的争议或诉讼,如权利归属、授权路径设计、财产权益分配等问题。

4.数据网安风险

AI产品的数据与网络安全风险也是不可忽略的问题。首先是训练数据安全的问题。AI产品用于训练的数据大多来源于互联网信息,而涉及千亿级别的训练数据库中不可避免的包含个人信息或个人敏感信息的数据。预训练模型强大的推理能力就可能导致个人隐私数据的泄露风险。如官方也于近日发布了3月20日临时中断服务的调查报告,并表示有1.2%的 Plus的用户数据可能被泄露。[18]早在之前,GPT 2就曾出现过输入特定前缀词,就会生成包含姓名、电话、邮箱等个人信息的文本。[19]详见下图:

其次是网络安全风险。AI产品也容易受到黑客攻击、木马病毒等威胁信息安全的攻击行为。作为互联网信息服务提供者,应当考虑到信息安全主体责任,需要对AI产品或服务配备全面的安全可控的技术保障措施,以防止出现诸如数据泄露、隐私泄露、利用AI欺诈、伪造等安全事件,防止出现侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。

5.内容安全风险

基于人工智能技术,由非人类直接生产的互联网信息内容,其性质必然要求开发者或运营者做好内容管理工作。无论是采取技术或者人工方式,对于用户端输入的内容和数据,抑或是AIGC产品输出或合成的结果,均需要完成内容审核。如未按规定完成审核工作,使法律、行政法规禁止发布或者传输的信息在公众间传播的,则可能导致行政处罚,如产品网站被停业、整顿、下架或行政罚款等;情节严重则可能还涉及到刑事责任,如没收违法所得、主管责任个人责任等。

五、合规控制建议

1.开发设计

根据《互联网信息服务深度合成管理规定》第15条第1款的内容,技术开发阶段,加强技术管理,定期审核、评估、验证生成合成类算法机制机理。如做好技术的原创性审核(如代码、技术文档、产品设计方案等),并及时做好专利、软件著作权、商标等知识产权布局工作。具体适用法规可参考《专利法》《著作权法》《商标法》及相关司法解释等,涉及技术标准则可参考国标委出具的各类标准文件,如《国家新一代人工智能标准体系建设指南》。

涉及联合开发的,与合作方签署书面合作协议,明确合作内容;如涉及开源合作的,则建议前置审查开源代码使用方案,严格按照开源许可证要求进行技术研发。具体适用法规可参考《民法典》及相关司法解释,以及各类开源协议标准要求等。在开发阶段还需重点考虑伦理规范问题,避免产品上市后可能出现的负面舆情或其他违背公序良俗而影响品牌商誉的情况。具体可参考《新一代人工智能伦理规范》。

2.数据治理

实务中,通常在训练数据阶段采用开源数据库方式规避数据侵权风险。同时,AI产品的数据治理工作要求严格保障数据入口、数据交互、数据销毁与恢复等阶段的安全。以训练、验证、测试数据集的数据治理为例,建议建立健全数据全生命周期管理制度,将相关设计选择、数据收集、数据准备处理操作(如数据标记、标注、清洗、扩充和聚合)、事前评估所需数据集的可用性、数量和适用性、数据检查、数据销毁和恢复等环节采取适当的管理方法。又以数据收集为例,严格规范数据收集方式,如个人信息需获取明确授权,规范授权路径,不超范围收集数据等。具体法规可参考《网络安全法》《数据安全法》《个人信息保护法》及相关司法解释等。

在产品上线前,还需按规定完成各项备案、审批或安全评估工作。例如,《网络信息内容生态治理规定》《微博客信息服务管理规定》《互联网群组信息服务管理规定》《互联网跟帖评论服务管理规定》的内容,应按法规要求对数据实行分级分类管理,开展信用评估,制定具体管理制度,并向国家或省、自治区、直辖市互联网信息办公室备案。又如,根据《互联网信息服务深度合成管理规定》第15条第2款,提供具有生成或者编辑人脸、人声等生物识别信息或生成或者编辑可能涉及国家安全、国家形象、国家利益和社会公共利益的特殊物体、场景等非生物识别信息的相关模型、模板等工具的,应当依法自行或者委托专业机构开展安全评估。涉及数据出境的,还需完成数据出境安全评估,或签署标准合同,完成安全认证等手续。如涉及工业和信息化数据使用的,需按照《工业和信息化领域数据安全管理办法(试行)》执行。

3.内容审查与运营管理

AIGC产品或服务提供者需做好内容管理工作。具体可参考《互联网信息服务深度合成管理规定》《网络信息内容生态治理规定》,包括应当建立网络信息内容生态治理机制,制定平台内网络信息内容生态治理细则,健全用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。并配备内容治理团队,如设立网络信息内容生态治理负责人,配备与业务范围和服务规模相适应的专业人员,加强培训考核,提升从业人员素质等。同时建立健全用于识别违法和不良信息的特征库,完善入库标准、规则和程序,记录并留存相关网络日志。

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...