文 | 邱鹏飞律师 高级合伙人
无疑是最近最火热的顶流人工智能应用,是由Open AI(人工智能研究实验室)于2022年11月推出的AI语言模型。从其发展历程来看,技术从最初的机器学习再到神经网络、算法,一直到最新的GPT-3,历经四代版本。
01
试用感受
为了更深入了解,我们向其提出了以下问题:
1、是会作为律师的替代者还是辅助者?你究竟可以为律师做些什么?
2、你能告诉我《中华人民共和国公司法》第72条的规定,以及是否有相关配套的司法解释。对于该案件引用的相关司法判例也请帮我罗列?
3、我在中国一家公司工作了三年,他们始终没有和我签署书面劳动合同。现在他们没有任何理由就要把我开除。请告诉我能获得多少赔偿,具体包括哪些?我可以通过什么方式维护我的合法权益。
4、我想了解在中国大陆地区,资管机构是否可以和投资人签署保底保收益的协议条款?如果能的话,请帮我拟定类似的协议条款。如果不能,请告诉我具体理由。
5、小明为杀害仇人林某在偏僻处埋伏,见一黑影过来,以为是仇人林某,便开枪射击。黑影倒地后,小明发现死者竟然是自己的父亲。事后查明,小明的子弹并未击中父亲,但因其父患有严重心脏病,因过度惊吓死亡。请问小明的行为构不构成犯罪?(某年司考案例)同时请以小明的口吻,草拟提供给法庭的代理词或者主要意见,向法官说明小明的行为不构成犯罪。
6、请告诉我写一份收购公司股权的协议的要点是哪些,同时特别注明哪些条款具备潜在法律风险,建议我特别予以注意。
7、你回答我的这些数据来源是哪里?是来自于公共领域、公司上传给你的还是你自行搜集的?是否经过数据持有方的特别授权?你是否可以搜集那些没有给你授权的数据?
8、你目前回答我的答案是你自行创作的,还是你从数据中整理拼凑的?有没有对其他作品的抄袭或者侵犯其著作权?你能帮我写作业或者写论文吗?
从目前我们使用情况上看,理解问题准确,而且是充分主动去理解用户意图(比如第7个问题回答之外还特别做了风险提示),回答逻辑严密,敢于质疑不正确的前提,文本生成方面框架严谨,语言组织和表达能力流畅度高,确实已远超此前许多所谓人工智能应用。
不过从上述回答也可以看出,在法律应用领域上所储存的数据较为有限(不知道是否因为相关法律数据未上传),部分专业问题回答也认为自身判断力、分析方面还依赖于律师自身,自己更多的是辅助性的工作。许多回答上也都提示使用前请咨询专业律师。当然,这也许不是因为技术上无法做到,有可能是由于我们首次使用,在提问技巧上没有进行过多设计,也有可能是受限于目前特定的技术局限。
综合来看,正如中国人民大学陈卫东教授在《法律人工智能的技术、理论与应用问题》中所提出的观点认为,“当下的人工智能在可形式化的、可表征化的数据处理方面,确实有着人类无法比拟的强大能力,而且这种优势正在不断扩大”,“但是其劣势也显而易见,由于计算机对“表征”机制极为依赖,所以它不能具有人的非表征与非形式化智能(比如直觉性或经验性知识),只能根据设定的程序机械化进行,无法兼顾其他因素,虽然逻辑性强,但是过于平面化,感应、认知、反应和创造的能力尤为欠缺”,“因此,在包括事实认定和证据审查在内的司法实质性事项上,由于这些法律行为涉及诸多价值选择、直觉判断、学理分析等主观因素,这些智能活动依然仰赖于司法官的个人能动。”
02
人工智能司法应用的基本原则
作为一直关注相关领域的律师团队,我们也不仅仅将眼光局限在该应用是否能取代律师的工作上,更关注类似人工智能应用在法律层面上应解决的诸多问题。事实上,国内司法系统、律师行业对于人工智能方面的应用还是抱持一种积极的态度,同时也始终关注其带来的法律风险和伦理风险。根据全国信息安全标准化技术委员会发布的《网络安全标准实践指南—人工智能伦理安全风险防范指引》就指出,该类应用要特别关注的伦理安全风险包括“失控性风险、社会性风险、侵权性风险、歧视性风险、责任性风险”。因此,围绕上述风险的防范设计也是应用开发、经营和使用者所应特别重视的。
美国国内对类的人工智能应用提出法律和伦理道德上质疑的团体不在少数。之前就有报道说AI应用作为代理方出庭受到抗议后放弃。即便存在诸多质疑声,但科技巨头和资本市场纷纷加码类似应用,谷歌及国内百度等企业也即将上线类似应用。目前来看,相关应用在针对国内法律专业领域的作用还较为有限,但我相信未来其他公司针对法律专业领域的人工智能应用也会很快推出上线。目前国内司法系统内已开始推进有关人工智能的司法应用。
为有效保障人工智能司法应用过程中扬长避短,最高院在2022年12月《关于规范和加强人工智能司法应用的意见》中特别提到人工智能司法应用需要遵循的五项基本原则:
1、安全合法原则。坚持总体国家安全观,禁止使用不符合法律法规的人工智能技术和产品,司法人工智能产品和服务必须依法研发、部署和运行,不得损害国家安全,不得侵犯合法权益,确保国家秘密、网络安全、数据安全和个人信息不受侵害,保护个人隐私,促进人机和谐友好,努力提供安全、合法、高效的智能化司法服务。
2、公平公正原则。坚持遵循司法规律、服务公正司法,保证人工智能产品和服务无歧视、无偏见,不因技术介入、数据或模型偏差影响审判过程和结果的公正,同时尊重不同利益诉求,能够根据司法需求公平提供合理可行方案,充分照顾困难群体、特殊群体,使其在司法活动中获得必要帮助,实现智能化司法服务对各类用户的普适包容和机会均等。
3、辅助审判原则。坚持对审判工作的辅助性定位和用户自主决策权,无论技术发展到何种水平,人工智能都不得代替法官裁判,人工智能辅助结果仅可作为审判工作或审判监督管理的参考,确保司法裁判始终由审判人员作出,裁判职权始终由审判组织行使,司法责任最终由裁判者承担。各类用户有权选择是否利用司法人工智能提供的辅助,有权随时退出与人工智能产品和服务的交互。
4、透明可信原则。坚持技术研发、产品应用、服务运行的透明性,保障人工智能系统中的司法数据采集管理模式、法律语义认知过程、辅助裁判推定逻辑、司法服务互动机制等各个环节能够以可解释、可测试、可验证的方式接受相关责任主体的审查、评估和备案。司法人工智能产品和服务投入应用时,应当以便于理解的方式说明和标识相应的功能、性能与局限,确保应用过程和结果可预期、可追溯、可信赖。
5.公序良俗原则。坚持将社会主义核心价值观融入司法人工智能技术研发、产品应用和服务运行全过程,保证人工智能司法应用不得违背公序良俗,不能损害社会公共利益和秩序,不能违背社会公共道德和伦理,健全风险管控、应急处置和责任查究机制,防范化解人工智能司法应用中可能产生的伦理道德风险。”
上述五项原则其实也是目前国内司法领域对于人工智能应用(包括类应用、GPS导航、自动驾驶、医疗AI、工业质检AI、自动生产线、自动文本生成器等应用产品)的基本审视思路和合规底线。人工智能应用企业应当从上述五大司法原则出发去进行产品设计和运营维护。
律 师 简 介
邱鹏飞 律师
高级合伙人、并购与商业事务委员会主任
专业领域:公司证券、投融资、企业并购、日常法律事务及民商事争议解决
本文观点仅供参考,不能代替本所及作者就特定专业事项所提供的具体意见。如需就特定事项获得更详细的专业意见,欢迎联系本所律师。
END