文/中国互联网金融协会业务二部副主任刘绪光、中国社会科学院投融资研究中心研究员李根
的突破性进展为人工智能产业发展描绘了新的路径。本文遵循科技、产业与金融融合发展的逻辑视角展开分析,提出人工智能应用的纵横深入将不断提升养老产业与服务的供给质量,赋能智慧养老金融加速创新和突破,不断在金融数字化、养老数字化及其业技融合的过程中探索新的服务场景、挖掘新的功能价值。
在人工智能发展的数十年历程中,技术突破穿越业态发展的低谷与高潮,引领着一轮又一轮的应用繁荣。近年的横空出世,掀起了一波新的技术创新和应用探索浪潮。《中国人工智能大模型地图研究报告》显示,2020年以来人工智能大模型呈井喷式发展,全球已发布人工智能大模型超过200个,中国的人工智能大模型数量已增至2023年5月末的79个。大模型的创新探索也为人工智能市场增长注入强劲动力,国际数据公司(IDC)预测,中国人工智能软件及应用的市场规模将从2021年的51亿美元增至211亿美元。
简述及主要特征
即聊天生成型预训练转换模型(Chat Pre- ),是由美国人工智能公司于2022年11月发布的会话交互模型。使用基于人反馈的强化学习算法,实现了人与人自然对话般流畅的人机交互。据报道,发布仅一周便收获了100万用户,被称为“史上增长最快的用户应用”,瑞银在报告中预计用户会超过1亿。的突破性进展为人工智能产业发展描绘了新兴路径,随后资源投入最为集中的发展模式就是改进支持走向成熟稳健的技术因素。
在应用方面,发布之初主要实现了文本内容的交互,经过技术迭代和新模型开发,当前图片、音频、视频也已成为可交互内容,这一系列支持多类内容交互(多模态)的技术簇普遍也被称为生成式人工智能( ,简称AIGC)。各类生成式人工智能也正大力推进各种场景的应用,办公软件、社交文娱、商业营销、家庭助理和金融等场景下已诞生许多应用方案。生成式人工智能通常被认为是与判别式人工智能相对应的技术路径,后者擅长识别差异进而分类,前者则是识别联系进而组合。本质上,判别式人工智能的作用可被视为对信息的解构,生成式人工智能的作用则可被视为对信息的重构,二者的关系可理解为相对和统一而非孤立或对立。解构是重构的前提,重构是解构的目的。
算法方面,自身从最初GPT-1的1.1亿个参数开始,已发展至GPT-4的据称万亿级别参数数量,行业也开发出以ELMo、BERT、、、PaLM2等为代表的新模型。尽管技术路线有差异,但这些模型的参数规模普遍达到了千万乃至上亿级别,据此也被行业统称为大模型。《自然—机器智能》杂志曾给出一个定义,认为大模型是网络参数规模达到亿级以上的预训练深度学习算法。根据内容的类别不同,主要由文本内容训练且处理文本内容的大模型也被统称为大语言模型(Large Model,简称LLM)。业界将大模型的特点概括为“三大一快”,即大模型的开发和运行依托大算力、基于大数据、使用大算法,大模型开发后可快速迭代和赋能,具有作为基础设施的能力。与之对应的是小模型,通常被认为具有体量小、开发和管理容易的特点,相对更灵活也更契合垂直领域或细分场景的应用需求。
算力方面,的总算力据报道达到了-days(按每秒1000万亿次计算,运行3640天),支持如此算力消耗需要7至8个投资规模为30亿元的数据中心。据华为研究预测,2030年人工智能的算力需求将达到2018年的390倍。可以预见未来大模型的运行和发展将需要天量的芯片和设备支持,进而促进芯片和计算设备的重大技术革新。全球主要芯片企业英伟达()和AMD均已推出了专为人工智能大模型设计的超级芯片。
算基方面,早先版本使用了数十亿词和几十GB(吉字节)的训练数据集,而当下大模型所使用的训练数据普遍达到了数千亿词和上千GB的规模。除了数据规模,数据质量对大模型的训练成效也会产生关键影响,事实上国内类模型MOSS的研发团队就曾将模型中文能力不足归因于中文网络存在过多的广告等干扰信息。由于大模型对数据的消耗速度过快,数据短缺也被认为将是限制大模型进一步发展的主要瓶颈。为此,有观点提出合成数据可能会是一种有效的解决方案。
对大模型的优化增强了人工智能的能力,但当前诸多受到热议的体验不佳、潜在风险等问题似乎又在提示人工智能还远未臻于完美。从国内某智库机构、麻省理工科技评论、国际数据公司等研究机构开展的大模型测评结果来看,不同大模型的能力各有所长,且总体上还有很大的提升空间。同时,许多研究已揭示了大模型造成的知识侵权、算法黑箱、算法歧视、信息泄露等风险。人们既惊叹人工智能表现出的强大能力,又因人工智能的缺陷和不足而谨慎警惕……
付费¥5