近年来,人工智能技术得到快速发展,其对经济社会发展以及生产生活方式变革将产生重大影响。全球范围内美国、欧盟、英国、日本、中国等国家和地区均大力支持人工智能产业发展,相关新兴应用不断落地。根据报告预测,全球人工智能产业规模从2017年的6,900亿美元增长至2025年的64,000亿美元,2017-2025年复合增长率32.10%,呈现较快增长走势。
▲2017-2025年全球人工智能产业规模
投融资方面,全球人工智能投资市场近年来快速发展,整体融资规模从2015年的63亿美元增长至2021年的668亿美元。2021年全球医疗AI融资规模较高达到122亿美元,金融科技AI融资规模为39亿美元,零售AI融资规模为37亿美元。
▲2015-2021年全球AI融资规模和融资数量
▲2015-2021年全球医疗AI融资规模和融资数量
▲2015-2021年全球金融AI融资规模和融资数量
▲2015-2021年全球零售AI融资规模和融资数量
尚普研究院根据CB 数据统计,全球现有人工智能企业超过11,000家,累计融资总额超过2,500亿美元。其中,美国拥有AI相关企业达到4,171家,累计融资金额达到1,601.9亿美元,在公司数量和融资规模上均位居世界首位;中国拥有1,275家AI公司,融资总金额为470.7亿美元,位居世界第二位。英国、印度、加拿大等国家也各自拥有百余家AI公司,AI企业数量排名前10位的国家占全球总数的78.3%,累计融资金额则达到全球总额的95%,AI企业和融资活动集中在美、中、英等国家。
▲全球主要国家AI企业数量与累计融资规模
尚普研究院将处于全球人工智能产业链中的典型上市公司进行整理,名单中以具备综合实力的科技巨头为主,国外如、、等,国内如百度、阿里巴巴、腾讯等。此外,国内的商汤、科大讯飞等具有强技术属性的AI公司受关注度较高。
▲全球人工智能产业链主要上市企业名单
二、AI芯片,广泛应用于云、边、端各类场景
AI芯片(AI Chip):专门用于处理人工智能相关的计算任务,其架构针对人工智能算法和应用进行专门优化,具有高效处理大量结构化和非结构化数据的特征,可高效支持视觉、语音、自然语言处理等智能处理任务。当前AI芯片类型主要涉及GPU、FPGA、TPU、IPU、DPU、NPU等类别。从应用场景来看,AI芯片广泛应用于云端、边缘端、终端等各类场景,其中云端AI芯片具备高性能特征,终端AI芯片具有低功耗和高能效特性,而边缘端AI芯片性能介于云端和终端之间。
目前,评价AI芯片性能的指标主要包括:TOPS、TOPS/W、时延、成本、功耗、可扩展性、精度、适用性、吞吐量、热管理等。其中,TOPS/W是用于度量在1W功耗的情况下,芯片能进行多少万亿次操作的关键指标。近年来,MIT、等研发人员开发专门的芯片软件评价工具对于AI芯片的性能做出了系统、全面评价,如(评估芯片架构级能耗)、(评估芯片运算执行情况)等。是由来自学术界、研究实验室和相关行业的AI领导者组成的联盟,旨在“构建公平和有用的基准测试”,可用于衡量深度学习软件框架、AI芯片和云平台性能。
CPU作为通用处理器,包含控制单元(指令读取及指令译码)、存储单元(CPU片内缓存和寄存器)及运算单元(ALU约占20%CPU空间)三个主要模块,但受制于成本/功耗/技术难度/算力瓶颈等问题,目前仍未出现适配AI高算力要求的主流CPU产品。GPU是一种由大量核心组成的大规模并行计算架构,拥有较多运算单元(ALU)和较少缓存(cache),是一款专为同时处理多重任务而设计的芯片,具备良 好的矩阵计算能力和并行计算优势,能满足深度学习等AI算法的处理需求,成为主流云端AI芯片。
英伟达A100芯片为多个SM单元( ,流式多处理器)构成的并发多核处理器,不同SM单元共享L2 Cache存储资源进行数据访存,A100的安培架构中有128个SM核,SM结构是芯片架构升级的核心。 Core是英伟达GPU架构中专为深度学习矩阵运算设置的张量计算单元,是英伟达GPU系列深度学习运算加速的核心。 Core处理的是大型矩阵运算,其执行一种专门的矩阵数学运算,适用于深度学习和某些类型的高性能计算。 Core功能是执行融合乘法和加法的运算,其中两个4*4 FP16矩阵相乘,然后将结果添加到4*4 FP32或FP64矩阵中,最终输出新的4*4 FP32或FP64矩阵。
AIoT通过融合AI和IoT技术实现万物智联,其主要涉及到安防、移动互联网等多样化场景。在智慧安防方面,由于终端摄像头每天产生大量的视频数据,若全部回传到云数据中心将会对网络带宽和数据中心资源造成极大占用。通过在终端加装AI芯片,可实现数据本地化实时处理,即仅将经过结构化处理、关键信息提取后带有关键信息的数据回传云端,大大降低网络传输带宽压力。当前主流解决方案为前端摄像头设备内集成AI芯片,在边缘端采用智能服务器级产品,后端在边缘服务器中集成智能推理芯片。目前国内外企业正在加大对边缘端AI视觉处理芯片的研发和投入,相关芯片产品如英伟达 AGX 、地平线旭日3、华为海思 V100等。
随着智能驾驶等级的提高,技术不断迭代促使车用AI芯片性能逐步增强。SAE(国际自动机工程师学会)将自动驾驶划分为六个级别:L0(非自动化)、L1(驾驶员辅助)、L2(部分自动化,如交通拥堵辅助和高级紧急制动+转向)、L3(有条件自动化,如高速道路自动驾驶)、L4(高度自动化,如城市自动驾驶)和L5(完全自动化,如全场景自动驾驶)。从L3开始每一级别均需要强大的算力进行实时分析,处理大量数据,执行复杂的逻辑运算,对计算能力有着极高要求。每一级别自动驾驶汽车所需的芯片计算能力一般认为是:L3约为,L4超过,L5超过1,。随着芯片设计和制造工艺的提高,车用AI芯片正朝着高算力、低功耗的方向发展。
▲全球主要车用AI芯片概览
预计到2025年,全球车用AI芯片市场规模将突破17亿美元。随着汽车控制方式逐渐由机械式转向电子式,每辆汽车对车用AI芯片需求提升,带动车用AI芯片长期发展。根据Yole预测,2025年全球车用AI芯片产量将达到67.19亿颗,市场规模将达到17.76亿美元,年复合增速分别达到99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向发展,如英特尔2022年推出的EyeQ Ultra自动驾驶汽车芯片,基于经过验证的 EyeQ架构而打造,其含有8个PMA、16个VMP、24个MPC、2个CNN 视觉处理单元(VPU),通过优化算力和效能以达到,可满足L4自动驾驶场景,该产品将于2023年底供货,预计在2025年全面实现车规级量产。
▲2021-2025年全球车用AI芯片产量
▲2021-2025年全球车用AI芯片市场规模
AI芯片在图像识别、语音识别和快速建立用户画像等方面具有重要作用。根据Yole预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别达到100%、100%和91%,未来全球消费电子AI芯片市场规模和渗透率呈现逐步增长态势。
▲2021-2026年全球消费电子AI芯片市场规模及渗透率
三、人工智能趋势展望
1、前沿技术
模型:由的 等人和多伦多大学的Aidan N.Gomez于2017年首次提出,是一种基于自注意力机制(在模型中起基础作用,可减少对外部信息的依赖,更擅长捕捉数据或特征的内部关系,优化模型训练结果)的深度学习模型,该模型主要由编码器和解码器构成,模型本身并行度较高,在精度和性能上均要优于传统的循环神经网络(RNN)和卷积神经网络(CNN)。模型在简单语言问答和语言建模任务上有着较好表现。模型仍存在一些不足,如对局部信息的获取能力弱于RNN和CNN、不能很好表征单词的位置信息、顶层梯度消失等问题。
▲模型
BERT模型:由于2018年提出,是基于 构建的一种模型。模型基本思想:给定上下文来预测下一个词。BERT模型架构是由多接口组成的编码器层,即全连接神经网络增加自注意力机制。对于序列中的每个输入标记,每个接口计算键、值和查询向量,相关向量用于创建加权表示,合并同一层中所有接口输出并通过全连接层运行。每个层使用跳跃连接进行包装,之后将层归一化处理。BERT模型传统工作流主要包含预训练和模型微调两部分,其中预训练环节涉及MLM和NSP两个半监督任务;模型微调环节包含一个或更多全连接层,通常增加到最终编码器层的顶部。BERT模型已集成在谷歌搜索中,并提升10%的查询准确率。
▲BERT模型( from )
ViT模型( ):由公司 等人在2021年提出,其原理是将原本用于NLP领域的基于自注意力机制的模型应用于计算机视觉领域。相比于传统CNN算法,ViT模型在大数据集上识别率更高、成本更低。ViT模型的基本原理:1)将图片切分为相同大小的块,每个块可以看做一个“单词”;2)每个块经过线性投射层(全连接层)的操作得到位置编码(图像分类问题转化为NLP问题);3)将线性投射后的图像块输入由L层模型构成的编码器;4)输出结果经过多层感知机(MLP)得到最终分类结果。目前,ViT已发展出多种改进模型,在计算机视觉物体检测等方面具有很大应用潜力。
▲ViT模型( )
自监督学习(Self- ):旨在对于无标签数据,通过设计辅助任务来挖掘数据自身的表征特性作为监督信息,来提升模型的特征提取能力,将无监督问题转化为有监督问题的方法。辅助任务是自监督学习最关键内容,目前主要包括自然语言处理NLP和计算机视觉CV两大类任务。其中,自然语言处理包括单词预测、句子序列预测、词序列预测;计算机视觉包括图像任务、视频任务等。著名AI科学家Yann Lecun曾经提出,如果将人工智能比作一块蛋糕,蛋糕的大部分是自监督学习,蛋糕上的糖衣是监督学习,蛋糕上的樱桃是强化学习,自监督学习在人工智能领域占据重要地位。
▲自监督学习(Self- )
类脑计算(Brain- ):又称神经形态计算,是借鉴生物神经系统信息处理模式和结构的计算理论、体系结构、芯片设计以及应用模型与算法的总称。类脑计算可模拟人类大脑信息处理方式,以极低的功耗对信息进行异步、并行、高速和分布式处理,并具备自主感知、识别和学习等多种能力,是实现通用人工智能的途径之一。2020年10月,清华大学张悠慧等人在杂志发表论文,首次提出“类脑计算完备性”,填补类脑研究完备性理论与相应系统层次结构方面的空白。类脑计算技术的发展将推动图像识别、语音识别、自然语言处理等前沿技术的突破,有望推动新一轮技术革命。
▲类脑计算(Brain- )
AI大模型( ):是指经过大规模数据训练且在经微调后即可适应广泛下游任务的模型。随着参数规模不断扩大,AI大模型在语言、视觉、推理、人机交互等领域涌现出新能力。由于各类AI大模型可有效应用于多种任务,各类AI大模型同质化特征愈发明显。伴随2017年模型的提出,深度学习模型参数数量突破1亿个。此后,模型参数数量迅速增长,其中模型于2021年7月发布,参数规模已达到174万亿个。模型参数规模的增大,有助于进一步提高模型的运算精度。AI大模型的应用向多个应用场景提供预训练方案,其使用的自监督学习方法也可减少标注数据的使用,降低训练研发成本。具体而言,AI大模型在医疗和生物医药、法律和教育等领域拥有广阔应用前景。
▲AI大模型( )
2、产业融合
元宇宙():本质上是对现实世界的虚拟化、数字化过程,其主要包括基础设施、人机交互、空间计算等七层架构,其中计算机视觉、AI芯片和嵌入式AI等人工智能技术及基础设施共同助力元宇宙加速落地。元宇宙涵盖芯片、云计算、技术平台、通信、智能设备、内容服务等庞大生态系统。当前全球科技企业纷纷投入到元宇宙建设热潮中,如、Meta、等科技巨头及国内企业推出元宇宙解决方案,应用于办公、娱乐、设计等领域。
▲元宇宙七层经典架构(The Seven of the )
人工智能与生命科学:是由谷歌旗下团队基于深度学习算法的蛋白质结构预测的人工智能系统,其被视作人工智能深入到生物领域的一大突破。目前已对98.5%的人类蛋白质结构做出预测,此外还对于大肠杆菌、果蝇、斑马鱼、小鼠等研究时常用生物的蛋白质结构进行预测。与欧洲生物信息研究所(EMBL-EBI)联合发布由预测的蛋白质结构数据库— ,该数据库已包含约35万个蛋白质结构。
人工智能与新冠疫情:Eva是用于检测入境旅客新冠病毒的强化学习系统,其由美国南加州大学、美国宾夕法尼亚大学、以及希腊相关专家合作开发。2020年,Eva系统被部署到希腊所有入境口岸(机场、港口、车站等),用于识别限制新冠无症状旅客入境。借助Eva系统,希腊每天对抵达或途经该国大约41,000户家庭中约17%人员进行检测。通过比较,Eva发现感染的旅行者比原先严格按照其国籍检测的方式多1.25-1.45倍。与随机检测相比,Eva在旅游旺季发现感染的旅行者是前者的4倍,非旅游旺季的结果是随机检测的1.85倍,取得良好检测效果。
人工智能与半导体:功耗、性能和面积(PPA)是芯片设计中的三个重要优化指标。为使PPA优化结果更佳,同时为应对芯片安全性需求提升、设计规模攀升及工艺节点微缩等趋势,EDA厂商开始利用AI技术解决半导体芯片设计问题。在EDA中,数据快速提取模型、布局和布线、电路仿真模型、PPA优化决策等环节均有AI技术参与。AI应用于EDA主要有两种形式:1)应用于EDA工具以优化单一芯片设计环节,如、西门子EDA;2)应用于整体芯片设计流程优化,如、。此外,华大九天、台积电等公司亦将AI纳入芯片生产各个环节。将AI与芯片设计工作结合,不仅有助于释放人力成本、提升工作效率,还将进一步弱化人在其中的作用,甚至可能改变EDA产业格局。
▲EDA企业AI技术应用案例
人工智能与碳中和:自2015年第21届联合国气候变化大会后,碳中和已成为全球共识。当前,碳中和已获得全球超过40个国家和地区承诺,其中大部分国家宣布将于2050年左右实现碳中和目标。从整体来看,人工智能将从预测、监测、优化三大环节助力碳中和,如预测未来碳排放量、实时监测碳足迹、优化工作流程等。根据BCG数据,到2030年人工智能的应用有望减少26-53亿吨二氧化碳排放量,占全球减排总量5-10%。从行业来看,人工智能在不同领域及不同环节发挥重要作用,其主要在城市、制造、汽车、电力四大领域助力“碳中和”。
人工智能与冬奥会:2022年2月,第24届冬季奥林匹克运动会成功在北京举办。人工智能技术在冬奥会开幕式、比赛项目、运动员训练等多个场景实现应用,助力科技冬奥目标实现。Intel打造的3DAT技术,一方面可以帮助教练员提出科学训练计划,有效提升运动员训练效率,同时还可以在开幕式中实现与演员互动效果;商汤科技为冬奥会冰壶比赛打造的“冰壶运动轨迹捕捉”技术,实现对冰壶检测追踪和轨迹捕捉。未来,人工智能与体育赛事、体育运动的融合程度将逐步加深。
3、热点问题
人工智能产业发展的路径探究:结合人工智能产业特点,梳理出“创新投入—科研成果—商业化落地”的发展路径。其中,创新投入主要涉及人才投入、资本投入和要素投入;科研成果涵盖论文、开源软硬件和专利;商业化落地包含AI产品、AI解决方案和AI平台。当前人工智能产业从投入端到科研成果端发展较快,人工智能在学术研究领域不断取得突破。但另一方面,人工智能从技术成果到商业化落地环节仍面临诸多挑战,如算法训练的通用性不强、泛化能力不强、商业化成本较高、相关产业及企业对于人工智能技术接受程度不高等问题,需要不断从政策机制、技术发展以及管理层观念等方面不断完善,才能最终推动人工智能在商业化方面实现快速发展。
热点问题:伦理与安全:随着人工智能技术的高速发展与普及应用,由其产生的伦理与安全问题日益受到关注。人工智能不但延续信息技术的伦理问题,又因深度学习算法具有不透明、难解释、自适应、运用广泛等特征而在基本人权、社会秩序、国家安全等方面产生新问题。人工智能典型伦理问题包括:威胁公民生命安全、算法歧视、威胁隐私权、影响公民知情权和监督权、虚假信息泛滥、破坏市场竞争环境、引起权力结构变化、影响劳动者权益、AI武器威胁世界和平等问题。目前,全球人工智能治理尚处于初期探索阶段,各国正加大人工智能领域的治理力度,出台人工智能伦理相关制度,以预防AI在应用过程中产生的风险。未来,全球人工智能治理将由准则向操作指南、行业标准等层面逐步深入,加快构建人工智能国际治理体系。
就业:人工智能将通过改变劳动分工与人力资本价值结构深刻影响就业市场。AI与劳动力就业关系包含三个方面:1)当AI成本低于劳动力工资水平、且产品附加值又不足以弥补用工成本时,AI应用将直接替代相应劳动岗位;2)AI应用填补劳动者无法胜任的岗位,既可降低错误率,提高产品质量,也可保护人身安全和健康;3)AI应用催生新工作岗位,AI带来生产生活方式的变革与社会效率的提高,全社会产能实现跃升,进一步产生新工作岗位。世界经济论坛发布的《2020未来就业报告》预计,到2025年,机器可能会取代8,500万个工作岗位,在AI推动下经济增长会产生9,700万个新岗位。随着AI技术发展,工作岗位、员工技能和任务类型将重塑,就业替代呈现行业性特征,总体就业岗位数量仍将上升。
国家间技术限制:当前,开源深度学习框架、开源工具集、开源应用软件快速发展,国际间AI技术交流不断深入,但部分国家和政府间组织为保持自身AI技术优势,限制AI技术交流。如美国在2021年6月发布《创新与竞争法案》,在AI、无人机、芯片等多个领域限制与中国合作;美国商务部于2019年10月和2020年5月将商汤科技、科大讯飞等多家中国AI公司加入其实体清单,实施投资限制;2022年白宫修订“关键和新兴技术(CET)清单”,对AI技术具体分类并实行技术封锁。欧盟则于2021年9月通过最新出口管制法规,内容涵盖人脸识别等AI技术。上述相关政策与未来人工智能发展趋势背道而驰,不利于各国开展技术合作。
智东西认为,人工智能在60多年的发展过程中经历了几度起落。近年来,移动互联网高速发展带来的海量数据、深度学习算法的持续发展等共同推动人工智能技术在多个领域取得突破,与之前技术革命中的蒸汽机、电力等新技术相比,人工智能对经济社会的影响将更具颠覆性,成为新一轮科技革命和产业变革的重要驱动力量。