激起AI浪潮,多场景创新产业链空间广阔
AI创新浪潮兴起,多模态赋能下游行业
快速渗透,AI产业迎发展新机
是由公司开发的人工智能聊天机器人程序,于2022年11月发布,推出不久便在全球范围内爆火。
根据数据显示,达到1亿用户量用时仅2个月,成为史上用户增长速度最快的消费级应用程序。与之相比,达到1亿用户用了9个月,则花了2年半的时间。
从用户体验来看,不仅能实现流畅的文字聊天,还可以胜任翻译、作诗、写新闻、做报表、编代码等相对复杂的语言工作。
爆火的背后是人工智能算法的迭代升级。是基于GPT-3.5微调得到的新版本模型,能够借助人类反馈的强化学习(RLHF)技术来指导模型训练,实现模型输出与人类预期的需求,使对话内容更加人性化和富有逻辑性。
从2008年第一代生成式预训练模型GPT-1诞生以来,GPT系列模型几乎按照每年一代的速度进行迭代升级,未来随着大语言模型(LLM)技术的不断突破,AI相关应用有望加速落地,AI产业或将迎来新一轮发展机遇。
激起AI浪潮,大算力芯片迎来产业机遇
是生成式人工智能技术(AIGC)的一种,与传统的决策/分析式AI相比,生成式AI并非通过简单分析已有数据来进行分析与决策,而是在学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成全新的内容。
AIGC的应用非常广泛,包括自然语言生成、图像生成、视频生成、音乐生成、艺术创作等领域。AIGC产业链主要分为上游算力硬件层、中游数据/算法软件层和下游行业应用层。
硬件层依靠高性能AI芯片、服务器和数据中心为AIGC模型的训练提供算力支持,是承载行业发展的基础设施;
数据/算法层软件层主要负责AI数据的采集、清洗、标注及模型的开发与训练,多方厂商入局自然语言处理、计算机视觉、多模态模型等领域;
行业应用层目前主要涉及搜索、对话、推荐等场景,未来有望在多个行业呈现井喷式革新。
多模态赋能下游行业智慧化升级
多模态大模型有望成为AI主流,赋能下游行业智能升级。生成式AI主要依赖于人工智能大模型,如、BERT、GPT系列等。
这些模型通常包含数十亿至数万亿个参数,需要庞大的数据集进行训练,致使AI算力的需求也呈现出指数级的增长。
多模态是一种全新的交互、生成模式,集合了图像、语音、文本等方式,因其可以结合多种数据类型和模态的学习,将有望彻底改变我们与机器互动的方式,快速占据人工智能主导地位。
我们认为多模态大模型长期来看不仅可以从成本端降本增效,需求端也将通过快速渗透推广为下游行业带来持续增长需求,从而快速推动下游行业智慧化应用升级。
GPT-4性能提升显著,AIGC应用市场空间广阔
多模态模型是实现人工智能应用的关键。3月14日发布GPT-4多模态大模型,拥有强大的识图能力;文字输入限制提升至2.5万字;回答准确性显著提高;能够生成歌词、创意文本、实现风格变化。
在各种专业和学术基准上,GPT-4已具备与人类水平相当表现。如在模拟律师考试中,其分数在应试者前10%,相比下GPT-3.5在倒数10%左右。
多模态大模型在整体复杂度及交互性上已有较大提升,模型升级有望加速细分垂直应用成熟,赋能下游智慧化升级,带动需求快速增长。
算力芯片迎来产业机遇
AI芯片是人工智能的底层基石
AI人工智能的发展主要依赖两个领域的创新和演进:一是模仿人脑建立起来的数学模型和算法,其次是半导体集成电路AI芯片。
AI的发展一直伴随着半导体芯片的演进过程,20世纪90年代,贝尔实验室的杨立昆()等人一起开发了可以通过训练来识别手写邮政编码的神经网络。
在那个时期,训练一个深度学习卷积神经网络(,CNN)需要3天的时间,因此无法实际使用,而硬件计算能力的不足,也导致了当时AI科技泡沫的破灭。
激起AI浪潮,大算力芯片迎来产业机遇
算力硬件层是构成AIGC产业的核心底座,主要包括AI芯片、AI服务器和数据中心。AI芯片是算力硬件层的基石。
AI芯片主要分为CPU、GPU、FPGA和ASIC四类,CPU是AI计算的基础,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。
目前AI芯片主要被国际厂商垄断,根据、IDC数据,Intel和AMD共计占2022年全球数据中心CPU市场收入的92.45%,占2021年中国加速卡市场份额的80%以上。
AI服务器是AI芯片的系统集成。AI服务器采用CPU+加速芯片的架构形式,在进行模型的训练和推断时会更具有效率优势。与国外AI芯片厂商的垄断局面不同,中国AI服务器水平位于世界前列。
据IDC数据,在全球AI服务器市场竞争格局中,浪潮信息以20.2%的份额排名第一,联想和华为分别以6.1%和4.8%的份额位列第四、五名。
数据中心的计算服务是承接AI算力需求的直接形式。AIGC的模型训练是通常是通过云计算服务完成的,其本质是AIGC模型厂商借助IDC的算力资源,在云端实现模型的训练。
目前国内的数据中心厂商主要包括三大运营商、华为、联想、中科曙光等,提供云计算的厂商主要有阿里、腾讯等互联网企业。
芯片是底层土壤
AI芯片有望率先受益,CPU+XPU异构形式成为主流
AI芯片根据下游应用可分为训练、推断两类
机器学习主要包括训练()和推断()两个步骤,通常需要不同类型的AI芯片来执行。
训练是指通过大数据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能;推理是指利用训练好的模型,使用新数据推理出各种结论。
训练芯片:通过大量的数据输入,构建复杂的深度神经网络模型的一种AI芯片。需要较高的计算性能、能够处理海量的数据、具有一定的通用性,以便完成各种各样的学习任务,注重绝对的计算能力。
推断芯片:推断芯片主要是指利用训练出来的模型加载数据,计算“推理”出各种结论的一种AI芯片,注重综合指标,侧重考虑单位能耗算力、时延、成本等性能。
全球AI芯片有望达到726亿美元规模
AI芯片是AI算力的核心,需求有望率先扩张。AI芯片是用于加速人工智能训练和推理任务的专用硬件,主要包括GPU、FPGA、ASIC等,具有高度并行性和能够实现低功耗高效计算的特点。
随着AI应用的普及和算力需求的不断扩大,AI芯片需求有望率先扩张。根据IDC预测,中国AI算力规模将保持高速增长,预计到2026年将达1271.,CAGRA(2022-2026年)达52.3%。
在此背景下,IDC预测异构计算将成为主流趋势,未来18个月全球人工智能服务器GPU、ASIC和FPGA的搭载率均会上升,2025年人工智能芯片市场规模将达726亿美元。
云端/边缘端芯片同步发展
深度学习的应用开发可分成云端与边缘侧两大部分。云端指的是数据中心或超级计算机,具有强大的计算能力,利用海量数据进行模型训练,也可以进行推理。
边缘侧指的是数据中心外的设备,如自动驾驶汽车、机器人、智能手机、无人机或IoT设备,用训练好的模型进行推理。
根据场景不同,形成了两种不同要求的AI芯片:云端芯片:具有最大的计算能力和最高的性能,主要对深度学习算法模型进行训练,有时也进行推断。
目前云端主要以CPU+GPU异构计算为主,根据wind数据,在机器学习服务器和高性能服务器中,CPU+GPU的成本占比分别为83%与51%。
边缘端芯片:计算性能有限,主要使用从云端传来的训练好的模型和数据进行推断。在边缘侧或手机等端侧设备中,很少有独立的芯片,AI加速通常由SoC上的一个IP实现。
例如,苹果智能手机里最大的应用处理器(,AP)芯片就是一块带有AI核的SoC,这类SoC的性能一般可以达到5~。
AI芯片有望率先受益,CPU+XPU异构形式成为主流
云端训练和推断计算主要由Al服务器完成,底层算力芯片包括CPU、GPU、FPGA、ASIC等。CPU是AI计算的基础,负责控制和协调所有的计算操作。
在AI计算过程中,CPU用于读取和准备数据,并将数据来传输到GPU等协处理器进行计算,最后输出计算结果,是整个计算过程的控制核心。
根据IDC数据,CPU在基础型、高性能型、推理型、训练型服务器中成本占比分别为32%、23.3%、25%、9.8%,是各类服务器处理计算任务的基础硬件。
GPU、FPGA、ASIC是AI计算的核心,作为加速芯片处理大规模并行计算。具体来看,GPU通用性较强,适合大规模并行计算,且设计及制造工艺较成熟。
目前占据AI芯片市场的主要份额;FPGA具有开发周期短、上市速度快、可配置性等特点,目前被大量应用于线上数据处理中心和军工单位;
ASIC根据特定需求进行设计,在性能、能效、成本均极大的超越了标准芯片,非常适合AI计算场景,是当前大部分AI初创公司开发的目标产品。
CPU:底层核心算力芯片
CPU(t)中央处理器:是计算机的运算和控制核心(),是信息处理、程序运行的最终执行单元,主要功能是完成计算机的数据运算以及系统控制功能。
CPU擅长逻辑控制,在深度学习中可用于推理/预测。在深度学习中,模型的训练和推理是两个不同的过程:在训练过程中,模型需要进行大量的矩阵运算。因此通常使用GPU等擅长并行计算的芯片进行处理;
在推理过程中,需要对大量的已经训练好的模型进行实时的推理/预测操作,而这种操作通常需要高效的逻辑控制能力和低延迟的响应速度,这正是CPU所擅长的。
GPU:AI高性能计算王者
GPU(it)图形处理器:GPU最初是为了满足计算机游戏等图形处理需求而被开发出来的,但凭借高并行计算和大规模数据处理能力,逐渐开始用于通用计算。
根据应用场景和处理任务的不同,GPU形成两条分支:传统GPU:用于图形图像处理,因此内置了一系列专用运算模块,如视频编解码加速引擎、2D加速引擎、图像渲染等。
GPGPU:通用计算图形处理器(-)。为了更好地支持通用计算,GPGPU减弱了GPU图形显示部分的能力,将其余部分全部投入到通用计算中。
同时增加了专用向量、张量、矩阵运算指令,提升了浮点运算的精度和性能,以实现人工智能、专业计算等加速应用。
FPGA:可编程芯片加速替代
FPGA()现场可编程门阵列:FPGA最大的特点在于其现场可编程的特性,无论是CPU、GPU还是ASIC,在芯片制造完成后功能会被固定,用户无法对硬件功能做出更改。
FPGA在制造完成后仍可使用配套软件对芯片进行功能配置,将芯片上空白的模块转化为自身所需的具备特定功能的模块。
可编程性、高并行性、低延迟、低功耗等特点,使得FPGA在AI推断领域潜力巨大。FPGA可以在运行时根据需要进行动态配置和优化功耗。
同时拥有流水线并行和数据并行能力,既可以使用数据并行来处理大量数据,也能够凭借流水线并行来提高计算的吞吐量和降低延迟。
根据与非网数据,FPGA()在计算密集型任务的吞吐量约为CPU的10倍,延迟与功耗均为GPU的1/10。
ASIC:云计算专用高端芯片
ASIC()专用集成电路:是一种为专门应特定用户要求和特定电子系统的需要而设计、制造的集成电路。ASIC具有较高的能效比和算力水平,但通用性和灵活性较差。
能效方面:由于ASIC是为特定应用程序设计的,其电路可以被高度优化,以最大程度地减少功耗。
根据数据,FPGA的能效比集中在1-/mW之间。ASIC的能效比处于专用硬件水平,超过/mW,是FPGA的10倍以上。
算力方面:由于ASIC芯片的设计目标非常明确,专门为特定的应用场景进行优化,因此其性能通常比通用芯片更高。
根据头豹研究院数据,按照CPU、GPU、FPGA、ASIC顺序,芯片算力水平逐渐增加,其中ASIC算力水平最高,在1万-1000万Mhash/s之间。
国产芯片厂商加速布局
国产CPU多点开花加速追赶
全球服务器CPU市场目前被Intel和AMD所垄断,国产CPU在性能方面与国际领先水平仍有差距。
根据数据,在2022年全球数据中心CPU市场中,Intel以70.77%的市场份额排名第一,AMD以19.84%的份额紧随其后 。
剩余厂商仅占据9.39%的市场份额,整体上处于垄断局面;目前国内CPU厂商主有海光、海思、飞腾、龙芯、申威等。
通过产品对比发现,目前国产服务器CPU性能已接近Intel中端产品水平,但整体上国内CPU厂商仍在工艺制程、运算速度(主频)、多任务处理(核心与线程数)方面落后于国际先进水平。
生态体系逐步完善,国产GPU多领域追赶
全球GPU芯片市场主要由海外厂商占据垄断地位,国产厂商加速布局。全球GPU市场被英伟达、英特尔和AMD三强垄断,英伟达凭借其自身CUDA生态在AI及高性能计算占据绝对主导地位;
国内市场中,景嘉微在图形渲染GPU领域持续深耕,另外天数智芯、壁仞科技、登临科技等一批主打AI及高性能计算的GPGPU初创企业正加速涌入。
图形渲染GPU:目前国内厂商在图形渲染GPU方面与国外龙头厂商差距不断缩小。芯动科技的“风华2号”GPU采用5nm工艺制程,与最新一代产品RTX40系列持平,实现国产图形渲染GPU破局。
景嘉微在工艺制程、核心频率、浮点性能等方面虽落后于同代产品,但差距正逐渐缩小。
FPGA/ASIC国产替代正当时
FPGA全球市场呈现“两大两小”格局,与市占率共计超80%,和市占率共计超10%;整体来看,安路科技、紫光同创等厂商处于国际中端水平,仍需进一步突破。
工艺制程方面,当前国产厂商先进制程集中在28nm,落后于国际16nm水平;在等效LUT数量上,国产厂商旗舰产品处于200K水平,仅为高端产品的25%左右。
ASIC不同于CPU、GPU、FPGA,目前全球ASIC市场并未形成明显的头部厂商,国产厂商快速发展;通过产品对比发现,目前国产厂商集中采用7nm工艺制程,与国外ASIC厂商相同;
算力方面,海思的昇腾910在BF16浮点算力和INT8定点算力方面超越最新一代产品TPUv4,遂原科技和寒武纪的产品在整体性能上也与比肩。
未来国产厂商有望在ASIC领域继续保持技术优势,突破国外厂商在AI芯片的垄断格局。
AI算力需求,存储芯片受益
带动AI服务器需求,存储芯片受益。的数据获取、数据整理、训练、推理除大算力芯片外,还需存储芯片支持。
服务器成本构成:服务器成本包括算力芯片、存储器等,根据年服务器成本构成,在高性能服务器/推理型服务器/机器学习型服务器中存储占比29%/25%/16%。
AI服务器,除了内存需要128GB或更大容量的高性能HBM和高容量服务器DRAM,还需硬盘去存储大量数据。存储下游市场:智能手机+服务器+PC是主要下游。
智能手机端出货量增速有限,单机容量提升是主要推动力;服务器端,受益人工智能、物联网和云计算等应用兴起,服务器出货量及单机容量提升推动增长。
AI高算力对高带宽内存的需求
AI大算力需要的内存:大容量服务器DRAM和高带宽内存HBM。按照应用场景,DRAM分成标准DDR、LPDDR、GDDR三类。
JEDEC定义并开发了以下三类SDRAM标准,以帮助设计人员满足其目标应用的功率、性能和尺寸要求。
标准型DDR:针对服务器、云计算、网络、笔记本电脑、台式机和消费类应用程序,与CPU配套使用。
LPDDR:,针对尺寸和功率非常敏感的移动和汽车领域,有低功耗的特点。
GDDR:,针对高带宽(例如显卡和AI)的两种不同的存储器架构是GDDR和HBM。
AI助力企业级SSD市场扩容
AI助力企业级SSD市场扩容。SSD为固态硬盘,由NAND颗粒、主控芯片等构成,其中NAND颗粒占成本的70%。SSD按照用途分为消费级、企业级及其他行业级产品。
近年来随着云计算、大数据发展,互联网服务加速普及,企业加快数字化转型,数据呈现井喷状态,企业级SSD市场需求与规模不断攀升。
IDC数据显示,企业级SSD全球出货量将从2020年的约4750万块增长到2021年的5264万块左右,年均增长率为10.7%,预计到2025年,将增加到7436万块左右。
芯片需求增长拉动产业链机会
封测:是AI芯片大势所趋
AI产业机会-封测:是AI芯片大势所趋
当前AI芯片呈现几大趋势:制程越来越先进。从2017年英伟达发布芯片的12nm制程开始,业界一直在推进先进制程在AI芯片上的应用。英伟达、英特尔、AMD一路将AI芯片制程从16nm推进至4/5nm。
封装初露头角。2022年英伟达发布芯片,其芯片主体为单芯片架构,但其GPU与HBM3存储芯片的连接,采用封装。
在此之前,英伟达凭借-C2C实现内部芯片之间的高速连接,且芯片的连接标准可与业界的统一标准Ucle共通。
年发布的是业界首次在AI芯片上采用更底层的架构,实现CPU和GPU这类核心之间的连接。
2020年以来头部厂商加速在AI芯片的布局。AI芯片先行者是英伟达,其在2017年即发布芯片,此后2020以来英特尔、AMD纷纷跟进发布AI芯片,并在2022、2023年接连发布新款AI芯片,发布节奏明显加快。
AI产业机会-封测:是AI芯片大势所趋
制程越先进、芯片组面积越大、小芯片(Chips)数量越多,封装较SoC单芯片封装,成本上越有优势:主要封装形式有MCM/InFO/2.5D这三种。
14nm制程下,当芯片面积超过700mm²时,封装中的MCM成本开始较SoC低,当面积达900mm²时,MCM较SoC成本低近10%(2颗chips)、或低20%(3颗chips)、或低25%(5颗chips);
7nm制程下,芯片面积超过400mm²时,MCM成本开始低于SoC,面积超过600mm²时,InFO成本开始低于SoC,当面积达900mm²时,5颗chips情况下,MCM较SoC成本低40%、InFO较SoC成本低20%;
5nm制程下,芯片面积超过300mm²时,MCM成本开始低于SoC,成本超过500mm²时,InFO成本开始低于SoC,当面积达900mm²时,5颗chips情况下,MCM较SoC成本低50%、InFO较SoC成本低40%、2.5D较SoC成本低28%。
鉴于当前AI芯片朝高算力、高集成方向演进,制程越来越先进,在更先进制程、更复杂集成中降本优势愈发明显,未来有望成为AI芯片封装的主要形式。
PCB:AI服务器基石
AI产业机会-PCB:AI服务器基石
数据运算量增长快速,带动服务器/交换机/显卡等用量提升,布局相应领域PCB公司显著受益。
带来了算力需求的激增,与之对应亦带来相应服务器/交换机等作为算力核心载体和传输的硬件,带来PCB需求大幅增长。
同时随着对算力的要求越来越高,对于大容量、高速、高性能的云计算服务器的需求将不断增长,对PCB的设计要求也将不断升级,提升对于高层数、大尺寸、高速材料等的应用。
以23年发布的新服务器平台为例,Pcie5.0服务器用PCB层数、材料、设计工艺均有升级,PCB价格提升显著,其层数从4.0的12-16层升级至16-20层。
根据的数据,2021年8-16层板的价格为456美元/平米,而18层以上板的价格为1538美元/平米,PCB价值量增幅明显;
另外配套新服务器,交换机、传输网产品都需要同步升级,预计400G、800G交换机对PCB板子拉动巨大,进一步带动数通板景气度提升。
带动服务器用量增长及平台升级,预计2025年服务器PCB市场超160亿美元,2021-达21%。
随着对服务器用量增长及平台升级,对应PCB的板材、层数、工艺复杂的均显著提升,预计2025年全球服务器PCB市场规模超160亿美元,2021-2025年CAGR达21%,成为PCB增长最快的下游之一。