通信行业专题报告:算力底座,算力承载与网络中枢

(报告出品方/作者:华金证券,李宏涛)

算力进展

趋势一:大模型发布持续超预期发展

ChatGPT模型的推出持续超预期发展。1)ChatGPT注册用户激增,5天突破百万;2)GPT模型不断迭代:GPT3于20年6月推出,在2022年11月推出的GPT3.5基础上再次更新,23年6月推出GPT 3.5 turbo 16K。3)AI渗透千行百业:基于大模型的多场景应用也不断拓展。拉动智能算力规模高速增长。根据OpenAI的研究,AI训练所需算力指数增长,且增长速度超越硬件的摩尔定律。

趋势二:数字基础设施建设加速,景气度提升

1、我国数据中心总体建设进度加速。据《数字中国发展报告》,我国数据中心机架总规模2022年达到650万机架,比去年增长130万架,近5年年均增速超过30%。

2、算力基础设施采购量明显提升。以移动为代表的公司,采购交换机数量加大,移动公司2023-2024年采购交换机30660台,其中特定场景交换机需求放量增长,采购15330台。

趋势三:模型百花齐放,推动AI在各领域广泛应用

1、国内模型百花齐放:众多公司推出大模型,比如阿里推出通义千问、腾讯推出混元,百度的文心一言大模型,科大讯飞的星火大模型;

2、面向垂直行业的大模型应用效果显著:紫天科技旗下河马游戏推出《大侦探智斗小AI》,下载量进入榜单TOP10;医联所推出的MedGPT具备全流程智能化诊疗能力,与三甲专家诊断一致性超96%。“天擎”美亚公共安全大模型,具备警务意图识别、警务情报分析、案情推理等推理能力,可实现全流程闭环进化。将重构两大应用场景:电子数据取证和智慧警务系统。

Transformer架构是AI大模型与传统模型不同的核心

Transformer模型是AIGC大模型与传统模型不同的核心。AIGC大模型起源于NLP,并基于Attention机制构建Transformer模型。传统模型多基于CNN 和 RNN 结构。

Transformer模型架构是现代大语言模型所采用的基础架构。Transformer模型是一种非串行的神经网络架构,最初被用于执行基于上下文的机器翻译任务。Transformer模型以Encoder-Decoder架构为基础,引入“注意机制”(Attention),具有能够并行运算、关注上下文信息、表达能力强等优势。

底层架构各异导致训练参数不同

底层架构的不同导致训练参数的要求不同。以Transformer为架构的大模型一般可达百亿、千亿、万亿级别,而以CNN或RNN为底层架构的传统模型则是亿级别及更少级别。

AI大模型参数级别庞大,需要强大的算力和硬件支撑。以ChatGPT3.0为例进行拆解,训练一次的成本约为140万美元。对于一些规模更大的模型来说,训练成本介于200万美元-1200万美元之间。

AI大模型带动并行计算,训练消耗更多算力

训练和推理是大模型运行的重要环节。训练环节是大模型的学习过程,可提高模型在各种任务上的性能。推理环节是大模型的判断过程,利用已有训练效果对新的输入进行预测和决策。

训练和推理需要大量算力支撑,其中训练消耗更多。援引Open AI测算,自2012年起,全球头部AI模型训练算力需求每3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍。而推理阶段则根据模型上线后的搜索量来计算,新输入数据的量级相较于训练环节的大规模数据量级较低。

进展:国外大模型—通用模型领先,商业化首落地

国外大模型主要以美国高科技公司为主。Google、Meta、微软等美国公司处于了世界大模型发展的领先地位,现在几乎所有AI大模型训练时采用的Transformer网络结构,Transformer的提出让大模型训练成为可能。

微软产品Copilot实现商业化落地。Copilot产品基于GPT-4,将生成式AI能力全面应用于各大办公套件,可作为办公场景下智能写手。7月18日,Copilot提供订阅收费服务,每名用户每月的价格从12.5美元到57美元不等。产品的商业化落地体现出企业对人工智能的未来前景持续看好。

进展:国内大模型—通用和垂直两条路演绎

国内AI大模型数量呈现爆发式增长。国内公开发布的大模型已达80多个。研究大模型的公司有百度、商汤、科大讯飞、华为、阿里、京东、第四范式等公司。同时科研机构也在积极入局,有清华大学、复旦大学、中科院等高校。

国内大模型分为通用和垂直应用。文心一言、通义千问等打造跨行业通用化人工智能能力平台,其应用正从办公、生活、娱乐向医疗、工业、教育等加速渗透。与此同时,一批针对生物制药、遥感、气象等垂直领域的专业类大模型,提供针对特定业务场景的专业化解决方案。

资本支出:支出加速,运营商有望成为国内主力军

全球云服务CAPEX持续增长。受益于大模型的持续发展,2023Q1全球云基础设施服务支出增长19%,前三大云厂商AWS、Azure和谷歌云共同增长22%。云服务成为IT市场中增长最快的部分之一。

三大运营商成为国内网络建设主力军。三大运营商中国移动、中国电信、中国联通不断加大算力投入,优化算力网络布局。根据三大运营商数据,预计2023年算力投入分别为 452/195/149 亿元,分别同比+35%/+40%/+20%。

建设计划:政府—智算中心建设开启,国内需求逐步释放

国内智算中心建设明确,后续需求有望逐步释放。多地政府出台算力规划、三大运营商加速筹备智算中心建设以及互联网厂商多地智算中心建设规划。智能计算中心的建设,整合数据资源结构的同时,也带来更为完善且健全的算力、算法基础设施,为人工智能技术的创新及应用提供强有力的支撑。

规模:算力增长助力AI服务器规模化布局

算力持续增长,AI服务器应用场景更加广泛。Trendforce预估,预估2022年全球搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,即约14万台。预计2023年其出货量年成长可达8%,到2026年预计全球搭载GPGPU的AI服务器出货量将达到22.5万台左右,2022~2026年CAGR将达10.8%。

中国AI算力市场高速发展,将成为第二增长极。根据IDC预测,到2027年中国加速服务器市场规模将达到164亿美元。其中非GPU服务器市场规模将超过13%。智慧城市、智能机器人、智能家居、工业领域将成为主要应用领域。

AI服务器:为计算而生,性能全方面升级

按照GPU数量分类:Al服务器主要采用加速卡为主导的异构形式,更擅长并行计算。与通用服务器按照CPU数量分类不同,Al服务器一般仅搭载1-2块CPU,GPU数量显著占优。按GPU数量,可分为四路、八路和十六路服务器,其中搭载8块GPU的八路Al服务器最常见。

AI服务器相较于普通服务器存在各方面升级。AI服务器增加了GPU的使用数量,相配套的在带宽、散热、内存、存储等方面也会有相应升级。

传统服务器需求:下游需求多点开花,金融行业投资加速

服务器下游需求多点开花。下游需求主体为互联网企业、云计算企业、政府部门、金融机构、电信运营商等。其中互联网行业占比43.8%,位列第一。在互联网行业中服务器需求主要集中在快手、百度等大型企业。运营商、金融、政府占比分别为10.6%、9.9%、9%。

各行业服务器投资支出不断提升:IDC统计数据显示,2022年全球云基础设施支出达到了750亿美元,比2021年的650亿美元提高了15.4%,全球金融行业对服务器的投资增长了20%,达到180亿美元。

AI服务器供给:国内芯片性能及产能受限

英伟达芯片产能不足,限制服务器量产:AI服务器需要配备4-8颗GPU,英伟达在GPU市场占有绝对优势,占据全球八成市场份额。其产能有限,同时受到美国禁售影响,影响服务器产能。 国产替代化正当时,但仍存在差距:国产寒武纪、昇腾也研发出AI芯片,寒武纪的思元芯片目前多应用在推理场景,通用性较弱,性能不足。

网络架构:传统三层网络——管理网络的经典稳定架构

核心层(Core Layer):核心交换机为进出数据中心的包提供高速的转发,为多个汇聚层提供连接性,核心交换机通常为整个网络提供一个弹性的L3路由网络。 汇聚层(Aggregation Layer):汇聚交换机连接接入交换机,同时提供其他的服务,例如防火墙,SSL offload,入侵检测,网络分析等。它可以是二层交换机也可以是三层交换机。 接入层(Access Layer):接入交换机通常位于机架顶部,所以它们也被称为ToR(Top of Rack)交换机,它们物理连接服务器。通常情况下,汇聚交换机是 L2 和 L3 网络的分界点:汇聚交换机以下的是 L2 网络,以上是 L3 网络。每组汇聚交换机管理一个POD(PointOf Delivery),每个POD内都是独立的 VLAN 网络。

随着数据中心内流量的快速增长和数据中心规模的不断扩大,传统的三层网络拓扑结构不能满足的数据中心内部高速互连的需求,慢慢演进为leaf-spine叶脊架构,叶脊架构分为两层:Leaf(叶)交换层、Spine(脊)交换层。 Spine(脊)交换层:网络核心节点,提供高速 IP 转发能力,通过高速接口连接各个功能Leaf 节点。 Leaf(叶)交换层:网络功能接入节点,提供各种网络设备接入功能。

网络架构:基于叶脊的升级——动态分布式网络架构

谷歌数据中心第五代架构Jupiter Network Fabrics。Jupiter可以视为一个三层Clos。Leaf交换机作为ToR(top-of-rack架顶式交换机),向北连接到名为Middle Block的Spine交换机,再向北还有一层Super Spine名为Spine Block。 Apollo结构。Super spine方案的交换机数量可以一直增长,新增交换机需要和原有的Pod全部互联。为解决互联问题,谷歌在Spine层和Pod层之间加入Apollo Fabric。此结构解除了Spine Block和Super Block的直连,但又能够动态地调整连接关系,高效实现了全互联,动态地调整网络流量的分布。

数据中心交换机:主流100/200/400/800G交换机

数据中心交换机根据接口速率不同,可分为100/200/400/800G交换机;不同速率交换机的单板能力(每个插槽的端口数量或者带宽)越来越强,所有端口升级一次其传输容量将直接翻倍。 我国主要厂商突破技术瓶颈,实现快速发展。新华三旗下S10500、S12500等系列交换机,多采用CLOS架构,提供Seerblade高性能AI计算模块,目前已形成了完整的数据中心产品体系。华为主推CloudEngine系列数据中心交换机,系列基于华为新一代的VRP8操作系统,2023Q1该系列以34.6%的份额排中国数据中心交换机市场第一,其中16800-X为全球首款800GE数据中心核心交换机。

CPO交换机:硅光技术的最终形态(封装角度)

CPO交换机,应用CPO(Co-Packaged Optics)光电共封装技术,将网络交换芯片和光模块共同装配在同一个插槽上,形成芯片和模组的共封装,可以缩短交换芯片和光引擎之间的距离,以帮助电信号在芯片和引擎之间更快地传输。 CPO具备高密度、低成本、小体积、低功耗的特点,成为AI高算力情况下降低能耗从而降低成本的可选方法。海外市场,高速率板块对CPO需求更为迫切,国内上量节奏紧随其后。

算力测算与算力租赁

架构比较:传统数据中心-三层架构基础要素配比

机柜数:服务器数:交换机数=1:20:2(机柜数:250台;服务器数量5000台,交换机数量500台左右)。依据1、传统数据中心,每台机柜的占地面积3-5㎡,此处取均值4进行计算。 依据2、超大型数据中心面积大于2000㎡,大型数据中心为800-2000㎡,此处取1000㎡进行计算。依据3、按照42U高的标准机柜来存放2U/550W的服务器,可存放20台左右服务器,此处取20进行计算。

机柜数:服务器数:交换机数=1:20:0.4(机柜数:250台;服务器数量5000台,交换机数量100台左右)。依据1:叶脊架构将传统三层架构变为两层,扁平化处理提升网络效率。 依据2:配比数据计算仍以1000㎡数据中心,250台单机柜,5000台服务器。 依据3:以设计网络时的收敛比不超过3:1的标准来计算,即上行口与下行口的配比数量不超过3:1。

算力测算逻辑:2022年训练用算力为95Eflops

市场规模:根据测算,2022年中国AI芯片市场中,英伟达GPU模约为150亿; 总量:按照10万/片,共计A100芯片15万片A100芯片; 算力:按照单台DGX A100算力为5P FLOPS计算,折合1.9万个英伟达A100 AI服务器;可提供95Eflops算力。

依据1:2022年我国AI芯片市场300亿元;从我国AI芯片市场规模细分来看,其中2022年中国云端领域芯片市场规模为152.96亿元,占总市场规模的49.2%;终端领域芯片市场规模为156.54亿元,占总市场规模的50.6%。

依据2:假设2022年GPU占比为50%。AI芯片2023年出货量将增长46%。其中英伟达GPU为AI服务器市场搭载主流,市占率约60~70%,其次为云端厂商自主研发的AISC芯片,市占率逾20%。

算力紧缺背景下,算力租赁景气度提升

按照《中国算力白皮书(2022年)》的定义,算力主要分为四部分:通用算力、智能算力、超算算力、边缘算力。 通用算力以CPU芯片输出的计算能力为主;智能算力以GPU、FPGA、Al芯片等输出的人工智能计算能力为主;超算算力以超级计算机输出的计算能力为主;边缘算力主要是以就近为用户提供实时计算能力为主,是前三种的组合,边缘算力只是解决网络延迟的问题,不算一种新的算力。 各地都在加速建设数据中心,打造关键基础设施算力网络,全国的算力规模会保持高速增长。

算力商业机会演进的路线选择

算力下一站:政府算力平台建设

政府驱动加速算力落地。近期北上广深政府出台一系列促进算力落地的政策,如北京提出了到2025年基本建成具有全球影响力的人工智能创新策源地;上海提出了2025年数据中心超过18000PFLOPS;深圳与科技部共同布局国家超算深圳中心二期项目。我们认为地方国企背景公司有望成为地方智算中心的建设方和运营方,如云赛智联,母公司为仪电集团,是上海国资系统的数据中心运营商和云服务运营商,中标上海超算中心项目;广电运通,背靠广州国资委,搭建省算力中心,承建广州人工智能公共算力中心以及多个政府部门重点算力工程项目。

从招标文件看算力对数据中心增量机会:液冷

液冷是指借助高比热容的液体作为热量传输介质满足服务器等IT设备散热需求的一种冷却方式,以云计算为代表的传统数据中心,主要以CPU芯片为主,平均功耗为50-100W;AI芯片普遍功耗高,英伟达A100芯片,功耗达300-400W。 目前国内传统数据中心以风冷为主,云计算数据中心、智算中心以冷板式液冷为主,超算中心主要以浸没式液冷为主。冷却力是空气的1,000-3,000倍,相比传统风冷系统约节电30%-50%;2022-2027年,中国液冷服务器市场年复合增长率将达到56.6%,2027年市场规模将达到95亿美元。

从招标文件看算力对数据中心增量机会:智算可视化

AI应用的升级和优化,需要海量的网络数据,网络可视化是网络数据的源头,网络可视化主要功能是对网络数据进行监测、管理。以网络流量的采集与深度检测为基本手段,实现网络管理、信息安全与商业智能的一类应用系统。 恒为科技与中贝通信技术团队已围绕高速光模块在智算可视化上的应用开展深度合作,恒为科技的网络可视化产品主要部署在运营商宽带骨干网、移动网、IDC出口、以及企业和行业内部网络等不同场景,在其主要网络节点通过多种物理链路信号采集技术,进行全流量数据采集。

报告节选:

通信行业专题报告:算力底座,算力承载与网络中枢

通信行业专题报告:算力底座,算力承载与网络中枢

通信行业专题报告:算力底座,算力承载与网络中枢

通信行业专题报告:算力底座,算力承载与网络中枢

通信行业专题报告:算力底座,算力承载与网络中枢

通信行业专题报告:算力底座,算力承载与网络中枢

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:【未来智库】。「链接」


友情提醒: 请添加客服微信进行免费领取流量卡!
QQ交流群:226333560 站长微信:qgzmt2

原创文章,作者:sunyaqun,如若转载,请注明出处:https://www.dallk.cn/4238.html

(0)
sunyaqunsunyaqun
上一篇 2023年10月2日
下一篇 2023年10月3日

相关推荐

发表回复

登录后才能评论