集邦咨询:2024年Copilot进入商用 将同步带动AI Server及终端AI PC发展

博主:汽车宝贝汽车宝贝 2024-01-20

智通财经APP获悉,集邦咨询研究报告指出,2024年将拓展至更多边缘AI应用,或延续AIserver基础,推至AIPC等终端装置。预期2024年全球AI服务器(包含AITraining及AIInference)将超过160万台,年成长率达40%,而后续预期CSP也将会更积极投入。目前AIPC市场可大致分为两大推动力量,其一,由终端应用需求推动,主由Microsoft凭借个人计算机Windows操作系统及Office等工具几近独占市场地位,预期将推新一代Windows整合Copilot,促使Copilot变成硬需求。其二,CPU领先者Intel诉求AIPC为搭配CPU+GPU+NPU架构,借此推动发展各种终端AI应用。

由于严谨的EdgeAI应用,将回归至终端的AIPC,借以落实分散AI服务器的工作量能,并且扩大AI使用规模的可能性。据此,集邦咨询定义AIPC需达Microsoft要求的40TOPS算力基础,考量满足此需求的新品出货都将落于2024下半年,待CPU产业龙头Intel于2024年终推出LunarLake后,2025年才可望见证更快速的成长。

以MicrosoftCopilot对算力的要求来说,Qualcomm于2023年底发布的SnapdragonXElite平台,将于2024年下半年前率先出货符合Copilot标准的CPU,算力应可达45TOPS,而AMD随后将推出的Ryzen8000系列(StrixPoint),估计也将符合该算力规格。若以Intel于2023年12月推出的MeteorLake,其CPU+GPU+NPU算力仅34TOPS,并不符合Microsoft要求,但预期今年底所推LunarLake则有机会超过40TOPS门槛。

值得注意的是,未来在Qualcomm(QCOM.US)及Intel(INTC.US)、AMD(AMD.US)竞逐AIPC过程,也将牵动x86及Arm两大CPU阵营在EdgeAI市场的竞争。由于Qualcomm有望率先符合Microsoft需求,以PC主要OEMs如Dell、HPE、LENOVO、或ASUS、ACER等在2024年将陆续开发搭载QualcommCPU机种,以争取首波AIPC机会,将带给X86阵营一定威胁。

AIPC有望带动PC平均搭载容量提升,并拉高PCDRAM的LPDDR比重

从现有Microsoft针对AIPC的规格要求来看,DRAM基本需求为16GB起跳,长期来看,集邦咨询认为,AIPC将有机会带动PCDRAM的位元需求年成长,后续伴随着消费者的换机潮,进而加大产业对PCDRAM的位元需求。

再者,以Microsoft定义的满足NPU40TOPS的CPU而言,共有三款且依据出货时间先后分别为QualcommSnapdragonXElite、AMDStrixPoint及IntelLunarLake。其中,三款CPU的共同点为皆采用LPDDR5x,而非现在主流采用的DDRSO-DIMM模组,主要考量在于传输速度的提升;以DDR5规格而言,目前速度为4800-5600Mbps,而LPDDR5x则是落于7500-8533Mbps,对于需要接受更多语言指令,及缩短反应速度的AIPC将有所帮助。因此,集邦咨询预期,今年LPDDR占PCDRAM需求约30~35%,未来将受到AIPC的CPU厂商的规格支援,从而拉高LPDDR导入比重再提升。