时间:2025-07-31 03:18 作者:最后的救赎
2030年,数据中心服务器半导体价值将达5000亿美元,数据中心服务器知识全解
本文由半导体产业纵横(ID:ICVIEWS)转载自iCCSZ
数据中心半导体加速器市场预计将在2024年开始规模化发展,到2030年估计达到4930亿美元。
人工智能(AI)正强劲驱动数据中心服务器内半导体价值的增长,预计到2030年,这一价值将达到约5000亿美元。服务器半导体含量的增加,主要源于存储、处理和互连对更多硅芯片的需求激增,而这在很大程度上是由AI、机器学习(ML)和前沿模型(Frontier Models)所推动。
采用AI的服务器数量正在快速增长,从2020年仅占全部计算服务器的几个百分点,上升到2024年的10%以上。这一增长遵循S型曲线模式:初期增长缓慢,随后快速攀升,预计在2026年后趋于稳定,并持续到2030年。数据中心半导体加速器市场预计将在2024年开始规模化发展,到2030年估计达到4930亿美元。届时,数据中心半导体预计将占整个半导体市场的50%以上,这反映了在AI、云计算和超大规模基础设施需求的推动下,市场格局发生了巨大转变。该细分市场(2025-2030)的年复合增长率(CAGR)几乎是整个半导体行业的两倍。
在构成上,逻辑半导体将继续占据主导地位,并且由于AI密集型工作负载日益增加的复杂性和处理需求,其增长最为迅速。内存,尤其是高带宽内存(HBM),是第二大细分市场,正经历快速增长,以满足AI和高效能运算(HPC)的高吞吐量需求。光子学和共封装光学(CPO)的扩展——由Nvidia和Broadcom等公司推动——也正在改变服务器架构。仅光子学领域,预计到2030年收入将达到数十亿美元。
在电源方面,数据中心设计的未来正被重新构想以实现最高效率。此前长期目标如直流(DC)配电,如今已成为积极优先事项。对能效要求极高的颠覆性AI数据中心,正在加速向液冷技术的转变,使其从可选变为必需。该市场预计到2030年将超过10亿美元。同时,AI和GPU密集型操作正推动整个服务器基础设施对嵌入式传感器智能的需求。随着热力和环境约束的增加,片上温度传感器正成为标准配置。此外,液冷系统将需要先进的传感器来有效监测压力、流速和冷却剂质量。
最后,预计到2030年,用于服务器的半导体晶圆数量将超过2000万片,其中大部分将在28纳米以下节点制造,以满足先进AI芯片的需求。
云巨头自研AI芯片挑战Nvidia主导地位
数据中心日益被视为关键基础设施,因为它们同时支持民用和军用系统,并存储高度敏感的数据。这促使各国政府更加关注国家安全,并通过支持本土技术供应商、收紧出口规则以及推广“主权云”系统(如欧洲的GAIA-X)来确保数据保留在本国或本地区域内。数据中心运营商现在需要强大且灵活的供应链,以应对制裁、短缺等问题。但在许多地方,所需的基础设施尚未完全本地化可用。与此同时,企业IT系统正朝着更具成本效益的托管(colocation)和混合云架构发展。托管有助于降低投资成本,同时仍让公司保持控制权;混合云则融合了私有云、公有云和本地资源,以实现更好的性能、扩展性和控制力。
AI是一个巨大的变革者。2024年,AI资本支出(CapEx)已超过非AI资本支出,AI如今占据了数据中心投资的近75%——这主要受基础模型训练、推理和定制硅芯片创新的驱动(2025年投资额将超过4500亿美元)。随着Microsoft、Google和Meta等科技巨头引领每年500亿美元的算力竞赛,规模较小的参与者也在快速扩张,这表明竞争优势将取决于基础设施规模和芯片级别的差异化。各公司也在适应不断变化的世界调整其业务。Nvidia正从传统的无晶圆厂(fabless)芯片制造商演变为一个全栈AI和数据中心平台提供商。虽然它继续设计GPU,但Nvidia现在也提供集成的系统,如DGX超级计算机、网络硬件(通过Mellanox)和数据处理单元(DPU),所有这些都通过其专有的CUDA软件和AI框架进行了优化。通过DGX Cloud和AI Enterprise等产品,Nvidia正在向云服务、开发者工具和垂直行业AI解决方案领域扩展。
因此,为了应对Nvidia的主导地位,大型云服务提供商正在创建自己的芯片(如AWS Graviton)、定制存储和网络硬件——并通过将服务器部署在更靠近用户的位置来支持低延迟需求。在中国,阿里巴巴、百度、腾讯和字节跳动等大型科技公司正在快速扩展其AI计算能力。
AI驱动数据中心成为创新引擎,多元技术重塑性能、效率与架构
自2024年以来,AI,尤其是生成式AI重塑了数据中心计算,影响了处理器设计,并加速了Google、AWS和Meta等主要云公司采用AI专用集成电路(ASIC)。Nvidia凭借其在台积电(TSMC)4纳米工艺上基于小芯片(chiplet)的Blackwell GPU保持主导地位,但用于推理的AI ASIC正日益受到关注。网络架构也在发展,数据处理单元(DPU)和网络ASIC被用于改进流量管理。快速、写入密集型的固态硬盘(SSD)对于AI训练至关重要,以避免GPU停机;而高带宽内存(HBM)正快速增长以满足不断上升的内存带宽需求。
基于绝缘体上硅(SOI)的硅光子学提供了光学组件的灵活集成,但缺乏原生光源。铌酸锂薄膜(TFLN)和石墨烯等新材料正被探索用于增强调制器。共封装光学(CPO)正在改变数据中心设计,由Nvidia和Intel等公司推动,它们的目标是将光子学与交换机ASIC共同集成。数据中心正转向直流(DC)电源、液冷和机架级电源配置(例如,到2026年实现600千瓦的“Ultra-Rubin”机架)。使用氮化镓(GaN)和碳化硅(SiC)的混合电源方案满足效率需求。
具有片上智能的传感器激增,以管理热力和环境负载。先进封装(3D/2.5D)对于集成高性能和AI系统的组件至关重要。未来的方向包括用于超高效设备端学习的神经形态系统、用于带宽密集型处理的光子计算,以及量子计算。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。
1、中国经济半年报丨重磅数据接连发布 多维度带你看中国发展“节节高”
2、强降雨致河北承德六道河镇部分村受灾,已造成8人遇难、18人失联,河北承德六沟
3、求佛问卜,不如团结起来当家做主,求佛问卜,不如团结起来当家做主什么意思