热传商务网-热传散热产品智能制造信息平台

计算机温控行业专题报告:AIGC加速芯片级液冷散热市场爆发

作者:浙商证券,张建民,汪洁 2023-02-15 21:53:53 产品终端应用

image.png

(报告出品方/作者:浙商证券,张建民,汪洁)

核心观点:

AIGC拉动算力需求高增长。AIGC以大模型、大数据为基础。AIGC中的生成式模型/多模态主要为对智能算力的需求。2021年全球计算设备算力总规模/智能算力规模615/232EFlops,2030年有望增至56/52.5ZFlops,CAGR65%/80%;平均算力翻倍时间缩至9.9个月。

芯片级液冷成主流散热方案。功耗增加驱动散热需求升级:Intel CPU功耗突破350W/英伟达GPU 功耗突破700W,AI集群算力密度普遍达到50kW/柜。 风冷散热已趋于能力天花板:机柜功率超过15kW是风冷能力天花板,液体导热性能是空气的15-25倍,升级液冷需求迫切。 散热越来越贴近核心发热源:预计将从房间级、机柜级、服务器级向芯片级演进。 政策监管趋严加速液冷渗透:温控系统的能耗是降低PUE关键因素之一,双碳背景下东数西算节点PUE要求1.25/1.2以下。

芯片级液冷开启百亿级市场。2021年全球AI服务器市场规模156亿美元,预计到2025年达318亿美元,CAGR 19.5%;2021年中国AI服务器市场规模350亿元,预计2025年达702亿元, CAGR 19.0%;AIGC有望进一步拉动增速。 AI服务器芯片级液冷需求百亿级:匡算2025年全球、中国AI服务器液冷市场规模223-333亿元、72-108亿元; 通用服务器进一步带来弹性:匡算2027年通用市场液冷规模,全球保守269-361亿元 /全球乐观702-941亿元;国内保守78-104亿元/国内乐观 203-272亿元。

1、AIGC拉动算力需求高增长

算力规模未来高速增长,AIGC拉动算力需求

AIGC以大模型、大数据为基础。大模型是指通过在大规模宽泛的数据上进行训练后能适应下游任务的模型,大模型出现后: 模型参数量级式提升: ChatGPT是OpenAI对其2020年发布的GPT-3模型微调后开发出的对话机器人, GPT-3模型参数量1750亿,2018年6月推 出的GPT-1、2019年2月推出的GPT2模型参数量仅1.17亿、15亿,2021年1月Google推出的SwitchTransformer模型参数量进一步提升到1.6万亿。 需求多元化加速算力多样化升级:算力按照需求匹配,可分为基础算力、智能算力及超算算力。未来,全球扩增的数据中80%以上都是非结构 化数据(文本、图片、语音、视频等)。AIGC中的生成式模型/多模态,主要为对智能算力的需求。

全球算力高速发展态势:2021年,全球计算设备算力总规模达到615EFlops,增速44%。2030年,有望增至56ZFlops,CAGR达到65%,其中智能 算力由232EFlops增至52.5ZFlops,CAGR超过80% ; 算力翻倍时间明显缩短:大模型出现后,带来了新的算力增长趋势,平均算力翻倍时间为9.9个月。

2、芯片级液冷成主流散热方案

2.1算力提升,散热需求升级

算力提升的背后,芯片必须具备更高计算效率,在更短时间内完成更多运算,因而必然伴随芯片能耗的加大:ODCC《冷板式液冷服务器可靠性白 皮书》信息,2022年Intel第四代服务器处理器单CPU功耗已突破350瓦,英伟达单GPU芯片功耗突破700瓦,AI集群算力密度普遍达到50kW/柜。芯片工作温度会显著影响性能,功率密度的增加使芯片的热流密度显著升高使芯片温度升高。传统芯片中,用于冷却的体积占98%,只有2%用于 计算运行,但是依然很难解决现在存在的散热问题,随着芯片性能的持续快速提升,散热问题将愈加突出。

2.2散热向芯片级演进趋势

散热设备越来越贴近芯片等核心发热源是重要趋势,未来散热预计将从房间级、机柜级、服务器级向芯片级演进,通过散热部件与芯片表面直接接 触实现更好的芯片散热。

2.3采用更加高效的冷却介质

而在冷却介质的选择上,也进一步趋于选择冷却效率更好的冷却介质。CDCC数据,液体的导热性能是空气的15~25倍,随着热密度的提升,液冷 有望替代风冷实现更高效散热。 英特尔《绿色数据中心创新实践--冷板液冷系统设计参考》白皮书信息,采用风冷的数据中心通常可以解决12kW以内的机柜制冷,机柜功率超过 15kW,相对于现有的风冷数据中心,已经到了空气对流散热能力的天花板,液冷技术作为一种散热能力更强的技术,可以支持更高的功率密度。

2.4PUE趋严,进一步要求散热效率

温控系统能耗占数据中心非IT能耗的80%,温控系统的能耗是PUE是否能降低到合理水平的关键因素之一。 双碳背景下,PUE要求持续趋严。东数西算数据中心集群起步区建设目标:京津冀、长三角、粤港澳大湾区、成渝节点的起步区数据中心电能利用 效率指标控制在1.25以下,内蒙古、贵州、甘肃、宁夏节点的数据中心电能利用指标控制在1.2以下。

2.5芯片级液冷有望成为未来主流

当前芯片级散热方案主要涵盖液冷技术、相变储热散热技术、蒸发冷却技术等,液冷技术是芯片级散热重要方案之一,有望成为未来主流。液冷技 术中,涵盖冷板、浸没、喷淋等。当前来看,冷板式和浸没式较喷淋式发展相对成熟。英特尔发布冷板液冷白皮书。2022年8月英特尔中国数据中心合作伙伴技术峰会上,英特尔发布《绿色数据中心创新实践--冷板液冷系统设计参考》 白皮书,分享冷板液冷技术关键部件的最新研究进展,有望加速芯片级液冷的产业发展。

3、芯片级液冷开启百亿级市场

3.1AIGC将拉动AI服务器增长

AIGC带动,未来AI服务器增长持续乐观。参考IDC数据,2021年全球AI服务器市场规模156亿美元,预计到2025年全球AI智能服务器市场将达到318 亿美元,CAGR 19.5%;2021年中国AI服务器市场规模达350亿元,预计2025年中国AI服务器市场规模将达到702亿元,CAGR 19.0%。AIGC有望 进一步加速拉动AI服务器增长。

3.2匡算25年AI服务器芯片级液冷需求百亿级

我们匡算2025年全球、中国AI服务器液冷市场规模223-333亿元、72-108亿元: AI服务器选取高性能GPU等,2022年3月英伟达H100功耗已经700W,结合GPU/CPU功耗,以及浪潮等服务器产品规格信息,综合假设单台服务器功 耗5kw,假设功耗每年提升30%; 中国移动2021年至2022年人工智能通用计算设备集采价格,4400台AI服务器合计中标金额11.63亿,单台价格26.4万元; 假设当前风冷成本3225元/kw,冷板式液冷4031元/kw,浸没式液冷11818元/kw(《基于价值工程的数据中心液冷与风冷比较分析》,山东科 普Keputech);参考通信行业设备规律,假设冷板式年降5-10%,浸没式年降20-30%。

3.3通用服务器进一步带来弹性

匡算2027年通用市场液冷规模,全球保守269-361亿元、全球乐观702-941亿元;国内保守78-104亿元,中国乐观203-272亿元: IDC数据,2021年全球、国内服务器出货1354、391万台;Digitimes Research预计2022年-27年全球服务器出货量复合年均增长率6.1%; 当前小型服务器功率小型服务器功耗约400-500w,假设单机柜安装15台服务器,对应功率6-7.5kw,假设保守、乐观每年功耗提升20%、30%,预计 2027年单机柜服务器规模将分别达到14.9-18.7kw(保守)、22.3-27.8kw(乐观),预计将大幅应用液冷。

4、重点企业分析

4.1英维克:端到端全链条液冷前瞻布局

英维克是温控行业龙头,研究全系统电子散热解决方案,在液冷领域端到端布局,并且针对液冷服务器厂商推出服务器级散热、机柜级散热、一体 化机柜级散热、数据中心级散热、风冷散热部分的高效冷却方案、浸没液冷方案6大解决方案。 公司已经在冷板式液冷赢得一些重要项目,开始为超聚变提供全链条液冷解决方案;与英特尔等联合发布《绿色数据中心创新实践冷板液冷系统设 计参考》白皮书,进一步印证公司实力,有望充分受益,打开新的成长空间。 预计2022-24年归母净利润2.36亿元、3.31亿元、4.68亿元,同比增15%、40%、42%,对应PE 67、48、34倍,芯片级液冷带来新弹性。

4.2高澜股份:已实现相关产品的样件及小批量供货

公司是国内领先的液冷解决方案提供商,特高压直流、海风柔直、储能、数据中心等领域发展预期乐观,有望推动公司2023年业绩明显改善。 公司可提供冷板式液冷服务器热管理解决方案、浸没式液冷服务器热管理解决方案以及集装箱液冷数据中心解决方案,服务器液冷产品涵盖了服务 器的冷板、水泵、户外机房、冷却塔和空冷器等,基本覆盖服务器液冷全链条的产品需求;公司已与国产GPU企业芯动科技达成战略合作;目前已 实现服务器液冷相关产品的样件及小批量供货。22Q3合同负债0.87亿同比增109%,主要系服务器液冷产品预收款增加所致。第一大股东一致行 动人拟全额认购定增,增厚公司未来发展信心和决心;预计2023-24年归母净利润1.34、1.80亿元;PE 32、24倍。


作者:浙商证券,张建民,汪洁
来源:未知
版权与免责声明:
①凡本网注明"信息来源:热传商务网"的所有文章,版权均属于本网,未经本网授权不得转载、摘编或利用其它方式使用。
②来源第三方的信息,本网发布的目的在于分享交流,不做商业用途,亦不保证或承诺内容真实性等。如有侵权,请及时联系本网删除。联系方式:7391142@qq.com
阅读:363