东方证券:液冷,顺应低碳数字时代需求的高效冷却技术.pdf
有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 通信行业 行业研究 | 深度报告 ⚫ 液冷具有比风冷更高的冷却效率,可分为直接液冷(如冷板式液冷)和间接液冷 (如浸没式液冷)。由于液体的比热容远高于气体,因此相比于常见的风冷技术, 液冷可实现散热效率的极大提升。根据接触方式的不同,液冷可分为两种(1) 冷板式液冷属于间接接触型液冷技术,通过装有冷却液的冷板与设备接触进行散 热,该液冷技术发展较早且改造成本较低因而技术更成熟、生态更完善,目前属于 液冷中应用最为广泛的技术之一;(2)另一种是直接接触型液冷技术,较为典型 的是浸没式液冷,是指将发热器件浸泡在冷却液中,两者直接接触以协助器件散 热,该技术可更大程度上利用液体比热容大的特点,进一步提升制冷效率。 ⚫ 数据中心领域电信运营商发布“三年愿景”,2025年液冷数据中心占比有望达 50。数据中心的电能消耗源于IT设备、制冷设备、供配电系统和照明等,根据 绿色高能效数据中心散热冷却技术研究现状及发展趋势,我国数据中心约有 45的能耗用于IT设备,43用于散热冷却设备。IT设备在工作中会产生热量, 而过热和过湿又会反过来损害设备,削弱设备性能、降低设备寿命,因此需采用冷 却技术进行降温。目前数据中心冷却仍以风冷为主,但随着数据中心数量增加、大 型机架占比提升,数据中心高耗电的问题已不容忽视,政策对于PUE的要求也日 趋严格,另一方面,高算力需求或将推动数据中心功率密度的提升,进一步提升液 冷需求。2023年6月5日,三大运营商发布电信运营商液冷技术白皮书,提 出运营商将于2023年开展技术验证;2024年新建数据中心项目10规模试点应 用液冷技术;2025年50以上数据中心项目应用液冷技术,有望催化液冷技术渗 透率的提升。 ⚫ 储能领域2025年渗透率有望达到 45左右。储能系统是一个由大量电池、 PCS、BMS、EMS、温控、消防等子系统组成的复杂系统,其中电池是系统的核 心部件。温度对电化学储能系统的容量、安全性、寿命等性能都有影响,因此需要 对储能系统进行热管理。在储能系统应用的热管理方案中,目前只有风冷和液冷进 入大规模应用。从供给端看,液冷方案具有技术成熟度高、冷却效果好、对系统的 性能有积极影响等优势;从需求端看,储能系统更大容量、更多场景的发展方向, 对热管理的要求越来越高,液冷方案的性能与之更匹配。因此液冷方案逐渐发展成 为增量储能场景下的主流。根据GGII测算,2025年液冷在储能温控市场中占比有 望达45。 ⚫ 建议关注 1)温控液冷厂商英维克002837,未评级、曙光数创872808,未评 级、佳力图603912,未评级、申菱环境301018,未评级、同飞股份300990, 未评级、高澜股份300499,未评级;2)布局液冷的 IDC 厂商网宿科技 300017,未评级、科华数据002335,未评级、润泽科技300442,未评级。 风险提示 ⚫ 算力投资不及预期,超算中心、智算中心发展不及预期,液冷技术实际应用发展不 及预期,相关假设影响风冷、液冷方案成本测算结果风险 投资建议与投资标的 核心观点 国家/地区 中国 行业 通信行业 报告发布日期 2023年06月08日 证券分析师 张颖 021-63325888*6085 zhangying1orientsec.com.cn 执业证书编号S0860514090001 香港证监会牌照BRW773 证券分析师 卢日鑫 021-63325888*6118 lurixinorientsec.com.cn 执业证书编号S0860515100003 证券分析师 施静 021-63325888*3206 shijing1orientsec.com.cn 执业证书编号S0860520090002 香港证监会牌照BMO306 联系人 王婉婷 wangwantingorientsec.com.cn 联系人 温晨阳 wenchenyangorientsec.com.cn 运营商发布液冷技术三年规划,国内液冷 应用有望加快 2023-06-05 发改委公开征求两部电力领域管理办法意 见,进一步推动智能电网建设 2023-05-22 利润端良好增长,有望受益于 800G 高端 产品放量光模块光器件板块2022年 报及2023一季报综述 2023-05-14 液冷,顺应低碳数字时代需求的高效冷却 技术 看好(维持) 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 2 目 录 一、液冷技术原理概述 . 5 1.1 冷板式液冷 . 5 1.2 浸没式液冷 . 5 单相浸没式液冷 6 双相浸没式液冷 6 两种技术比较 . 7 二、项目大型化带来冷却效率提升需求,液冷降耗优势明显 8 2.1 数据中心领域冷板式液冷为主 . 8 2.2 储能领域液冷方案成为主流趋势 . 11 三、液冷方案应用现状 . 15 3.1 数据中心液冷电信运营商发布“三年愿景”,2025年液冷数据中心占比有望达50 . 15 3.2 储能液冷2025年渗透率有望达到45左右 17 四、投资建议 . 20 4.1 英维克 20 4.2 曙光数创 21 4.3 佳力图 21 4.4 申菱环境 22 4.5 同飞股份 22 4.6 高澜股份 23 4.7 网宿科技 24 4.8科华数据 . 24 4.9润泽科技 . 25 风险提示 25 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 3 图表目录 图1开式循环系统的冷板式液冷整体链路图 5 图2单相浸没式液冷原理图 . 6 图3双相浸没式液冷原理图 . 6 图4双相浸没式液冷需要冷凝管实现气态到液态的转换 6 图5数据中心各环节能耗占比 8 图6数据中心机架数量 9 图7中国数据中心耗电量及占比 9 图8单机柜密度增大,风冷技术已不能满足散热需求 11 图92008年以来全球数据中心单机柜功率变化情况及预测 . 11 图10中国液冷数据中心市场规模预测 . 11 图11储能电站系统 11 图12锂电池工作的各种温度区间 12 图131.5C放电倍率下风冷系统电池组温度分布图 13 图144种储能热管理方案 13 图15国内外液冷发展大事记 . 15 图16曙光浸没式相变液冷系统 16 图17阿里云磐久液冷一体机 . 16 图182020年中国液冷数据中心厂商竞争力矩阵图 16 图192019-2025年中国液冷数据中心行业应用结构预测 17 图20储能液冷系统示意图 . 18 图21科华S液冷储能系统 18 图22风冷储能系统 19 图23液冷储能系统 19 图24储能温控市场空间(亿元) 19 图25英维克BattCool储能全链条液冷解决方案2.0 21 图26曙光数创营收结构(亿元) 21 图27曙光数创全浸式液冷服务器,PUE可低至1.01-1.02 21 图28佳力图冷水机组产品系列 22 图29申菱环境储能温控产品 . 22 图30高澜电站式储能系统液冷方案 . 23 图31网宿科技子公司绿色云图液冷数据中心平面图 24 图32科华数据液冷产品 25 表1冷板式液冷和浸没式液冷技术比较 . 7 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 4 表2液冷与风冷的差异 8 表3国家对数据中心PUE要求日趋严格 10 表4典型储能热管理技术的特点 14 表5各公司推出的液冷产品 . 17 表6储能液冷温控主要供应商 20 表7同飞股份储能热管理在研项目(截至2022年年报) 23 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 5 一、液冷技术原理概述 液冷,顾名思义,即采用液体接触热源进行冷却的方式。根据冷却液和服务器接触换热方式的不 同,分为直接液冷和间接液冷,其中间接液冷以冷板式液冷技术为主,直接液冷以浸没式液冷技 术为主。 1.1 冷板式液冷 冷板式液冷属于间接式液冷,即发热元件和冷却介质不直接接触。冷板式液冷通过与装有液体的 冷板直接接触来散热,或者由导热部件将热量传导到冷板上,然后通过冷板内部液体循环带走热 量。由于服务器芯片等发热器件不直接接触液体,因此该方式对现有服务器芯片组件及附属部件 改动量较小,可操作性更强。 开式循环的冷板式液冷系统包括一次侧(室外)和二次侧(室内)。根据循环架构的不同,冷板 式液冷又分为开式循环系统和闭式循环系统。开式循环系统能将热量转移至室外进行散热,减少 机房的空调用量,降低整体PUE(Power Usage Effectiveness,电能利用效率)。具体而言,该 系统包括一次侧(室外)和二次侧(室内)两部分,一次侧为机房供水,包括室外的干冷器和冷 水机组,热量转移主要通过水温的升降实现,二次侧包括供液环路和服务器内部流道,主要通过 冷却液温度的升降实现热量转移;两个部分通过 CDU(冷量分配单元)中的板式换热器发生间壁 式换热,工质不做混合。 CDU 是关键部件之一,除了起到循环冷却液的作用外,还负责监视环境露点并调节供水给机架的 温度,露点温度即水蒸气与水达到平衡状态的温度,当实际温度 t大于露点温度 Td时,空气未饱 和。CDU 一般将辅助水回路的供应温度提高到比房间露点温度高出至少 2℃的水平,以防止冷凝 现象发生。 图1开式循环系统的冷板式液冷整体链路图 数据来源绿色数据中心创新实践冷板液冷系统设计参考,东方证券研究所 1.2 浸没式液冷 浸没式液冷是指将发热电子元器件如 CPU、主板、内存条、硬盘等直接浸泡在绝缘、化学惰性的 冷却液(电子氟化液)中,通过循环的冷却液将电子元器件产生的热量带走。根据冷却液在循环 散热过程中是否发生相变,分为单相浸没式液冷和双相浸没式液冷。 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 6 单相浸没式液冷 单相浸没式液冷的冷却液通常具有较高的沸点,因此冷却液在吸热后始终维持在液态状态。单相 浸没式液冷通过自然对流或泵驱动冷却液的循环,区别在于是否有外力驱动液体循环。自然对流 驱动的循环散热过程利用了液体受热后体积膨胀密度减小的特点,较热的冷却液会自然上浮,之 后被连接到外部冷却回路的热交换器冷却;冷却后的液体在重力作用下自然下沉,完成循环散热。 泵驱动则拥有一个由泵、热交换器、传感器、过滤器组成的装置,即冷却液分配单元(CDU), 利用CDU可以更加精确地控制冷却液的温度和流速。 图2单相浸没式液冷原理图 数据来源周婷等液冷技术在数据中心中的应用,东方证券研究所 单相浸没式液冷的优势在于(1)冷却液价格相对更低,部署成本更低;(2)冷却液无相变,不 需要频繁补充冷却液且无需担心冷却液蒸发溢出或人员吸入的健康风险,更有利于维护。但另一 方面,相对于双相液冷,单相液冷的散热效率更低。 双相浸没式液冷 双相浸没式液冷的冷却液则会经历气液状态的转换。IT 设备完全浸没在装有低沸点冷却液的密闭 罐体中,设备的热量被冷却液吸收,冷却液吸热后温度升高至沸腾,由液态变为气态,蒸汽从液 体中升起逃逸至页面上方,在液体罐体内形成气相区。气相区的冷却液蒸汽与水冷冷凝器接触后 凝结成液体滴落回容器中再次循环,而冷凝器中被加热的冷却水则通过循环冷却水系统完成排热。 图3双相浸没式液冷原理图 图4双相浸没式液冷需要冷凝管实现气态到液态的转换 数据来源周婷等液冷技术在数据中心中的应用,东方证券研究所 数据来源朱佳佳等数据中心浸没式液冷技术研究,东方证券研究所 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 7 双相浸没式液冷充分利用了冷却液的蒸发潜热,可以满足高功率发热元件对散热的极端要求,使 IT 设备可以保持满功率运行。但相变的存在也使得液冷系统必须保持密闭,以防止蒸汽外溢流失, 同时必须考虑相变过程导致的气压变化,以及系统维护时维护人员吸入气体的健康风险。 整体来看,浸没式液冷优势在于(1)冷却液与发热设备直接接触,具有较低的对流热阻,传 热系数高;(2)冷却液具有较高的热导率和比热容,运行温度变化率较小;(3)冷却液绝缘性 能优良,闪点高不易燃,且无毒、无害、无腐蚀。因此浸没式液冷技术适用于对热流密度、绿色 节能需求高的大型数据中心、超级计算、工业级其他计算领域和科研机构,特别是应用于地处严 寒、高海拔地区,或者地势较为特殊、空间有限的数据中心,以及对环境噪音要求较高,距离人 群办公、居住场所较近,需要静音的数据中心具有明显优势。 两种技术比较 由于冷板式液冷技术发展较早,相比浸没式这类直接接触型液冷技术更成熟、生态更完善、改造 成本更低,因此目前以冷板式液冷为主。但直接接触型液冷技术可更大程度上利用液体的比热容 大的特点,制冷效率更高,未来或将占据更多市场。 表1冷板式液冷和浸没式液冷技术比较 项目 冷板式 浸没式 备注 初投资 冷板规格多、定制成本较高, 系统带有大量的快速接头和阀 门,成本较高 冷却液用量大,特制密 封压力容器或卧式液冷 箱体,成本居中 室外散热设备相 似,区别主要在服 务器及冷却系统架 构 节能性 中等,PUE 1.11.3 优秀,PUE 1.051.1 浸没式100液冷 散热;冷板式还需 风冷,拉高了PUE 可维护性 优秀(冷却液不接触电路板),管路支持水平插拔 较差,不支持在线维护 冷板式基于传统机 架式设计,服务器 可下架维护 安全性 冷却液多为乙二醇水溶液,泄 漏可导电及腐蚀,且冷板流道 存在堵塞风险 化学方面,冷却液绝 缘,可安全运行;温度 方面,冷却液散热能力 强,能保证器件温差 小,不易高温老化 冷却液的物理化学 特性为关键风险点 空间利用率 较高,风冷系统仍需占据部分空间 中等 浸没式容器结构改 变较大,降低空间 利用率 数据来源谢春晖等液冷技术在通信行业中的应用及相关建议,东方证券研究所 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 8 二、项目大型化带来冷却效率提升需求,液冷降耗优 势明显 2.1 数据中心领域冷板式液冷为主 数据中心的电能消耗源于 IT 设备、制冷设备、供配电系统和照明等。对于数据中心内的 IT 和电 气设备而言,高温和高湿度是不理想的条件。大多数 IT 设备在工作过程中会产生热量,而过热和 过湿会损害设备,导致它们发生故障并停止工作,损坏的设备又可能导致火灾和其他安全问题。 因此需要为数据中心配备足够的冷却能力,保障设备的正常运行。根据绿色高能效数据中心散 热冷却技术研究现状及发展趋势,我国数据中心约有45的能耗用于IT设备,43用于散热冷 却设备。 图5数据中心各环节能耗占比 数据来源陈心拓等绿色高能效数据中心散热冷却技术研究现状及发展趋势,东方证券研究所 数据中心的常规冷却方式包括风冷、水冷、液冷等。 风冷早期的数据中心普遍采用风冷型空调系统,该系统采用制冷剂冷媒作为传热介质,空 气通过室内机组内蒸发盘管制冷降温后,在室内进行空气循环。制冷剂一般为氟利昂,单机 制冷量为10-120kW。 水冷随着数据中心对冷却效果的要求不断提升,水冷技术逐步被应用其中。水冷型系统主 要由室内机、换热器、冷却塔、膨胀水箱、循环水泵、内外间连接水管等组成。制冷剂吸热 后,热量先通过水冷冷凝器传递给冷却水,再通过冷却塔排放到大气中。 液冷水冷实际是液冷的一种,除了以水作为传热介质外,为了提高换热效率,满足数据中 心高功率、高密部署、低 PUE 的使用需求,液冷还会采用比热容更大的传热介质,如乙二 醇水溶液、矿物油、氟化液等。标况下空气的定压比热容为1.004kJ/kgk,水的比热容为 4.2 kJ/kgk,用于阿里浸没式液冷的氟化液比热容和汽化潜热分别为 1110 kJ/kgk和 88kJ/kg。液体的比热容远高于气体,散热效率实现极大提升。 表2液冷与风冷的差异 差异点 风冷 液冷 换热介质 空气 液体 45 43 10 2 0 5 10 15 20 25 30 35 40 45 50 IT设备 制冷设备 供配电损耗 照明及其他消耗 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 9 驱动部件 风扇 移除或部分移除风扇 散热能力 一般 效果好,冷却液的比热容是空气的1000倍,散热能力远大于空气 节能降耗 PUE值2.2以内 PUE值1.2以内 噪音 噪音高 移除部分风扇,噪音低 建设成本 机柜只能低密布局,机柜占用机 房面积较大,需传统精密空调和 冷热通道设计 可带来机柜高密布局设计,减少机房占用面 积,低PUE意味着电源、配电和备份基础设 施的规模减小 选址 对环境气候、电力因素考虑要求较高 不受空气质量与气候影响,不受能源政策限制,全国各地均可部署 数据来源锐捷网络,东方证券研究所 数据中心数量增加大型机架占比提升,总耗电量不断上升,增加能耗担忧。根据信通院数据, 2017-2021年,数据中心机架数量从166万架增至520万架,年均复合增速超30,大型规模以 上机架数量从 83 万架增至 420 万架,总占比提升至 80.8。据信通院测算,2022年全国机架规 模将持续增长,大型以上机架数量将增至 540 万架。能耗方面,2017-2020 年,我国信息通信领 域规模以上数据中心年耗电量年均增长 28,2021年全国数据中心耗电量达 2166亿度,约占全 国总耗电量的 2.6,碳排放量达 1.35 亿吨,占全国二氧化碳排放量的 1.14左右。据信通院测 算,2030年我国数据中心耗电量将超过3800亿度。 图6数据中心机架数量 图7中国数据中心耗电量及占比 数据来源信通院,东方证券研究所 注按照标准机架 2.5kW 统计 数据来源能源与投资,UPS应用,盘古智库,生态环境部,东方证券研究所 双碳背景下,我国对数据中心PUE的要求日趋严格,节能降耗势在必行。对于新建的数据中心, 2017年,“十三五”节能减排综合工作方案提出,新建大型云计算数据中心PUE值低于1.5。 2021年12月,国家发改委四部门发布新政提出,到2025年,全国新建大型、超大型数据中心平 均 PUE 值降至 1.3 以下,国家枢纽节点还将进一步降至 1.25 以下。另外,我国还将对已有高能 耗数据中心进行改造,2021年,国家提出将对PUE值超过1.5的数据中心进行改造。 数字经济时代,算力网络的建设以及以 ChatGPT 为代表的 AIGC 类应用的爆发,使得高算力需 求激增,算力基础设施能耗节节攀升。根据国家政策要求,在算力枢纽 8 大节点中,东部地区大 0 10 20 30 40 50 60 70 80 90 0 100 200 300 400 500 600 700 800 2017 2018 2019 2020 2021 2022E 总机架数量(万架) 大型规模以上机架数量占比 2.10 2.20 2.30 2.40 2.50 2.60 2.70 2.80 0 500 1000 1500 2000 2500 2018 2019 2020 2021 全国数据中心耗电量亿kwh 占全社会用电量比例 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 10 型及以上数据中心PUE需要降低到1.25以下,西部气候适宜地区大型及以上的数据中心PUE需 要降低到1.2以下,且要求制冷系统采取新的解决方案。 表3国家对数据中心PUE要求日趋严格 时间 政策名称 主要内容 2017.1 “十三五”节能减排综合工作方案 新建大型云计算数据中心PUE低于1.5 2019.2 关于加强绿色数据中心建设的指导意见 到2022年,新建大型、超大型数据中心PUE 达1.4以下;既有大型、超大型数据中心电能 使用效率值不高于1.8 2021.7 新型数据中心发展三年行动计划(2021-2023年) 到2021年底,新建大型及以上数据中心PUE 降至1.35;到2023年底,新建大型及以上数 据中心PUE降至1.3以下,严寒和寒冷地区力 争降至1.25以下 2021.10 关于严格能效约束推动重点领域节能降碳的若干意见 到2025年,数据中心PUE普遍不超过1.5 2021.12 推动数据中心和5G等新型基础设施绿色高质量发展实施方案 到2025年,全国新建大型、超大型数据中心 平均PUE降至1.3以下,国家枢纽节点进一步 降至1.25以下;对PUE超过1.5的数据中心 进行改造 2022.8 信息通信行业绿色低碳发展行动计划(2022-2025年) 到2025年,全国新建大型、超大型数据中心PUE降至1.3以下 数据来源政府网站,东方证券研究所 PUE 指电源利用效率,为数据中心内所有用电设备总耗能与 IT设备耗能之比。影响 PUE受诸多 因素影响,包括数据中心等级、功率密度、数据中心所处的气候环境、运维管理水平等等。 (1)数据中心等级根据 GB50174-2017数据中心设计规范,数据中心划分为 A、B、C 三 级,依据使用性质、数据丢失或网络中断在经济或社会上造成的损失或影响程度确定所属级别。 等级越高的数据中心,各类设备的冗余程度越高,最高达2N,即对应设备能耗的增加。其中A级 数据中心包括但不限于金融行业、国家级信息中心、电力调度中心、通信、网上支付等行业的数 据中心和重要的控制室。算力网络的建设加速了传输、调度用数据中心的建设,多属于 A 级数据 中心。 (2)功率密度近年来,为应对电力需求和维护成本的上升,提高数据中心运营效率,一个重 要趋势是提高功率密度,同时数据中心单位空间产生热量的瓦数也在不断上升,造成了散热问题。 根据 Uptime Institute2020全球数据中心调查报告,2020年全球 71的数据中心平均功率密 度低于 10kW/机架,相比于 2017年的 5.6kW/机架、2011年的 2.4Kw/机架增长显著。其中, 平 均功率密度高于 20kW/机架的数据中心约占 16。根据科智咨询,目前中国数据中心的平均功率 密度为8-10kW/机架。 此外,为了满足高算力负载需求,通过单机架叠加多核处理器提高计算密度,也导致了 IT 硬件的 处理器功耗显著增加,单机架功率密度越来越高。比如,从当前占据全球服务器CPU主要市场的 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 11 英特尔架构处理器看,英特尔至强可扩展处理器 TDP(热设计功耗)从 2019 年的 205W 上升到 现在的270W,在2023年将达到350W,提升近一倍。 图8单机柜密度增大,风冷技术已不能满足散热需求 数据来源赛迪顾问,东方证券研究所 图92008年以来全球数据中心单机柜功率变化情况及预测 图10中国液冷数据中心市场规模预测 数据来源Colocation America,赛迪顾问,东方证券研究所 数据来源赛迪顾问测算,东方证券研究所 2.2 储能领域液冷方案成为主流趋势 温度对电化学储能系统的容量、安全性、寿命等性能都有影响,因此需要对储能系统进行热管理。 储能系统是一个由大量电池、PCS、BMS、EMS、温控、消防等子系统组成的复杂系统,其中电 池是系统的核心部件。温度对储能系统的影响体现在两个方面(1)温度对单个电芯的性能有 影响,过高或过低的温度将影响电芯正常使用;(2)温度对电池系统的性能有影响,多个电芯 之间温度的差异会影响系统一致性,一致性问题将影响系统的安全、效率和寿命。 图11储能电站系统 0 5 10 15 20 25 30 2008 2016 2020E 2023E 2025E 数据中心单机柜功率(kW) 0 5 10 15 20 25 30 35 40 0 200 400 600 800 1000 1200 1400 2019 2020E 2021E 2022E 2023E 2024E 2025E 市场规模(亿元) 增速 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 12 数据来源朱信龙等集装箱储能系统热管理系统的现状及发展,东方证券研究所 温度对电芯性能的影响体现在 (1) 容量高温会导致电池内阻增加,活性锂离子流失。若长期处于高温状态,电池容量会 大幅偏离标称容量。温度越高,锂离子电池的容量衰减越快。而低温环境下,电解质的 传输性能大幅降低,也会导致锂电池容量降低,磷酸铁锂电池的容量保持率在 0 ℃下为 60~70,而在−20 ℃时则降低到20~40。 (2) 寿命温度变化导致电池内阻、电压变化,影响电池寿命。研究发现,温度每升高 1 ℃, 电池寿命则减少约 60 d。 (3) 热稳定性高温会导致电池内部材料发生分解反应,影响电池安全稳定运行。高温环境 下,SEI 膜可能发生分解,进而导致锂离子通道闭塞、正负极接触短路、产生大量热。 同时会伴随产生大量气体,导致电池鼓包、破裂等热失控现象。而低温环境下,电池负 极可能出现锂枝晶,甚至刺穿SEI膜,影响电池安全。 目前普遍认为锂电池的最佳工作温度区间为10-35℃。 图12锂电池工作的各种温度区间 数据来源朱信龙等集装箱储能系统热管理系统的现状及发展,东方证券研究所 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 13 温度对电池系统的影响体现在电芯的一致性上。在电池运行中,各个电芯的充放电状态的差异、 内阻差异、电流波动等因素,都会造成多次循环后,单体电池的老化状态差异,进而造成单体电 池间性能的差异。研究表明模块间的温度梯度减少了整体电池组的容量和寿命,因此需要保持电 池组内各单体电池之间的温度均匀性。为了保持电池中单体电池的一致性,要求电芯之间温差不 超过5℃。 图131.5C放电倍率下风冷系统电池组温度分布图 数据来源吕超等储能锂离子电池包强制风冷系统热仿真分析与优化,东方证券研究所 储能系统应用的热管理方案有四种空冷、液冷、热管冷却和相变冷却。目前只有风冷和液冷进 入大规模应用,热管冷却和相变冷却依然处于实验室阶段。 (1) 空冷以空气为介质,具有结构简单、易维护的特点。但空气比热容低、导热系数低, 适合冷却效率需求较低的场景。 (2) 液冷以液体为冷却介质,常用的液冷介质有水、乙二醇水溶液、纯乙二醇、空调制冷 剂和硅油等。冷却介质的换热系数高、比热容大、冷却速度快,冷却效果好,结构紧凑。 (3) 热管冷却依靠封闭管壳内工质相变来实现换热的高效换热元件。热管具有高导热、等 温、热流方向可逆、热流密度可变、恒温等优点。 (4) 相变冷却利用相变材料发生相变来吸热。选择比热容大、传热系数高的材料,冷却效 果好。但相变材料本身不具有散热能力,需要与其他散热方式配合。 图144种储能热管理方案 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 14 数据来源朱信龙等集装箱储能系统热管理系统的现状及发展,东方证券研究所 表4典型储能热管理技术的特点 项目 空冷 液冷 热管冷却 相变冷却 强迫 主动 冷端空冷 冷端液冷 相变材料导热材料 散热效率 中 高 较高 高 高 散热速度 中 较高 高 高 较高 温降 中 较高 较高 高 高 温差 较高 低 低 低 低 复杂度 中 较高 中 较高 中 寿命 长 中 长 长 长 成本 低 较高 较高 高 较高 数据来源钟国彬等大容量锂离子电池储能系统的热管理技术现状分析,东方证券研究所 液冷方案逐渐发展成为增量储能场景下的主流方案。 从供给端看,液冷方案具有技术成熟度高、冷却效果好、对系统的性能有积极影响等优势。 (1) 安全性液冷方案散热效率高、防护等级高,可以应对更复杂的工作环境,减少热失控 的可能,提高系统运行安全性。有数据表明,液体散热能力是同体积空气的3000倍,导 热能力是空气的25倍。且液冷系统箱体防护等级更高,可以应对更恶劣的使用环境。 (2) 经济性达到同样的控制效果,液冷方案能耗更低,可以降低运营投入,提高全寿命周 期经济性。为了达到相同的电池平均温度,风冷需要比液冷高 2-3 倍的能耗。相同功耗 下电池包的最高温度,风冷比液冷要高 3-5 摄氏度,液冷系统相比风冷系统节能最大可 达50左右。 (3) 集成度高由于液冷方案冷却效果更好,在集装箱内储能系统的集成度更高。以科华数 据 S液冷储能系统为例,传统风冷的 40 尺集装箱容量 3.44MWh,而同样 40 尺集装箱 的液冷方案容量可达 6.88 MWh。同等容量的储能电站,采用液冷电池系统节省占地面 积40以上。 从需求端看,储能系统更大容量、更多场景的发展方向,对热管理的要求越来越高,液冷方案的 性能与之更匹配。 (1) 储能电站规模越来越大。随着电力系统中新能源占比提升,对储能等调峰资源的需求日 益凸显,而大容量储能电站的调度性能优于小容量电站,因此,规模化的储能电站呈现 大容量趋势。目前独立式储能项目单体规模正在快速突破百 MWh,朝着 GWh 迈进。 2022年有4个200MW/400MWh的单体电站投运。截至2022年9月,已经规划启动的、 规模在500MWh以上的储能项目已经多达30个,总规模合计12.2GW/33GWh。大容量 电站通常使用大容量电芯,随着电芯的体积和容量增大,电芯自身的散热性能变差,因 此对系统的热管理能力要求会越来越高。 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 15 (2) 储能电站应用场景更加多元。根据不同储能时长的需求,储能的应用场景可以分为容量 型(≥4小时)、能量型(约 12 小时)、功率型(≤30分钟)和备用型(≥15分钟)四 类。容量型和能量型场景下,储能应用于削峰填谷、离网储能、紧急备用等功能,呈现 出大容量趋势,单个项目的产热量提升,对热管理的要求提高。功率型场景下,要求储 能系统可以瞬时吸收或释放能量,提供快速的功率支撑,快速充放电对电池的温度调节 要求更高,热管理的重要性凸显。 三、液冷方案应用现状 3.1 数据中心液冷电信运营商发布“三年愿景”,2025年 液冷数据中心占比有望达50 数据中心液冷领域,海外厂商先行,中国厂商后发制人。早在上世纪70年代,IBM公司便研发出 世界首款冷冻水冷却计算机System 360,开创了液冷计算机先河。而后在2008-2009年,IBM和 英特尔先后推出了液冷超级计算机 Power 575 和矿物油浸没散热系统。国内厂商则以中科曙光率 先开始,2011 年中科曙光着手研究服务器液冷技术,并于 2013 年完成了首台冷板式液冷服务器 原理机和首台浸没式液冷原理验证。此后,华为、浪潮、联想、阿里等国内厂商陆续发布液冷服 务器、液冷系统或解决方案。随着中科曙光、华为、浪潮、联想和阿里等在液冷领域的探索,中 国液冷技术发展迅速,并且在液冷的规模应用上积累了更为先进的经验。 图15国内外液冷发展大事记 数据来源赛迪顾问,东方证券研究所 曙光自研浸没相变液冷系统应用于“东数西算”枢纽节点,PUE最低可降至1.04。中科曙光依托 浸没相变液冷技术,推出标准化解决方案,该方案可使 CPU 等主要芯片运行温度下降 10 摄氏度 左右,额外带来 10-30的应用性能提升,同时,浸没相变系统通过减小部件和元器件所负载的 温度变化幅度,极大提升了数据中心运行的稳定可靠性,实现全年自然冷却,风扇风机能耗降低 接近 100,总能耗降低约 30,高密度部署为机房节省 85左右的空间。截至 2022 年 4 月, 曙光已将这项技术应用于全国二十多个城市,覆盖科研、金融、教育、医疗、人工智能等多个行 业。其中,该技术已应用于“东数西算”成渝枢纽节点内的西部(重庆)科学城先进数据中心中。 通信行业深度报告 液冷,顺应低碳数字时代需求的高效冷却技术 有关分析师的申明,见本报告最后部分。其他重要信息披露见分析师申明之后部分,或请与您的投资代表联系。并请阅读本证券研究报告最后一页的免责申明。 16 2020年,全球规模最大的全浸没式液冷数据中心阿里仁和数据中心投入运营。浸没式液冷的 使用大大降低了冷却能耗,该数据中心PUE只有1.09,一年可以节省上千万度电。阿里云除在自 身数据中心对浸没式液冷进行规模化部署外,也已开启对外商业化输出的脚步。在第十六届中国 IDC 产业年度大典上,阿里云发布了阿里云磐久液冷系列产品,其中磐久液冷一体机 Immersion DC 1000,是可以在“全球任何气象区域部署,并且实现PUE1.09左右的一体化解决方案”。 图16曙光浸没式相变液冷系统 图17阿里云磐久液冷一体机 数据来源中科曙光,东方证券研究所 数据来源阿里云,东方证券研究所 赛迪顾问通过对国内主要液冷数据中心厂商在2020年液冷数据中心产品营收、类型、销量、市占 率、客户反馈等市场地位维度,以及技术专利、标准制定、创新人才、潜在客户等发展能力维度 的综合考虑,得到如下竞争力矩阵图。 图182020年中国液冷数据中心厂商竞争力矩阵图 数据来源赛迪顾问,东方证券研究所 赛迪顾问调研结果显示,2019年液冷数据中心主要应用在以超算为代表的应用当中,并预计互联 网、金融、电信行业对数据中心液冷的需求量将会持续加大。 电信运