(资料图片)
ChatGPT如火如荼,开启大算力时代。我们认为ChatGPT体现了当前AI训练速度、训练精度的提升,背后的根本逻辑在于庞大训练数据集的支撑,而对于硬件层面来说,计算与传输是保证ChatGPT平稳运行的核心。根据贝壳财经咨询,北京时间2月9日,由于训练量超负荷,ChatGPT官网无法登录,页面显示“超负荷”,侧面印证了当前的网络资源/计算能力无法保证未来大量涌入的算力需求。ChatGPT的总算力消耗约为3640PF-days,从摩尔定律角度看,以ChatGPT为代表的AI发展速度呈指数级上涨,约每隔3~4个月翻倍(摩尔定律翻倍周期约18个月)。
纵使开启收费模式,算力需求仍将高企。北京时间2月2日,ChatGPT推出收费版,每月约20美元(免费版仍面向客户可用)。我们认为收费版一定程度上是OpenAI为限制流量/缓解算力做出的“权宜之计”。在ChatGPT训练集需带完善的情况下,迅速推向市场,扩大用户面试ChatGPT提升模型精度的“第一要务”,收费版的ChatGPTPlus比起原先的免费版,更像是OpenAI构建获利商业模式的一次探索。从数据中心的角度出发,为支持ChatGPT3640PF-days算力,需要投资约7~8个标准数据中心(按500P算力为例),我们以国家先进计算产业创新(宜昌)中心项目投资额为参考,则ChatGPT带动数据中心投资额约240亿元。考虑到国内GPU及AI性能仍需跟进,若实现同等算力需更高IDC投资额。
全球供给紧平衡,数据中心配套产业同样值得关注。根据DataCenterHawk统计,2022年北美一级市场数据中心空置率平均为4.4%,达到有史以来的最低点。弗吉尼亚州北部市场数据中心的空置率接近1%。首次跌破5%。而根据信通院统计,当前全球数据中心规模增长相对稳定,各数据中心厂商或通过增加机架密度满足算力需求。根据中国信通院,随着数据中心功率密度提升,数据中心平均机架功率亦有所上行。2020年全球5-9kW/rack机架占比最大;功率超10Kw/rack机架占比达30%。我们认为随着高密度数据中心的建设节奏加快,传统风冷已无法满足高性价比、低PUE需求,因此改进数据中心制冷等基础设施技术,提高制冷效率,减少制冷系统的能耗水平,成为未来发展方向。
投资建议:ChatGPT带动AI算力增长,我们认为数据中心作为底层硬件核心环节,承担算力部署、运维的关键作用,建议关注第三方头部IDC运营厂商奥飞数据、数据港、宝信软件、光环新网、润泽科技;同时我们认为随着未来高密度数据中心兴起,叠加ESG要求,IDC储能温控环境有望核心受益,建议关注科华数据、英维克、朗进科技。
风险提示:行业竞争风险,客户集中度高,资本开支压力。