电子元件:英伟达发布GB200芯片 看好算力投资机会

类别:行业 机构:长江证券股份有限公司 研究员:杨洋/蔡少东/范超 日期:2024-03-21

事件描述

      北京时间3 月19 日凌晨,英伟达(NVIDIA)公司创始人兼首席执行官黄仁勋发表GTC(GPU技术大会)主题演讲,发布了全新的 Blackwell 计算平台和GB200 芯片,其中GB200 芯片通过900GB/s 超低功耗的NVLink 芯片间互连,将两个B200 GPU 连接到Grace CPU。

      事件评论

      新架构大幅提升算力性能,大幅降低能耗成本:Blackwell 在单芯片训练方面的 FP8 性能是其上一代架构的 2.5 倍,在推理方面的 FP4 性能是其上一代架构的 5 倍。它具有第五代 NVLink 互连,速度是 Hopper 的两倍,并且可扩展至 576 个 GPU。黄仁勋举例称,如果要训练一个1.8 万亿参数量的GPT 模型,需要8000 张Hopper GPU,消耗15 兆瓦的电力,连续跑上90 天,但如果使用Blackwell GPU 只需要2000 张,跑90 天只要消耗四分之一的电力。

      一代架构一代特点,关注高速铜缆互联方案:GB200 NVLink Switch 和Spine 由72 个Blackwell GPU 采用NVLink 全互连,具有5000 根NVLink 铜缆(合计长度超2 英里)。

      根据英伟达对InfiniBand DAC 铜缆产品的描述,其用于将服务器和GPU 计算系统连接到机架顶部(TOR)交换机,并通过短电缆连接机架内的 Spine-to-Superspine 交换机,该产品具体优势包括:成本低、延迟低、高速互联、无源DAC 功耗为零且插入损耗低,广泛用于数据中心。

      软件、机器人、汽车、医疗技术等应用将受益计算能力提升。软件方面,NIM 是一种全新的软件打包和交付方式,能够将开发者与数亿个GPU 连接起来,以部署各种定制AI;英伟达还将以API 形式提供Omniverse Cloud,从而将全球领先的工业数字孪生应用和工作流创建平台的覆盖范围扩展到整个软件制造商生态系统。汽车方面,比亚迪已选择英伟达下一代计算平台用于其自动驾驶汽车,在DRIVE Thor 上构建其下一代电动汽车车队。

      当前AI 产业正高速发展,算力芯片龙头加速芯片迭代以进一步增强单芯片以及单节点算力以满足对于更高参数模型的训练以及推理需求,也加速了云厂商在算力投资的军备竞赛。投资建议方面,我们认为算力全产业链机会依旧值得重视,国内厂商在AI 算力产业链多个环节深度参与,在未来几年的成长方面具有较高的确定性,重点推荐工业富联、沪电股份、胜宏科技等。此外,GB200 的升级以及技术变化也将带来部分更具投资锐度结构性机会,可关注服务器的铜缆高速互联、液冷散热技术等方向。

      风险提示

      1、AI 行业发展不及预期;2、高速连接技术迭代不及预期;3、数据中心液冷落地进度不及预期。