AI智道(1):DEEPSEEK R1潮涌 AI INFRA领航

  行业近况

      1 月20 日,深度求索旗下DeepSeek-R1 模型(DeepSeek以下简称为“DS”)正式发布。我们观察到,其创新架构带来的高效性能优化与极致算力使用率、128K上下文长度和每百万输出词仅2.19 美金的成本压控,以及对开源创新精神的坚持在全球科技界引起热烈讨论。在开源背景下,我们预期将有更多企业兼容接入DS系列模型,一方面,在推理侧基于DS等模型的AI应用蓬勃发展将拉动AI Infra的需求;另一方面,AI Infra的落地也将提升对存储、算力等基础资源的使用率。在AI产业飞轮螺旋向上进发的同时,我们认为AI Infra将受益于“掘金卖铲”逻辑。

      评论

      DeepSeek R1 进行了哪些Infra层的创新?我们在《人工智能十年展望(十二)》详细拆解了AI产业的基础软件堆栈并梳理了AI工作流,相应地,1)数据准备:引入冷启动数据并利用多阶段的训练数据。DS团队通过收集数千个长思维链(CoT)数据微调V3-Base模型作为多阶段强化学习的起点。2)模型训练:推理导向的多阶段强化学习(RL)训练与创新的奖励机制。DS团队基于V3-Base应用组相对策略优化(GRPO)强化学习框架训练R1-Zero模型,降低训练成本;然后引入冷启动数据,并针对R1-Zero存在的可读性、语言混乱等问题引入语言一致性奖励。3)模型部署和推理:独立优化预填充、解码阶段的资源分配。通过拆分工作流、使用多种并行策略提升效率、引入负载均衡策略平衡GPU工作量等措施,提高了模型的推理效率与资源利用率,增强了系统稳定性。

      DeepSeek等开源模型部署提速助力AI Infra产业落地生花。1)异构算力的纳管或成必选项,利好云基础设施及LLMOps厂家。伴随着DS V3 将更多计算密集型任务用FP8 精度执行,训练推理对存储和内存带宽的压力得以压控;因此,我们认为尤其在推理阶段,更多不同计算能力和内存容量的算力芯片将得到使用。2)受益于AI降本背景下的应用起量,未来推理算力占比有望提升。我们预期DS系列模型的开源将助力应用端生态的蓬勃发展,带动算力需求向推理侧进行结构性转移,开启AIDC创新周期。3)AI模型微调需求提升,构建产品工作流需要AI Infra工具支持。我们认为会有更多企业尝试接入模型,衍生出更多模型微调的需求。而从大模型到应用开发过程中,高质量垂域样本的准备、模型微调及部署监控、应用编排上线等标准化工作流由AI Infra工具承接,带来软件开发企业和应用使用方的双重需求。4)AI推理或对低时延、高带宽、实时交互的基础设施层性能提出更高要求。AI应用的蓬勃发展催生对实时性要求高的场景,如自动驾驶、在线游戏、视频会议实时字幕生成等,提升了对CDN、RTC等低时延、高性能基础设施的要求。

    风险

      AI应用拓展不及预期;竞争加剧。