软件与服务:AI产业跟踪:阿里发布QWQ-32B 个人设备进入大模型时代
事件描述
3 月6 日,阿里开源发布了新推理模型QwQ-32B,其参数量为320 亿,但性能足以比肩6710亿参数的DeepSeek-R1 满血版。
事件评论
性能比肩满血版DeepSeek-R1,强化学习成为性能提升关键。QwQ-32B 推理模型仅用320 亿参数,在数学、编程、通用能力方面表现出色。AIME 2024、LiveCodeBench、LiveBench、IFEval、BFCL 等基准测试数据显示,QwQ-32B 已达到或超过DeepSeek-R1。通义千问团队在冷启动的基础上,针对数学和编程任务进行RL 训练。在强化学习扩展过程中,随着训练轮次的推进,模型性能表现出持续的提升,并在通用能力训练阶段通过通用奖励模型和基于规则的验证器进一步提升性能。我们认为QwQ-32B 的发布证明强化学习在提升模型性能方面的巨大潜力,为未来通用人工智能(AGI)的发展提供了新的思路和方向。
部署成本持续降低,AI 模型有望进入全民普及阶段。此前,高性能大模型的部署门槛一直居高不下,而在Hugging Face 上开源的QwQ-32B 有从2 位一直到8 位不同的版本,最小仅需不到13GB。实测数据显示,在消费级RTX 3090 显卡上,QwQ-32B 模型的推理速度可达30-40tokens/秒,可以满足日常使用场景。随着部署成本的大幅下降,个人设备有望开始部署大模型,AI 模型或将逐步进入日常使用场景。
开源推动创新,AI 技术平权进行时。目前,QwQ-32B 已在Hugging Face 开源,采用Apache 2.0 协议,全球开发者与企业均可免费下载、商用。此外,自2023 年8 月以来,阿里通义系列累计推出了从Qwen、Qwen1.5、Qwen2 到Qwen2.5 数十款大模型,覆盖5 亿到千亿级别的参数规模,并开源了超200 款模型。通过开源,众多中小企业和开发者能够以最低成本、更快速度部署AI 大模型,进而加速大模型应用落地。
QwQ-32B 降本增效,AI 技术平权推动产业加速发展。此次QwQ-32B 通过强化学习在提升模型性能的同时大幅降低部署成本,使个人设备可以部署大模型,从而有望加速AI 应用落地,进而进一步带动算力需求的爆发。建议关注:1)中国推理算力产业链,重点推荐国内AI 芯片领军寒武纪;2)云服务厂商,重点关注与DeepSeek 合作的相关云厂商,3)IDC,重点关注于腾讯、阿里、字节等大厂合作的IDC。
风险提示
1、AI 技术发展不及预期;
2、下游应用需求不及预期。