软件与服务行业:AI产业速递(28):英伟达开源NEMOTRON-4340B 可用于合成数据训练大模型
事件描述
2024 年6 月14 日,英伟达(NVIDIA)在其官网开源了其通用大模型Nemotron-4 340B 版本,包括基础模型Nemotron-4-340B-Base,指令模型Nemotron-4-340B-Instruct 以及奖励模型Nemotron-4-340B-Reward 等一系列开放模型,开发人员可以使用这些模型生成合成数据,用于训练大语言模型(LLM)。
事件评论
Nemotron-4 340B 或将改变用于训练大型语言模型 (LLM) 的合成数据生成方式。在大模型的训练过程中,高质量的训练数据对大模型的性能、准确性和响应质量起着至关重要的作用,但大规模、多样化标注数据集往往成本高昂且难以获得。Nemotron-4 340B 的系列模型包括Base、Instruct 和Reward 模型,形成了一条pipeline,可以用于生成训练和改进 LLM 的合成数据。其中Instruct 模型可以创建多样化的合成数据,并模仿现实世界数据的特征;Reward 模型可以根据五个属性对响应进行评分:可用性、正确性、连贯性、复杂性和冗长性,从而筛选高质量的响应。同时,开发者可以使用自己的专有数据定制Nemotron-4 340B Base 模型,从而创建自有的Instruct 模型或Reward 模型,这或将使各个行业的企业能够基于自身数据创造特定领域的大模型,而无需大量且昂贵的真实世界数据集。
性能出色,测评数据业界领先。Nemotron-4-340B-Base 包含94 亿个嵌入参数和3316 亿个非嵌入参数,上下文长度为4096,其测试性能优异,在ARC-Challenge、MMLU 和BigBench Hard 基准等常识推理任务上与 Llama-3 70B、Mixtral 8x22B 和Qwen-2 72B等开源基础模型表现相当;Nemotron-4-340B-Instruct 在指令遵循和聊天功能方面超越了相应的指令模型;Nemotron-4-340B Reward 则在RewardBench 上表现优异,甚至超越了 GPT-4o-0513 和 Gemini 1.5 Pro-0514 等模型。
通过独特的开放模型许可,Nemotron-4 340B 或将加速大模型落地。Nemotron-4 340B系列模型采用了NVIDIA Open Model License Agreement 开源协议,该协议允许分发、修改和使用模型及其输出结果。结合同样开源的NVIDIA NeMo 和 NVIDIA TensorRTLLM,英伟达使各种规模的公司都能利用大模型的强大功能,并根据其特定需求创建定制模型,从而加速大模型在各个领域的落地进程。
Nemotron-4-340B 开源或带动大模型进一步发展,加速人工智能在行业落地。英伟达开源Nemotron-4-340B 或将推动人工智能普及化,使用合成数据训练的定制大模型将有望推动人工智能在例如金融、医药、制造业等各个行业的商业应用。建议关注国产大模型龙头:科大讯飞。
风险提示
1、大模型技术推进不及预期;
2、大模型商业化落地的过程存在风险。