ob体育训练120亿Stable LM 2上线万亿token演练碾压Llama 2 70B

  行业动态     |      2024-04-09 22:46

  ob体育Stability AI推出Stable LM 2 12B模子,动作其新模子系列的进一步升级,该模子基于七种讲话的2万亿Token举办操练,具有更多参数和更强机能,据称正在某些基准下能超越Llama 2 70B。

  继16亿轻量级Stable LM 2推出之后,12B参数的版本正在本日亮相了。

  见状,不少网友纷纷喊话:干的美丽!但,Stable Diffusion 3啥时分出啊?

  120亿参数版本蕴涵了底子模子和指令微调模子,并正在七种多讲话,高达2万亿Token数据集上已毕操练。

  官博先容,最新版本的模子分身了机能、效用训练、内存需乞降速率,同时一直采用了Stable LM 2 1.6B模子的框架训练。

  通过这回更新,咨询职员还为开荒者供应了一个透后而宏大的用具,以饱舞AI讲话技能的立异。

  Stability AI表现很疾就会推出更长的版本,而且可能第暂时候正在Hugging Face上获取。

  Stable LM 2 12B是一个专为照料多种讲话职责打算的高效开源模子,它可能正在大大都常见硬件高超畅运转。

  值得一提的是,Stable LM 2 12B可能照料通俗惟有大模子能力已毕的各样职责。

  其余,指令微调版本正在用具运用,以及函数挪用揭示出宏大的技能,可能合用于各样用处,包含动作检索RAG体系的重心局限。

  正在这个新版本中,他们将StableLM 2系列模子扩展到了12B种别,供应了一个盛开、透后的模子,正在功率和精度方面涓滴不打扣头。

  最初颁发的Stable LM 2 1.6B仍旧正在Open LLM 排行榜上得到了当先名望,证实了其正在同类产物中的出色机能。

  操练大模子(LLM)的第一阶段重假若练习怎样使用大批分此表数据源来预测序列中的下一个token,这一阶段也被称之为操练ob体育。

  它使模子可能构修合用于根基讲话功用乃至更高级的天生和领悟职责的通用内部表现。

  咨询职员遵照准则的自回归序列修模法子对Stable LM 2举办操练,以预测下一个token。

  他们从零开头操练模子,上下文长度为4096,受益于FlashAttention-2的高效序列并行优化。

  操练中所用的数据均为公然数据,大局限操练数据由其他LLM操练中运用的数据源构成,此中包含德语(DE)、西班牙语(ES)训练、法语(FR)、意大利语(IT)、荷兰语(NL)和葡萄牙语(PT)的多讲话数据。

  下图映现了Stable LM 2预操练数据聚集各界限有用操练词块的百分比。

  咨询职员正在Hugging Face Hub上公然的极少指令数据集上对预操练模子举办微调。

  正在这个阶段,他们运用UltraFeedback和Intel Orca Pairs这两个数据集,并通过删除了排名并列的配对、实质反复的配对以及所选回应得分低于80%的配对来过滤数据集。

  咨询职员通过期兴基准评估了Stable LM 2的少样本和零样本技能,并将结果与相似巨细的开源预操练模子举办了斗劲。下表列出了模子评估结果。

  同样,经由指令微调的版本(stablelm-2-1-6b-dpo)比微软的Phi-1.5均匀普及了2%,但正在几发确凿率上却落伍于更大的Phi-2.0训练。与谷歌的Gemma 2B(2.5B参数)比拟,机能也有明显普及ob体育。

  通过正在 ChatGPT 翻译版本的 ARC、HS、TQA 和 MMLU 长举办评估,来评估正在多讲话处境下的学问和推理技能。

  其余,还运用了机械翻译的LAMBADA数据集测试了下一个单词的预测技能。

  下表为zero-shot测试结果,可能看出与范围是其两倍的模子比拟,Stable LM 2的机能越发轶群。

  Stable LM 2 1.6B显示出拥有竞赛力的机能,与MT-Bench上的大型模子技能相当乃至更好ob体育。ob体育训练120亿Stable LM 2上线万亿token演练碾压Llama 2 70B