当前位置: 首页 > 资讯 > 科技 > 智源发布Infinity-Instruct:千万指令量微调数据集引领AI语言模型新纪元
  • 0
  • 0
  • 分享

智源发布Infinity-Instruct:千万指令量微调数据集引领AI语言模型新纪元

智源研究院 2024-10-03 09:48:03 爱吃爆米花

近日消息,智源研究院公布了一项重大成果——Infinity-Instruct,这是一个包含千万级指令的微调数据集,专注于推动语言模型在对话场景中的表现力至新高度。

近期,Infinity-Instruct宣告完成其最新一轮的数据迭代升级,发布两个核心模块:Infinity-Instruct-7M基础指令数据集,以及Infinity-Instruct-Gen,专为对话指令优化的数据集。这些升级预示着人工智能对话系统的理解与生成能力将迎来显著提升。

Infinity-Instruct-7M基础指令数据集包含超过744万条数据,涵盖数学、代码、常识问答等领域,致力于提升预训练模型的基础能力。测试结果显示,使用此数据集微调的Llama3.1-70B和Mistral-7B-v0.1模型,在综合能力上已接近官方发布的对话模型,其中Mistral-7B甚至超过了GPT-3.5,而Llama3.1-70B接近GPT-4。

Infinity-Instruct-Gen对话指令数据集则包含149万条合成的复杂指令,目的是提高模型在真实对话场景中的鲁棒性。使用此数据集进行进一步微调后,模型的表现可超过官方对话模型。

智源研究院在MTBench、AlpacaEval2、Arena-Hard等主流评测榜单上对Infinity-Instruct进行了测试,结果表明,经过Infinity-Instruct微调的模型在对话能力上已超越了官方模型。

Infinity-Instruct为每条指令数据提供了详细的标注,如语种、能力类型、任务类型和数据来源,方便用户根据需求筛选数据子集。智源研究院通过数据选择与指令合成的方式构建了高质量的数据集,以弥补开源对话模型与GPT-4之间的差距。

项目还采用了FlagScale训练框架来降低微调成本,并通过MinHash去重和BGE检索剔除重复样本。智源计划未来开源数据处理和模型训练的全流程代码,并探索将Infinity-Instruct数据策略扩展到对齐、预训练阶段,以支持语言模型的全生命周期数据需求。

来源:站长之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/90614.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换