近日消息,通义千问团队宣布开源其最新的Qwen2.5-Coder全系列模型,此举旨在促进Open Code LLMs(大型语言模型)的发展。Qwen2.5-Coder因其强大的性能、多样性和实用性而备受关注。
特别是Qwen2.5-Coder-32B-Instruct模型,在代码生成、代码修复和代码推理方面表现出色,其性能与GPT-4相当,达到了业界领先水平。在多个代码生成基准测试中,Qwen2.5-Coder取得了最佳成绩,并在Aider基准测试中获得了73.7分,与GPT-4的表现相当。这一开源举措将为开发者和研究人员提供更多选择,推动代码生成技术的进一步发展。
Qwen2.5-Coder支持超过40种编程语言,并在McEval上获得65.9分,其中Haskell、Racket等语言的表现尤为突出。这得益于其预训练阶段独特的数据清洗和配比。此外,Qwen2.5-Coder-32B-Instruct在多编程语言的代码修复能力上也表现出色,在MdEval基准测试中得分75.2,排名第一。
为了检验Qwen2.5-Coder-32B-Instruct在人类偏好上的对齐表现,构建了一个内部标注的代码偏好评估基准Code Arena。结果显示Qwen2.5-Coder-32B-Instruct在偏好对齐方面具有优势。
Qwen2.5-Coder系列此次开源了四个尺寸的模型,包括0.5B/3B/14B/32B,覆盖了主流的六个模型尺寸,满足不同开发者的需求。官方提供了Base和Instruct两种模型,前者作为开发者微调模型的基础,后者作为官方对齐的聊天模型。模型尺寸与效果之间存在正相关,Qwen2.5-Coder在所有尺寸下都取得了SOTA表现。
Qwen2.5-Coder的0.5B/1.5B/7B/14B/32B模型采用Apache2.0许可,而3B模型为Research Only许可。团队通过评估不同尺寸的Qwen2.5-Coder在所有数据集上的表现,验证了Scaling在Code LLMs上的有效性。
Qwen2.5-Coder的开源,为开发者提供了一个强大、多样化且实用的编程模型选择,有助于推动编程语言模型的发展和应用。
文明上网,理性发言,共同做网络文明传播者