当前位置: 首页 > 资讯 > 科技 > 通义千问开源Qwen2.5-Coder全系列,代码能力比肩GPT-4
  • 0
  • 0
  • 分享

通义千问开源Qwen2.5-Coder全系列,代码能力比肩GPT-4

通义千问 2024-11-12 09:59:31 爱吃爆米花

近日消息,通义千问团队宣布开源其最新的Qwen2.5-Coder全系列模型,此举旨在促进Open Code LLMs(大型语言模型)的发展。Qwen2.5-Coder因其强大的性能、多样性和实用性而备受关注。

特别是Qwen2.5-Coder-32B-Instruct模型,在代码生成、代码修复和代码推理方面表现出色,其性能与GPT-4相当,达到了业界领先水平。在多个代码生成基准测试中,Qwen2.5-Coder取得了最佳成绩,并在Aider基准测试中获得了73.7分,与GPT-4的表现相当。这一开源举措将为开发者和研究人员提供更多选择,推动代码生成技术的进一步发展。

Qwen2.5-Coder支持超过40种编程语言,并在McEval上获得65.9分,其中Haskell、Racket等语言的表现尤为突出。这得益于其预训练阶段独特的数据清洗和配比。此外,Qwen2.5-Coder-32B-Instruct在多编程语言的代码修复能力上也表现出色,在MdEval基准测试中得分75.2,排名第一。

为了检验Qwen2.5-Coder-32B-Instruct在人类偏好上的对齐表现,构建了一个内部标注的代码偏好评估基准Code Arena。结果显示Qwen2.5-Coder-32B-Instruct在偏好对齐方面具有优势。

Qwen2.5-Coder系列此次开源了四个尺寸的模型,包括0.5B/3B/14B/32B,覆盖了主流的六个模型尺寸,满足不同开发者的需求。官方提供了Base和Instruct两种模型,前者作为开发者微调模型的基础,后者作为官方对齐的聊天模型。模型尺寸与效果之间存在正相关,Qwen2.5-Coder在所有尺寸下都取得了SOTA表现。

Qwen2.5-Coder的0.5B/1.5B/7B/14B/32B模型采用Apache2.0许可,而3B模型为Research Only许可。团队通过评估不同尺寸的Qwen2.5-Coder在所有数据集上的表现,验证了Scaling在Code LLMs上的有效性。

Qwen2.5-Coder的开源,为开发者提供了一个强大、多样化且实用的编程模型选择,有助于推动编程语言模型的发展和应用。

所 属 资 源
通义千问
通义千问
应用 / 工具 /
阿里巴巴自研AI大模型
去下载
来源:站长之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/99939.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换