当前位置: 首页 > 资讯 > 科技 > OpenAI发布SWE-bench Verified标准,精准衡量AI代码生成效能
  • 0
  • 0
  • 分享

OpenAI发布SWE-bench Verified标准,精准衡量AI代码生成效能

OpenAI 2024-08-15 17:18:33 爱吃爆米花

8月15日消息,OpenAI在此前发布的新闻稿中揭晓了SWE-bench Verified,这是一项创新的代码生成评估标准,针对性地改进了过往评估方法的局限性,旨在为人工智能模型在软件开发任务上的性能提供更为精准的衡量尺度。此基准的推出预示着AI辅助编程领域迈向了一个新的精准度时代。

SWE-bench

注:SWE-Bench 是一个用于评估 LLM 解决 GitHub 上真实软件问题能力的基准测试数据集。

它收集了来自 12 个流行的 Python 仓库的 2294 个 Issue-Pull Request 对。在测试时,LLM 会拿到一个代码库和 issue 描述,然后生成一个补丁来解决 issue 描述的问题。

该基准使用两种类型的测试:

FAIL_TO_PASS 测试用于检查问题是否已得到解决

PASS_TO_PASS 测试用于确保代码更改不会破坏现有功能。

SWE-bench 的问题

OpenAI 指出了 SWE-bench 的三个主要问题:

单元测试过于严格:用于评估解决方案正确性的单元测试往往过于具体,有时甚至与问题无关,这可能导致拒绝正确的解决方案。

问题描述不明确:许多样本的问题描述不够具体,导致问题是什么以及应如何解决含糊不清。

开发环境难以设置:有时很难可靠地为代理设置 SWE-bench 开发环境,从而无意中导致单元测试失败。

SWE-bench Verified

SWE-bench Verified 的主要改进之一是使用容器化 Docker 环境开发了新的评估工具包。

这一改进旨在使评估过程更加一致和可靠,降低与开发环境设置相关的问题发生的可能性。

例如,GPT-4o 解决了 33.2% 的样本,而表现最佳的开源代理框架 Agentless 的得分翻了一番,达到 16%。

性能的提高表明,SWE-bench Verified 更好地捕捉到了人工智能模型在软件工程任务中的真正能力。

来源:it之家
免责声明:本内容来自互联网,不代表本网站的观点和立场,如有侵犯你的权益请来信告知;如果你觉得好,欢迎分享给你的朋友,本文网址 https://wangzhidaquan.com/zixun/77496.html
文章标签
评论

文明上网,理性发言,共同做网络文明传播者

验证码
提交
热榜
热门游戏
换一换
热门软件
换一换