近日消息,Meta在前日重磅发布了一款创新模型——“LLM Compiler”。这款模型源自Meta的Code Llama技术基础,其核心竞争力在于卓越的代码优化能力。
现已在Hugging Face平台上架,提供了两种参数规模的选择,分别是70亿参数与130亿参数版本,面向学术研究和商业应用开放授权,旨在推动代码生成与编译领域的技术进步。
Meta 认为,尽管业界各大语言模型已在各种编程代码任务中展现了出色的能力,但此类模型在代码优化还有进步空间,目前推出的 LLM Compiler 模型便是一款专为优化代码任务设计的预训练模型,能够模拟编译器对代码进行优化,或将“已经过优化的代码转换回原本的语言”。
LLM Compiler 在 5460 亿个 LLVM-IR 和汇编代码标记的庞大语料库上进行了训练,据称能够达到 77% 的“代码优化潜力”,开发者可以自由将相关模型配合其他 AI 模型一起使用,从而改善生成代码的质量。
文明上网,理性发言,共同做网络文明传播者