近日,苹果公司在机器学习的研究方面取得了引人注目的成果。据悉,苹果通过与NVIDIA展开合作,在大型语言模型(LLM)的生成速度上取得了重大突破,成功将其提高了将近三倍。
在过去,创建大型语言模型的过程通常非常耗时和耗资源,企业常常需要购买大量的硬件设备,进而增加了运营成本。2024年早些时候,苹果发布了 ReDrafter,这一技术结合了递归神经网络和动态树关注的方法,能够快速生成和验证标记,较传统的自动回归方法提升了3.5倍的标记生成速度。
本周,苹果进一步宣布,他们与 NVIDIA 的合作将 ReDrafter 整合进 NVIDIA 的 TensorRT-LLM 推理加速框架。此举将使得使用 NVIDIA GPU 的机器学习开发者能够在生产环境中利用 ReDrafter 的加速功能。值得一提的是,虽然高性能的多 GPU 服务器通常价格昂贵,但此次合作能够在降低延迟的同时减少所需硬件数量,带来更为经济的解决方案。
在与 NVIDIA 进行的基准测试中,使用 ReDrafter 的生成效率得到了显著提升,贪婪编码模式下的每秒生成令牌速度提高了2.7倍。这意味着开发者们可以在更短的时间内得到更多的结果,为用户提供更快的服务体验。
苹果公司在确认与 NVIDIA 的合作后,也表示他们正在考虑使用亚马逊的 Trainium2芯片来提升模型训练效率。预计使用 Trainium2进行预训练的效率将比现有的硬件提升50%。
文明上网,理性发言,共同做网络文明传播者