4月7日消息,AMD震撼揭晓一系列实测数据,其麾下锐龙移动平台之7040 Phoenix与8040两大系列芯片在驾驭大型语言模型任务时,展现出无与伦比的效能优势,相较于当前英特尔旗舰级Core Ultra Meteor Lake系列产品,最高竟能实现高达79%的性能飞跃。
本次测试对比的是 AMD 锐龙 7 8740U 和英特尔 Core Ultra 7 155H 处理器,两款芯片均配备了硬件神经网络处理单元(NPU)。AMD 展示了多张幻灯片,对比了这两款处理器的 Mistral 7b、Llama v2 和 Mistral Instruct 7B 等大型语言模型的性能表现。
在 Llama v2 对话测试中,使用 Q4 位宽时,AMD 处理器的性能比 Core Ultra 7 高出 14%。而在 Mistral Instruct 测试中,使用相同位宽的情况下,AMD 处理器则快了 17%。
在同样的大型语言模型测试中,AMD 处理器在响应速度上也展现出优势。例如,在 Llama v2 对话测试的“示例提示词生成首个 Token”速度测试中,AMD 处理器比 Core Ultra 7 快了 79%,而在 Mistral Instruct 测试中则快了 41%。
AMD 还展示了另一组测试结果,涵盖了各种位宽、块大小和质量水平的 Llama v2 7B 对话测试。整体来看,锐龙 7 7840U 的平均性能比英特尔竞品高出 55%,在 Q8 位宽设置下性能提升甚至达到 70%。不过 AMD 也表示,在实际应用中运行大型语言模型时,使用 4 位的 K M 量化可以取得更好的平衡,而对于需要极致精度的编码等任务,则可以使用 5 位的 K M 量化设置。
从目前来看,AMD 在人工智能性能方面暂时领先于英特尔。尽管锐龙 7040 系列架构在理论性能(TOPS)上与 Meteor Lake 相当,但 Tom'sHardware 在去年年底就发现,在 AI 负载方面,AMD 通常能击败 Meteor Lake。这似乎更像是软件优化问题,而非硬件或驱动程序的问题。
文明上网,理性发言,共同做网络文明传播者