近日消息,纽约大学、麻省理工学院以及谷歌的研究团队提出了一个极具创新性的框架。这个框架聚焦于解决扩散模型在推理时间扩展上的瓶颈难题。与以往那种简单增加去噪步骤的传统方法不同,这个创新框架为提升生成模型的性能开拓出全新的思路和方法。
该框架主要从两个维度展开:一是利用验证器提供反馈,二是实施算法以发现更优的噪声候选。研究团队以256×256分辨率的预训练SiT-XL模型为基础,在保持250个固定去噪步骤的同时,创新性地引入了专用于搜索操作的额外计算资源。
在验证系统方面,研究采用了两个Oracle Verifier:Inception Score (IS)和Fréchet Inception Distance (FID)。IS基于预训练的InceptionV3模型选择最高分类概率,而FID则致力于最小化与预先计算的ImageNet Inception特征统计之间的差异。
实验结果显示,该框架在多个基准测试中表现出色。在DrawBench测试中,LLM Grader评估证实了搜索验证方法能持续提升样本质量。特别是ImageReward和Verifier Ensemble在各项指标上都取得了显著进步,这归功于它们精确的评估能力和与人类偏好的高度一致性。
这项研究不仅证实了基于搜索的计算扩展方法的有效性,也揭示了不同验证器的固有偏差,为未来开发更专业化的视觉生成任务验证系统指明了方向。这一发现对于提升AI生成模型的整体性能具有重要意义。
文明上网,理性发言,共同做网络文明传播者