3月28日消息,Meta揭晓了其最新研发的OPT2I创新架构,这一突破性技术巧妙地整合了大规模语言模型(LLM),旨在显著增强从文本描述到图像(T2I)的实际转换过程中,所生成标准分辨率图像的内在一致性与逼真度。
OPT2I是一个优化框架,旨在提升T2I模型中的提示-图像一致性。它的工作流程始于用户输入的提示词,并通过迭代的方式生成修订后的提示词,目标是最大化一致性得分。
经过在两个数据集MSCOCO和PartiPrompts上的广泛验证,研究显示,OPT2I能够显著提高初始一致性得分,同时保持FID(一种评估生成图像质量的指标)并增加生成数据与真实数据之间的召回率。
OPT2I框架由三个主要部分构成:预训练的T2I模型、LLM以及一个自动提示-图像一致性评分器。该框架通过迭代地利用提示-评分对的历史记录,提出修订后的提示,从而生成更符合用户意图的图像。
此外,作者们还探讨了如何设计元提示(meta-prompt),以及如何通过反馈调整LLM的探索-利用权衡,以进一步提升模型的性能。总的来说,OPT2I框架为提高T2I模型的提示-图像一致性提供了一种新的有效方法。
文明上网,理性发言,共同做网络文明传播者