今天小编分享的科学经验:扩散模型更懂复杂提示词!Pika北大斯坦福开源新框架,利用LLM提升理解力,欢迎阅读。
明敏 发自 凹非寺
量子位 | 公众号 QbitAI
Pika 北大斯坦福联手,开源最新文本 - 影像生成 / 编辑框架!
无需额外训练,即可让扩散模型拥有更强提示词理解能力。
面对超长、超复杂提示词,准确性更高、细节把控更强,而且生成图片更加自然。
效果超越最强影像生成模型 Dall · E 3 和 SDXL。
比如要求图片左右冰火两重天,左边有冰山、右边有火山。
SDXL 完全没有符合提示词要求,Dall · E 3 没有生成出来火山这一细节。
还能通过提示词对生成影像二次编辑。
这就是文本 - 影像生成 / 编辑框架RPG(Recaption,Plan and Generate),已经在网上引起热议。
它由北大、斯坦福、Pika 联合开发。作者包括北大计算机学院崔斌教授、Pika 联合创始人兼 CTO Chenlin Meng 等。
目前框架代码已开源,兼容各种多模态大模型(如 MiniGPT-4)和扩散模型主干网络(如 ControlNet)。
利用多模态大模型做增强
一直以来,扩散模型在理解复杂提示词方面都相对较弱。
一些已有改进方法,要么最终实现效果不够好,要么需要进行额外训练。
因此研究团队利用多模态大模型的理解能力来增强扩散模型的组合能力、可控能力。
从框架名字可以看出,它是让模型 " 重新描述、规划和生成 "。
该方法的核心策略有三方面:
1、多模态重新描述(Multimodal Recaptioning):利用大模型将复杂文本提示拆解为多个子提示,并对每个子提示进行更加详细的重新描述,以此提升扩散模型对提示词的理解能力。
2、思维链规划(Chain-of-Thought Planning): 利用多模态大模型的思维链推理能力,将影像空间划分为互补的子区網域,并为每个子区網域匹配不同的子提示,将复杂的生成任务拆解为多个更简单的生成任务。
3、互补区網域扩散(Complementary Regional Diffusion):将空间划分好后,非重叠的区網域各自根据子提示生成影像,然后进行拼接。
最后就能生成出一张更加符合提示词要求的图片。
RPG 框架还可以利用姿态、深度等信息进行影像生成。
和 ControlNet 对比,RPG 能进一步拆分输入提示词。
用户输入:在一间明亮的房间里,站着一位身穿香槟色长袖正装、正闭着双眼的漂亮黑发女孩。房间左边放着一只插着粉色玫瑰花的精致蓝花瓶,右边有一些生机勃勃的白玫瑰。
基础提示词:一个漂亮女孩站在她的明亮的房间里。
区網域 0:一个装着粉玫瑰的精致蓝花瓶
区網域 1:一个身穿香槟色长袖正装的漂亮黑发女孩闭着双眼。
区網域 2:一些生机勃勃的白玫瑰。
也能实现影像生成、编辑闭环。
实验对比来看,RPG 在色彩、形状、空间、文字准确等维度都超越其他影像生成模型。
研究团队
该研究有两位共同一作 Ling Yang、Zhaochen Yu,都来自北大。
参与作者还有 AI 创企 Pika 联合创始人兼 CTO Chenlin Meng。
她是斯坦福计算机博士,在计算机视觉、3D 视觉方面有着丰富学术经历,参与的去噪扩散隐式模型(DDIM)论文,如今单篇引用已有 1700+。并有多篇生成式 AI 相关研究发表在 ICLR、NeurIPS、CVPR、ICML 等顶会上,且多篇入选 Oral。
去年,Pika 凭借 AI 视频生成产品 Pika 1.0 一炮而红,2 位斯坦福华人女博士创办的背景,使其更加引人注目。
△左为郭文景(Pika CEO),右为 Chenlin Meng
参与研究的还有北大计算机学院副院长崔斌教授,他还是数据科学与工程研究所长。
另外,斯坦福 AI 实验室博士 Minkai Xu、斯坦福助理教授 Stefano Ermon 共同参与这项研究。
论文地址:https://arxiv.org/abs/2401.11708
代码地址:https://github.com/YangLing0818/RPG-DiffusionMaster
参考链接:
https://twitter.com/pika_research/status/1749956060868387101
— 完 —
点这里关注我,记得标星哦~
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
>