今天小编分享的科学经验:质量无损,算力砍半!达摩院开源视觉生成新架构,出道即SOTA,欢迎阅读。
算力砍半,视觉生成任务依然 SOTA!
达摩院在 ICLR 2025 上抛出的 DyDiT 架构:通过时间步长与空间区網域的智能资源分配,将 DiT 模型的推理算力削减 51%,生成速度提升 1.73 倍,而 FID 指标几乎无损!
更惊人的是,这一突破仅需 3% 的微调成本。
该方法通过引入动态化调整机制,可精准削减视觉生成任务中 50% 的推理算力,有效缓解传统扩散模型的计算冗余问题,相关工作已开源。
DiT 架构作为当前主流的生成模型框架,有效实现了影像与视频的可控生成,推动生成式 AI 走向应用爆发。
然而,DiT 架构的多步生成策略存在推理效率低、算力冗余等问题,在执行视觉生成任务容易造成极高的算力消耗,限制其往更广泛的场景落地。
业内提出高效采样、特征缓存、模型压缩剪枝等方法尝试解决这一问题,但这些方法均针对静态不变模型,又衍生出潜在的冗余浪费问题。
达摩院(湖畔实验室)、新加坡国立大学、清华大学等联合研究团队在论文《Dynamic Diffusion Transformer》提出了动态架构 DyDiT,能够根据时间步长和空间区網域自适应调整计算分配,有效缓解视觉生成任务中的算力消耗问题。
具体而言,DyDiT 能在简单的时间步长使用较窄的模型宽度,减少计算资源;在空间维度上优先处理含有详细信息的主要对象,减少对背景区網域的计算资源分配,提升推理效率与减少计算冗余的同时,保持生成质量。
使用者更可根据自身的资源限制或者部署要求,灵活调整目标的计算量,DyDiT 将自动适配模型参数,实现效果与效率的最佳平衡。
实验结果表明,DyDiT 在多个数据集和生成模型下均表现出高稳定性。
仅用不到 3% 的微调成本,将DiT-XL 的浮点运算次数(FLOPs)减少了 51%,生成速度提高了 1.73 倍,在 ImageNet 测得的 FID 得分与原模型几乎相当(2.27vs2.07)。
据透露,DyDiT 相关训练与推理代码已开源,并计划适配到更多的文生图、文生视频模型上,目前基于知名文生图模型 FLUX 调试的 Dy-FLUX 也在开源项目上架。
据悉,达摩院今年共有 13 篇论文被 ICLR 2025 录用,涵盖了视频生成、自然语言处理、医疗 AI、基因智能等领網域,其中 3 篇被选为 Spotlight。
论文链接:
https://arxiv.org/abs/2410.03456
技术解读:
开源链接:
https://github.com/alibaba-damo-academy/DyDiT
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
学术投稿请于工作日发邮件到:
标题注明【投稿】,告诉我们:
你是谁,从哪来,投稿内容
附上论文 / 项目主页链接,以及联系方式哦
我们会(尽量)及时回复你
点亮星标
科技前沿进展每日见