庄闲和游戏 西湖大学提出RDPO强化学习框架,实现扩散模型并行推理加速
2026-01-17用扩散模型(比如 Stable Diffusion)一张张"挤"出高分辨率图像的时代,正在被世界模型实时生成高清视频的浪潮冲刷。 但无论图像还是视频,扩散模型骨子里的"顺序去噪"过程,就像一场无法并行的接力赛,成为速度提升的终极瓶颈。 如何在不伤及模型"绘画功力"的前提下,为它装上加速引擎? 西湖大学 AGI Lab 提出的RDPO(残差狄利克雷策略优化)框架,给出了一种巧妙的答案:不必改动模型本身,而是优化它的"采样导航系统"。 扩散模型(DMs)虽然取得了最先进的生成性能,但由于其顺序去噪




备案号: