OpenAI新生成模型开源炸场!比Diffusion更快更强,清华校友一作

  图像生成领域,看来又要变天了。

  就在刚刚,OpenAI开源了比扩散模型更快、性能更好的一致性模型:

  无需对抗训练,就能生成高质量图片!

  这个重磅消息一经发出,立刻引爆学术圈。

  虽说论文本身在3月份就已低调发布,但当时大伙儿普遍认为它只是个OpenAI的前沿研究,并不会真正将细节公开。

  没想到这次直接来了个开源。有网友立刻上手实测了一波效果,发现只需要3.5秒左右就能生成64张左右256×256的图像:

  游戏结束!

  这是这位网友生成的图像效果,看起来还不错:

  还有网友调侃称:这次OpenAI终于Open了!

  值得一提的是,论文一作OpenAI科学家宋飏,是一位清华校友,16岁就通过领军计划进入清华数理基础科学班求学。

  一起来看看这次OpenAI开源了一项怎样的研究。

  开源了一个怎样的重磅研究?

  作为一个图像生成AI,一致性模型(Consistency Model)最大的特点在于快又好。

  相比扩散模型,它主要有两大优势:

  其一,无需对抗训练(adversarial training),就能直接生成高质量的图像样本。

  其二,相比扩散模型可能需要几百甚至上千次迭代,一致性模型只需要一两步就能搞定多种图像任务——

  包括上色、去噪、超分等,都可以在几步之内搞定,而不需要对这些任务进行明确训练。(当然,如果进行少样本学习的话,生成效果也会更好)

  所以一致性模型究竟是如何实现这种效果的?

  从原理来看,一致性模型的诞生与ODE(常微分方程)式生成扩散模型有关。

  图中可见,ODE会先一步步将图片数据转换成噪声,随后再进行一个逆向求解,从噪声中学习生成图像。

  而就在这个过程中,作者们试图将ODE轨迹上的任何点(如Xt、Xt和Xr)映射到它的原点(如X0)进行生成建模。

0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论