首页 > 业界 > 关键词  > 微调算法最新资讯  > 正文

Google DeepMind提出DRaFT算法以高效优化扩散模型

2023-10-09 10:32 · 稿源:站长之家

要点:

1、Google DeepMind提出了直接奖励微调(DRaFT)的概念,可以高效微调扩散模型以最大化可微的奖励函数。

2、引入DRaFT-K和DRaFT-LV算法,限制反向传播步数,提高效率。实验证明优于全反向传播。

3、在Stable Diffusion1.4上应用DRaFT,结果显示其效率远超基于强化学习的微调基线。DRaFT-LV效率最高

站长之家(ChinaZ.com)10月9日 消息:扩散模型已经革新了各类数据的生成建模。但是在实际应用中,如根据文本描述生成美观图像,仍需要微调模型。目前文本到图像的扩散模型采用无分类器指导和精心设计的数据集如LAION美学数据集来提升图像质量和模型对齐性能。

image.png

论文地址:https://arxiv.org/abs/2309.17400

在研究中,Google DeepMind提出了一种直接而高效的基于梯度的奖励微调方法,其核心是将扩散采样过程微分化。他们提出了直接奖励微调(DRaFT)的概念,其本质是反向传播整个采样链,通常表示为具有50步长度的展开计算图。为有效管理内存和计算成本,他们采用梯度检查点技术,优化LoRA权重而不是修改全部模型参数。

此外,Google DeepMind还提出了DRaFT方法的改进,以提升其效率和性能。首先是DRaFT-K,其限制采样时仅反向传播最后K步时的梯度计算。实验结果显示,与全反向传播相比,这种截断梯度方法的性能明显更好,因为全反向传播会导致梯度爆炸问题。

另外,研究人员提出了DRaFT-LV,其平均多个噪声样本来计算更低方差的梯度估计,进一步提高方法效率。

研究人员在Stable Diffusion1.4上应用DRaFT,使用各种奖励函数和提示进行评估。他们的梯度方法相比基于强化学习的微调基线,效率优势明显。例如,在最大化LAION美学分类器分数时,与强化学习算法相比取得了200倍的加速。

他们提出的变体DRaFT-LV展现出卓越的效率,学习速度约为先前梯度微调方法ReFL的两倍。此外,他们证明了DRaFT可以与预训练模型组合或插值,通过混合或缩放LoRA权重来实现。

总之,直接在可微奖励上微调扩散模型是一个提升生成建模技术的有前景的方向。其效率、通用性和有效性使其成为机器学习和生成建模领域研究者和从业者的有价值工具。

举报

  • 相关推荐
  • 保守了?谷歌DeepMind CEO:媲美人类的AI将在5至10年内实现

    据CNBC报道称,谷歌旗下人工智能实验室DeepMind首席执行官戴密斯·哈萨比斯在周一的新闻发布会上预测,能够与人类竞争的人工智能即将出现,虽然各方面都能赶上人类的AI的落地还有很长的路要走,但成为现实也只是时间问题已。哈萨比斯表示:“目前,人工智能在某些领域表现非常出色,但尚未达到能够像人类一样执行所有复杂功能的阶段。哈萨比斯则认为“没人知道ASI何时会出现”、“一旦人工智能拥有了人类级别的思维能力,其影响将难以想象。

  • L40S显卡助力Deepseek大模型训练与推理:超强性能,精确高效

    随着深度学习技术的不断发展,AI模型规模的不断扩大,越来越多的应用场景需要处理大规模的计算任务。Deepseek等大语言模型不仅要求高效的计算能力对显存、带宽和系统稳定性提出了极高要求。如果您正在寻找一款能够加速大规模AI模型。

  • DeepSeek给的压力太大,前国产大模型之光Kimi变阵

    DeepSeek的横空出世无异于是AI界的一次“小行星撞地球”,直到现在它的连锁反应还在继续,不仅是AI硬件厂商英伟达,云服务提供商阿里云、AWS、微软Azure,乃至社交巨头微信都卷入了这个漩涡。如今曾在去年春季冒头的国内AI独角兽Kimi,也不得不收缩战线。

  • DeepSeek第三弹:开源DeepGEMM!

    今天上午9点,DeepSeek继续履行开源周承诺,发布了开源DeepGEMM。该帖子一经转发,立即引来了2.1万阅读量,足以见其在国内外受到追捧的热度。本次开源属于DeepSeek开源周”的第三项项目,此前已发布FlashMLA和DeepEP。

  • 苏姿丰:DeepSeek发布首日AMD就给予了支持、还在一直优化

    在今天的ADVANCINGAI”AMDAIPC创新峰会上,AMDCEO苏姿丰发表了致辞。苏姿丰表示,对于AMD来说最重要的事情之一,就是推动开源协作,与开源社区合作实现进步,如果你留意到DeepSeek近期的成果,就会发现过去几个月的发展令人激动不已。AMD目前已实现DeepSeek、WiseModel、HuggingFace、LIama、Modelscope以及通义千问等大模型的开箱即用。

  • “复制”DeepSeek,量化巨头为何能成大模型顶流?

    又成AI大模型圈顶流?据媒体最新报道,幻方量化的老对手的九坤投资,携手微软团队成功复现DeepSeek-R1首次发现了语言混合会显著降低推理能力等问题。有投资人调侃道,“以后找大模型项目,是不是得先去量化机构排队拿号?”一些关注AI领域的风投的第一反应是:“什么?梁文峰见不到,难道我们要找关系拜访王琛了?”王琛,正是九坤投资的创始人,也是最近风投圈关注的又一

  • DeepSeek第二炸:开源首个用于 MoE 模型训练通信库

    今天是DeepSeek开源周第二日,一早,DeepSeek如约就放出了开源代码库DeepEP王炸。DeepEP是首个用于MoE模型训练和推理的开源EP通信库,它填补了MoE模型专用通信工具的空白,为大规模分布式AI训练和实时推理场景提供了更高效的底层支持。6、深度优化场景针对NVLink到RDMA的非对称带宽转发场景进行专项优化,提升异构网络下的传输性能;此外,它还支持SM数量动态控制,平衡不同任务的吞吐量需求。

  • LG发布韩国首款开源推理AI模型,韩媒声称:数学比Deepseek强!

    18日,LG公开了韩国首个推理型AI大模型——一种像人类一样经过逻辑性和阶段性的思考过程后得出答案的AI模型——它与从已学习的数据中寻找答案的传统模型有所不同。来自中国的Deepseek以低成本、高性能震惊全世界,甚至撼动了“AI先锋”OpenAI的地位。LG计划逐步以B2B的形式扩大服务。

  • 寻找DeepSeek梁文锋

    AI大模型DeepSeek凭借好用、开源、免费三大特点火爆全球,成为史上最快突破3000万日活跃用户的APP,如今当下各行各业都在被DeepSeek化。就是这样一家公司,在爆火之前,外界知之甚少,它极少出现在媒体报道、猎头招聘、同行调研之中,也从未像“AI六小龙”那样激起过市场的水花。但无论如何,DeepSeek打破巨头了在AI领域的叙事,现在投资人们迫切希望在下一个DeepSeek出现之�

  • 广告盯上DeepSeek

    AI搜索加广告,是必然吗?定焦One原创作者|王璐编辑|魏佳DeepSeek们最近因为答案中疑似“夹带”广告被骂了。起因是科普博主“三个老爸实验室”称在腾讯元宝接入的DeepSeek里发现,生成答案中有“建议通过58到家等正规平台比价预约”“建议通过快回收平台或本地正规回收商询价”等广告倾向性内容。需要提醒大家的是,即便有没有广告,AI的回答也不是绝对客观中立。