<?xml version="1.0" encoding="utf-8" ?><rss version="2.0"><channel><title>必应：Diffusion Model</title><link>http://www.bing.com:80/search?q=Diffusion+Model</link><description>搜索结果</description><image><url>http://www.bing.com:80/s/a/rsslogo.gif</url><title>Diffusion Model</title><link>http://www.bing.com:80/search?q=Diffusion+Model</link></image><copyright>版权所有 © 2026 Microsoft。保留所有权利。不得以任何方式或出于任何目的使用、复制或传输这些 XML 结果，除非出于个人的非商业用途在 RSS 聚合器中呈现必应结果。对这些结果的任何其他使用都需要获得 Microsoft Corporation 的明确书面许可。一经访问此网页或以任何方式使用这些结果，即表示您同意受上述限制的约束。</copyright><item><title>什么是diffusion model? 它为什么好用？ - 知乎</title><link>https://www.zhihu.com/question/613579202</link><description>Score-based generative modeling: score matching + Langevin dynamics 解决实现中的存在的问题——Annealed Langevin dynamics 虽然经过上面的设计与推导，score-based model 的基本方案已经有了，但是在具体实现中还有一些问题需要解决。这些问题的根源主要在于“流形假设”（manifold hypothesis）。 流形假设指出，现实世界的 ...</description><pubDate>周一, 16 3月 2026 12:32:00 GMT</pubDate></item><item><title>2024年了diffusion还有什么可做的？ - 知乎</title><link>https://www.zhihu.com/question/647875443</link><description>这个回答对之前的回答做进一步的补充完善。我们通过 “数据、模型、优化” 三个角度，再加上能做的 “任务”，可以将diffusion models的全流程解剖一下，然后一个一个来看， 个人比较看好的方向加粗标出： 数据 生成图像的分辨率 生成特定领域图像 模型 压缩模型 网络架构 文本编码 采样 优化 ...</description><pubDate>周日, 29 3月 2026 03:34:00 GMT</pubDate></item><item><title>diffusion model 最近在图像生成领域大红大紫，如何看待它的风头开始超过 GAN</title><link>https://www.zhihu.com/question/536012286?utm_oi=955576858926977024</link><description>Diffusion model最初提出是2015年的这篇 Deep Unsupervised Learning using Nonequilibrium Thermodynamics，这篇文章写作上跟目前diffusion model非常不一样，而且也没有做work，不建议新手读。 真正把diffusion model首次做work的工作是2020年提出的 DDPM，其中有许多实现上的细节。</description><pubDate>周日, 15 3月 2026 09:06:00 GMT</pubDate></item><item><title>扩散模型为什么会这么火，本质上相比于GAN到底好在哪里，可以详细的分析一下吗? - 知乎</title><link>https://www.zhihu.com/question/634448868</link><description>GANs 诞生于 2014 年，而第一篇 Diffusion model 论文《Deep Unsupervised Learning using Nonequilibrium Thermodynamics》仅仅比GANs 晚 1 年问世。 但是后来一段时间内 Diffusion 的热度明显没有 GANs 火。</description><pubDate>周四, 26 3月 2026 19:01:00 GMT</pubDate></item><item><title>如何评价Google刚刚发布的 Gemini Diffusion? 会代替自回归模型成为下一代模型吗？</title><link>https://www.zhihu.com/question/1908479621466396378</link><description>Gemini Diffusion - Google DeepMind 首先谷歌的 llm diffusion 和之前发布的 llm diffusion (e.g Large Language Diffusion Models)不同. 它是在生成 token 后对已有的token做了refine. 关于这一点可以从发布的视频demo看到. 在第一帧时,生成的answer是错误的.</description><pubDate>周四, 02 4月 2026 17:13:00 GMT</pubDate></item><item><title>十分钟读懂Diffusion：图解Diffusion扩散模型</title><link>https://www.zhihu.com/tardis/zm/art/599887666</link><description>2. 扩散模型Diffusion 前面介绍了Diffusion是如何根据输入文字生成图片的，让大家有个大概的了解，接下来会详细介绍扩散模型Diffusion是如何训练的，又是如何生成图片的。 2.1 扩散模型Duffison的训练过程 扩散模型Diffusion Diffusion模型的训练可以分为两个部分：</description><pubDate>周三, 01 4月 2026 08:24:00 GMT</pubDate></item><item><title>如何看待diffusionLLM的现状？ - 知乎</title><link>https://www.zhihu.com/question/14534423770</link><description>Diffusion model for text generation是我个人一直比较看好的方向—— 虽然说这个研究方向一直还处于「小模型刷benchmark」的阶段，发展进程还比较缓慢，dLLM的推出或许给这个方向打开了一个全新的视角。 我们知道，diffusion model本身是non-autoregressive的，也就是说在输出response的时候，模型会同步更新输出的 ...</description><pubDate>周五, 27 3月 2026 19:29:00 GMT</pubDate></item><item><title>谁能讲解下扩散模型中Unet的注意力机制？ - 知乎</title><link>https://www.zhihu.com/question/597701864</link><description>这背后都用到了一个强大的模型：Diffusion Model。 所以， 在这个系列中，我们将从原理到源码，从基石DDPM到DALLE2，Imagen与Stable Diffusion，通过详细的图例和解说，和大家一起来了解扩散模型的奥秘。</description><pubDate>周四, 02 4月 2026 22:06:00 GMT</pubDate></item><item><title>MIT Diffusion 完整学习记录 - 知乎</title><link>https://www.zhihu.com/column/c_1986834344485086554</link><description>在前两节课中，我们已经展示了如何利用由神经网络输出的 vector field 来构建一个生成模型，并推导了用于训练的 training target 。 这节课我们将学习如何对该 model 进行训练。 Lecture3-Training Flow and Diffusion Models Section 1: Flo…</description><pubDate>周二, 10 3月 2026 16:29:00 GMT</pubDate></item><item><title>对于具身智能机器人领域中的扩散策略diffusion policy而言，还有哪些值得研究的方向？ - 知乎</title><link>https://www.zhihu.com/question/635887335</link><description>在这一背景下，一系列数据集和通用模型的探索工作相继展开，旨在标准化和统一化具身智能中的诸多难题。 具体来说，本文将概述机器人控制基础动作模型的技术前沿，并进一步介绍近期公开的强大模型《RDT-1B: a Diffusion Foundation Model for Bimanual Manipulation》。</description><pubDate>周四, 02 4月 2026 10:25:00 GMT</pubDate></item></channel></rss>