KZ
item
Негізгі бет
Трендинг
Журнал
Ұнаған бейнелер
Ең жақсы KZitem
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Кіру
Тіркелу
Кіру
Тіркелу
Негізгі бет
Трендинг
Журнал
Ұнаған бейнелер
Ең жақсы KZitem
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Негізгі бет
【生成式AI】Diffusion Model 原理剖析 (1/4) (optional)
Күн бұрын
【生成式AI】Diffusion Model 原理剖析 (1/4) (optional)
Рет қаралды
80,353
Hung-yi Lee
1
1
Жүктеу
Пікірлер: 38
@博士维尼
4 ай бұрын
李老师您好,我最近看到一个文章上面解释了为什么要加一个random noise. 他解释说根据 stochastic gradient Langevin dynamics 这个方法. 通过添加noise 可以使得Xt-1 的分布趋于p(Xt-1|X0). 这个概率分布的一阶导数恰好是这个公式里面的误差函数. 可以让模型更多的探索概率空间以避免落入一个极值.
@yo-yoyo2303
11 ай бұрын
謝謝老師,學了幾天第一次聽懂…
@j-jd8yf
3 ай бұрын
10:15 其实两种方法本质上都是一样的,上面最直觉的那种实际上也可以用来训练,不过就是计算量更多罢了。“多次正态分布的效果和一次的效果一样”,理解这句话就能理解为什么两种方法本质是一样的了。
@蒂蒂-f7o
Жыл бұрын
謝謝老師~ 希望有機會講到微軟的開源 Deep Speed Chat~
@jacob0920
6 ай бұрын
李老师讲的比我遇到的所有教授讲的都要清晰的多
@goldaa4093
11 ай бұрын
感谢老师的讲解
@j-jd8yf
3 ай бұрын
13:10 为什么要再加一个噪声的原因其实很简单,因为按照之前的训练,减掉噪声之后的图片应该是x0,这里要求x(t-1),自然需要加一次噪声。不过我疑问的是理论上立刻就能得到x0,如同训练一样,但这里为什么要多次迭代呢?
@HuangChauJian
6 ай бұрын
謝謝老師
@chuanjiang6931
6 ай бұрын
10分40秒,Xt 是一张纯噪音的图片,为什么降噪能还原出来清晰的猫的图片?
@AtlasGcx
3 ай бұрын
这就是reverse diffusion啊,模型训练的过程就是根据prompt还原这个纯噪音加入的过程 0:21 参考这里就好
@senx8758
9 ай бұрын
6:12的时候, noisy image只是是从x0开始, 加一次epsilon, 为啥不考虑x_i i < t的情况
@senx8758
9 ай бұрын
看到8:28的时候, 发现确实跟想象不一样。
@jijie133
4 ай бұрын
Great video! 谢谢
@蓝狐
Жыл бұрын
3:38 也解决了我看之前的视频的疑惑,视频 8 分 15 到 9 分左右,那个加入的 noise 杂讯,是一样的吗?还是每次随机正态分布得到的?kzitem.info/news/bejne/wrB425uAs5-rYKQ
@客家饒舌執牛耳
Жыл бұрын
又來置板凳上課了
@yandongPaiwithLove
5 ай бұрын
因为不加上新的杂讯,下一轮预估的输入就不再是加了噪声的分布,会导致训推不一致
@hsubyron2277
Жыл бұрын
看老師影片長大
@ttxiton9622
Жыл бұрын
老师好~
@rescatterbrain2288
Жыл бұрын
6:34
@sexyFatBeauty
Жыл бұрын
老师麦克风可不可以调一下 有回音
@LuckyGooseYA
Жыл бұрын
Could we download the slides ?
@miku3920
Жыл бұрын
最後要再加一次雜訊的原因應該是要讓 AI 不容易一直用同一招解決問題
@leohe6243
Жыл бұрын
采样的时候模型已经固定了,所以应该跟AI容不容易用同一招没什么关系,关键是,从deltaZ前面的参数可以知道这个加上的噪声很小而且随着迭代越来越小的。
@droidcrackye5238
Жыл бұрын
哈哈,跟随李老师的视频从2017年学到现在
@liyulin8603
Жыл бұрын
请问PPT可不可以分享一下
@cocoz-fv4sk
Жыл бұрын
好棒!!!最喜欢老师的课!谢谢宏毅老师的视频!!!😭
@jjj111-xt4fw
9 ай бұрын
谢谢宏毅老师!
@newlclc001
Жыл бұрын
頭香~
@武文达
6 ай бұрын
我有个问题啊...这个训练过程和预测过程是不匹配的啊。因为训练过程中加noise(n0)的那一项是模拟的1-t-1的所有noise的表达,但是模型预测的结果n_p是要尽可能贴近n0,这个n0绝对不是t-1部的noise啊,但是inference的时候其实是把这个n_p当作t-1步加入的noise的。
@kantlu7000
5 ай бұрын
所以sample的時候不是直接拿模型預測的noise拿來用,而是有進行一連串的數學推導
@tyler_chang
Жыл бұрын
謝謝老師的講解
@yb801
10 ай бұрын
太强了,我是fw
@Anny-orange
8 ай бұрын
喜欢老师的课!
@TankNSSpank
Жыл бұрын
@许明乐-n2q
Жыл бұрын
请问有哪里可以下载PDF吗?
@nai-chienhsu8715
Жыл бұрын
去老師的新網站應該可以下載的到~
@李帅-p6t
Жыл бұрын
@@nai-chienhsu8715你好,有网站地址么,请帖一下
Пікірлер: 38