KZ
item
Негізгі бет
Трендинг
Журнал
Ұнаған бейнелер
Ең жақсы KZitem
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Кіру
Тіркелу
Кіру
Тіркелу
Негізгі бет
Трендинг
Журнал
Ұнаған бейнелер
Ең жақсы KZitem
Фильм және анимация
Автокөліктер мен көлік құралдары
Музыка
Үй жануарлары мен аңдар
Спорт
Ойындар
Комедия
Ойын-сауық
Тәжірибелік нұсқаулар және стиль
Ғылым және технология
Негізгі бет
【生成式AI】Diffusion Model 原理剖析 (3/4) (optional)
Күн бұрын
【生成式AI】Diffusion Model 原理剖析 (3/4) (optional)
Рет қаралды
33,457
Hung-yi Lee
1
1
Жүктеу
Пікірлер: 25
@zwindr
Жыл бұрын
請問開頭的 x_(t-1) & x_t 對應的圖是不是反了,感覺變成 x_t 生成 x_(t-1),好像不太符合 q(x_t | x_(t-1)) 而下一頁的 x_0 & x_1 對應的圖,則是由 x_0 生成 x_1,感覺比較合理
@jetblack6756
Жыл бұрын
这里应该是笔误
@yukisuki5380
8 ай бұрын
NICE
@suziw1809
2 ай бұрын
最开始假设的是 x_t = sqrt(1-beta_t) * x_{t-1} + sqrt(beta_t) * noise. training过后noise__nn 求出来了。那么自然 x_{t-1} = 1/sqrt(1-beta_t) * {x_t - sqrt(beta_t) * noise_nn(x_t, t)} = 1/sqrt(alpa_t) {...}. 为什么sampling还需要推导,而且推导出来了一个不一样的公式
@ChenXince
7 ай бұрын
老师好,1:50是不是应该是 xt = 根号1-βt x_{t-1} + 根号1-βt ε,和后面 2:05矛盾了
@蒂蒂-f7o
Жыл бұрын
謝謝老師~ 我好興奮呀~
@jieyang981
3 ай бұрын
为什么\sqrt{1-\beta_2}\sqrt{\beta_1} \sigma_1 + \sqrt\beta_2 \sigma_2 两个噪声加权的结果等于 \sqrt{1-(1-\beta_2)(1-\beta_1)}\sigma_3呢,这个转换是等于转换吗,还是说这样写权重只是为了图像部分对应得到1-\beta_t方便后续的连乘积结果的使用?
@BINGZHENGGAN
Жыл бұрын
谢谢老师的讲解!不过想问一下15分钟时的那个公式是不是有问题啊?感觉分子上q(x_(t-1),x_t,x_0 )应该不等于q(x_t |x_(t-1) )q(x_(t-1) |x_0 )q(x_0 )吧?具体来说,把三项连乘的后面两项q(x_(t-1) |x_0 )q(x_0 )先乘起来得到q(x_(t-1),x_0 ),而这一项应该不能直接和第一项q(x_t |x_(t-1) )直接做乘法得到q(x_(t-1),x_t,x_0 )的。如果第一项是q(x_t |x_(t-1),x_0 )才可以乘吧?
@HungyiLeeNTU
Жыл бұрын
這邊有一件事上課的時候忘了強調,x0 -> x1 -> … -> x_T 其實是一個 Markov Chain,也就是說如果給定 x_{t-1} 的話,x_t 的機率就只跟 x_{t-1} 有關,因此 q(x_t | x_{t-1},x_0 ) = q(x_t | x_{t-1})
@BINGZHENGGAN
Жыл бұрын
@@HungyiLeeNTU 明白了,感谢老师的回答!
@longweiyang2881
6 ай бұрын
@@HungyiLeeNTU 感谢老师
@miku3920
Жыл бұрын
原來那個參數是為了這件事阿
@suziw1809
2 ай бұрын
没看懂啊,最开始假设了xt-1 = √1- beta_t * x_t + √beta_t * N01. 最后推出的还是 xt-1 = ??? x_t 的迭代关系式子
@suziw1809
2 ай бұрын
不是要从loss,推到train的loop,然后求denois network吗。怎么又推到sampling去了,有了denoise network sampleing不是直接就有了递推公式吗x_t-1 = ???x_t, 为什么又推出了一个不一样的递推公式
@liangyanli6888
Жыл бұрын
谢谢老师 请问为甚不考虑variance呢 没有理解呢
@wuyiwong8874
8 ай бұрын
在视频1:27中,为什么q(x_t | x_t-1) 也是一个gaussian distribution 呢?
@allenchen8559
3 ай бұрын
首先,投影片的圖片下面的 x_t-1 和 x_t 應該寫反了。然後 x_t = sqrt(1-β_t)x_t-1 + sqrt(β_t)ε, ε 是一個 noise ~ N(0, I),那自然在給定 x_t-1 (常數)下,x_t | x_t-1 ~ N(sqrt(1-β_t)x_t-1, β_t*I) 囉,這邊I是單位矩陣唷。
@jetblack6756
Жыл бұрын
老师好,请教一个问题,为什么加噪声的权重要设置为 √(1-beta) + √(beta) 呢,两部分权重相加不等于1诶。为什么不直接去掉根号呢,这样计算起来不也更方便了嘛
@biebie523
Жыл бұрын
这样才能保证输入的方差和输出的方差相等。例如输入的方差是1,noise的方差也是1,用文中公式输出的方差必然也是1。如果去掉根号,输出的方差会小于1,这样latent variable的方差会越来越小,最后变成一个点。
@rikki146
Жыл бұрын
9:54 是 maximize 吧 @@ 畢竟是 log likelihood
@j-jd8yf
3 ай бұрын
不得不说,浅谈difussion model那一节给人很大误导,或许对于只是想粗略了解的人来说够直观,但是对于真正想知道其实现过程细节的人来说,前面那一节给人很大的误导,尤其是去噪的部分,denoised model其实压根没有内部结构,更不存在所谓的减掉噪声。看完这一节之后才知道其实去噪压根不是像之前那样,整个过程非常奇妙,而且不同于VAE,这里的decoder直接连NN都不用算了,只需要一个概念即可。
@DadEncyclopedia
Жыл бұрын
搶第一
@anynamecanbeuse
4 ай бұрын
一如既往,讲的太好了!
@haomeng1305
Жыл бұрын
謝謝老師~ 我好興奮呀~
@Jack-sk9hy
Жыл бұрын
半夜更新!
Пікірлер: 25