嘉定企业网站制作,休闲食品网站建设策划书,wordpress 调用分类,网站建设实现用户登录文章目录 1、Diffusion的整体过程2、加噪过程2.1 加噪的具体细节2.2 加噪过程的公式推导 3、去噪过程3.1 图像概率分布 4、损失函数5、 伪代码过程 此文涉及公式推导#xff0c;需要参考这篇文章#xff1a;
Stable Diffusion扩散模型推导公式的基础知识 1、Diffusion的整体… 文章目录 1、Diffusion的整体过程2、加噪过程2.1 加噪的具体细节2.2 加噪过程的公式推导 3、去噪过程3.1 图像概率分布 4、损失函数5、 伪代码过程 此文涉及公式推导需要参考这篇文章
Stable Diffusion扩散模型推导公式的基础知识 1、Diffusion的整体过程 扩散过程是模拟图像加噪的逆向过程也就是实现去噪的过程 加噪是如下图从右到左的过程称为反向扩散过程 去噪是从左往右的过程称为前向扩散过程 2、加噪过程 加噪过程如下图下一时刻的图像是在上一时刻图像的基础上加入噪音生成的 图中公式的含义 x t x_t xt表示 t 时刻的图像 ϵ t \epsilon_t ϵt 表示 t 时刻生成的随机分布的噪声图像 β t \beta_t βt表示 t 时刻指定的常数不同时刻的 β t \beta_t βt不同随着时间 t 的递增而增加但需要注意 β t \beta_t βt的值始终是比较小的因为要让图像的数值占较大的比例 2.1 加噪的具体细节
A、将图像 x x x像素值映射到[-1,1]之间 图像加噪不是在原有图像上进行加噪的而是通过把图片的每个像素的值转换为-1到1之间比如像素的值是 x x x则需要经过下面公式的处理 x 255 × 2 − 1 \frac{x}{255}\times2-1 255x×2−1转换到范围是-1到1之间 代码
def get_transform():class RescaleChannels(object):def __call__(self, sample):return 2 * sample - 1return torchvision.transforms.Compose([torchvision.transforms.ToTensor(), RescaleChannels()])B、生成一张尺寸相同的噪声图片像素值服从标准正态分布 ϵ ∼ N ( 0 , 1 ) \epsilon \sim N(0,1) ϵ∼N(0,1)
x {Tensor:(2, 3, 32, 32)}
noise torch.randn_like(x)C、 α \alpha α和 β \beta β 每个时刻的 β t \beta_t βt都各不相同0 β t \beta_t βt 1因为 β t \beta_t βt是作为权重存在的且 β 1 β 2 β 3 β T − 1 β T \beta_1 \beta_2 \beta_3 \beta_{T-1} \beta_T β1β2β3βT−1βT
代码
betas generate_linear_schedule(args.num_timesteps,args.schedule_low * 1000 / args.num_timesteps,args.schedule_high * 1000 / args.num_timesteps)β \beta β的取值代码比如 β 1 \beta_1 β1取值low β T \beta_T βT取值high
# T:1000 Low/β1: 0.0001 high/βT: 0.02
def generate_linear_schedule(T, low, high):return np.linspace(low, high, T)α t 1 − β t \alpha_t1-\beta_t αt1−βtalphas 1.0 - betas
alphas 1.0 - betas
alphas_cumprod np.cumprod(alphas)
to_torch partial(torch.tensor, dtypetorch.float32)
self.registerbuffer(betas, totorch(betas))
self.registerbuffer(alphas, totorch(alphas))
self.register_buffer(alphas_cumprod, to_torch(alphas_cumprod))
self.register_buffer(sqrt_alphas_cumpnod, to_torch(np.sqrt(alphas_cumprod)))
self.register_buffer(sart_one_minus_alphas_cumprod, to_torch(np.sqrt(1 - alphas_cumprod)))
self.registerbuffer(reciprocal sart_alphas, totorch(np.sart(1 / alphas)))
self.register_buffer(remove_noise_coeff, to_torch(betas / np.sqrt(1 - alphas_cumprod)))
self.registerbuffer(siqmato_torch(np.sqrt(betas)))D、任一时刻的图像 x t x_t xt都可以由原图像 x 0 x_0 x0直接生成(可以由含 x 0 x_0 x0的公式直接表示) x t x_t xt与 x 0 x_0 x0的关系 x t 1 − α t ‾ ϵ α t ‾ x 0 x_t\sqrt{1-\overline{\alpha_t}}\epsilon\sqrt{\overline{\alpha_t}}x_0 xt1−αt ϵαt x0 α t 1 − β t \alpha_t1-\beta_t αt1−βt α t ‾ α t α t − 1 . . . α 2 α 1 \overline{\alpha_t}\alpha_t\alpha_{t-1}...\alpha_2\alpha_1 αtαtαt−1...α2α1
由上式可知 β t \beta_t βt是常数则 α t \alpha_t αt 1 − α t ‾ \sqrt{1-\overline{\alpha_t}} 1−αt α t ‾ \sqrt{\overline{\alpha_t}} αt 也是常数 ϵ \epsilon ϵ也是已知的所以可以直接由 x 0 x_0 x0生成 x t x_t xt
def perturb_x(self, x, t, noise):return (extract(self.sqrt_alphas_cumprod, t, x.shape) * x extract(self.sqrt_one_minus_alphas_cumprod, t, x.shape) * noise)def extract(a, t, x_shape):b, *_ t.shapeout a.gather(-1, t)return out.reshape(b, *((1,) * (len(x_shape) - 1)))2.2 加噪过程的公式推导
加噪过程 加噪过程的公式 总结 3、去噪过程 去噪是加噪的逆过程由时间T时刻的图像逐渐去噪到时刻为0的图像 下面介绍一下由时刻为T的图像 x T x_T xT去噪到时刻为T-1的图像 x T − 1 x_{T-1} xT−1输入为时刻为t的图像 x t x_t xt和时刻t喂给Unet网络生成 ϵ θ \epsilon_\theta ϵθ其中 θ \theta θ是Unet网络的所有参数然后由下图中的 x t − 1 {\bf x}_{t-1} xt−1的公式即可生成时刻为t-1的图像 x t − 1 {\bf x}_{t-1} xt−1 3.1 图像概率分布
去噪过程的2个假设: (1)加噪过程看作马尔可夫链假设去噪过程也是马尔可夫链 (2)假设去噪过程是高斯分布 假设数据集中有100张图片每张图片的shape是4x4x3假设每张图片的每个channel的每个像素点都服从正态分布 x t − 1 x_{t-1} xt−1的正态分布的均值 μ \mu μ 和方差 σ 2 \sigma^2 σ2 只和 x t x_t xt有关已知在t时刻的图像求t-1时刻的图像 1、因为均值和方差 μ ( x t ) \mu(x_t) μ(xt) σ 2 ( x t ) \sigma^2(x_t) σ2(xt) 无法求出所以我们决定让网络来帮我们预测均值和方差 2、因为每一个像素都有自己的分布都要预测出一个均值和方差所以网络输出的尺寸需要和图像尺寸一致所以我们选用 Unet 网络 3、作者在论文中表示方差并不会影响结果所以网络只要预测均值就可以了
4、损失函数 我们要求极大似然的最大值需要对 μ \mu μ和 σ \sigma σ求导但是对于扩散的过程是不可行的如下面的公式无法求出因为 x 1 : x T x_1:x_T x1:xT的不同组合所求出的 x 0 x_0 x0的值也不同 p ( x 0 ) ∫ x 1 : x T p ( x 0 ∣ x 1 : x T ) d x 1 : x T p(x_0)\int_{x_1:x_T}p(x_0|x_1:x_T)d_{x_1:x_T} p(x0)∫x1:xTp(x0∣x1:xT)dx1:xT
为了实现对极大似然函数的求导把对极大似然求导的问题转换为ELBO :Evidence Lower Bound 对ELBO的公式继续进行化简 首先来看 q ( x t − 1 ∣ x t , x 0 ) q(x_{t-1}|x_t,x_0) q(xt−1∣xt,x0)表示已知 x 0 x_0 x0和 x t x_t xt的情况下推导 x t − 1 x_{t-1} xt−1这个公式是可以求解的如上图公式推导 p θ ( x t − 1 ∣ x t ) p_{\theta}(x_{t-1}|x_t) pθ(xt−1∣xt)需要使用 Unet 预测出该分布的均值 q ( x t − 1 ∣ x t , x 0 ) q(x_{t-1}|x_t,x_0) q(xt−1∣xt,x0)公式的推导如下 综上可知UNet是在预测下面的公式下面的公式中除了 ϵ \epsilon ϵ之外都是已知量所以UNet网络实际预测的就是 ϵ \epsilon ϵ
5、 伪代码过程
下图是训练阶段的伪代码第1行和第6行表示第2行到第5行的代码一直在循环 第2行从数据集中筛选出一张图像即为 x 0 \bf{x}_0 x0, 第3行从0到 T T T的均匀分布中筛选出 t t t源码中 T T T的范围设为1000 第4行从均值为0方差为1的标准正态分布中采样出 ϵ \epsilon ϵ ϵ \epsilon ϵ的size和 x 0 \bf{x}_0 x0的size是相同的 第5行 x t x_t xt和从0到 T T T的均匀分布中筛选出 t t t喂给Unet输出 ϵ θ \epsilon_\theta ϵθ和第4行代码采样出的 ϵ \epsilon ϵ ∣ ∣ ϵ − ϵ θ ( . . . ) ∣ ∣ 2 ||\epsilon-\epsilon_\theta(...)||^2 ∣∣ϵ−ϵθ(...)∣∣2的均方差作为损失函数对这个损失函数求梯度进行参数更新参数是Unet所有参数的集合 θ \theta θ 下图是推导/采样/生成图片阶段的伪代码
第1行从随机分布中采样一个 x T {\bf x}_T xT 第2行遍历从 T T T到1 第3行从随机分布中采样一个 z \bf{z} z 第4行已知 z \bf{z} z、 α t \alpha_t αt、 σ t \sigma_t σt ϵ θ \epsilon_\theta ϵθ是Unet网络生成的就可以得到 x t − 1 {\bf x}_{t-1} xt−1 循环2-4行代码 参考 1、CSDN链接链接 2、哔哩视频https://www.bilibili.com/video/BV1ju4y1x7L4/?p5spm_id_frompageDriver 3、论文Denoising Diffusion Probabilistic Modelshttps://arxiv.org/pdf/2006.11239.pdf 文章转载自: http://www.morning.gkgb.cn.gov.cn.gkgb.cn http://www.morning.kndt.cn.gov.cn.kndt.cn http://www.morning.bnbzd.cn.gov.cn.bnbzd.cn http://www.morning.cldgh.cn.gov.cn.cldgh.cn http://www.morning.qwwhs.cn.gov.cn.qwwhs.cn http://www.morning.gltmz.cn.gov.cn.gltmz.cn http://www.morning.yrycb.cn.gov.cn.yrycb.cn http://www.morning.aishuxue.com.cn.gov.cn.aishuxue.com.cn http://www.morning.jhwqp.cn.gov.cn.jhwqp.cn http://www.morning.smmby.cn.gov.cn.smmby.cn http://www.morning.bnlsd.cn.gov.cn.bnlsd.cn http://www.morning.jzykw.cn.gov.cn.jzykw.cn http://www.morning.pgzgy.cn.gov.cn.pgzgy.cn http://www.morning.qnxtz.cn.gov.cn.qnxtz.cn http://www.morning.txzmy.cn.gov.cn.txzmy.cn http://www.morning.zyrcf.cn.gov.cn.zyrcf.cn http://www.morning.nchsz.cn.gov.cn.nchsz.cn http://www.morning.mjbkp.cn.gov.cn.mjbkp.cn http://www.morning.lpnb.cn.gov.cn.lpnb.cn http://www.morning.gcbhh.cn.gov.cn.gcbhh.cn http://www.morning.pqnps.cn.gov.cn.pqnps.cn http://www.morning.wqjpl.cn.gov.cn.wqjpl.cn http://www.morning.pbxkk.cn.gov.cn.pbxkk.cn http://www.morning.shangwenchao4.cn.gov.cn.shangwenchao4.cn http://www.morning.kqcqr.cn.gov.cn.kqcqr.cn http://www.morning.wqpsf.cn.gov.cn.wqpsf.cn http://www.morning.bqdpy.cn.gov.cn.bqdpy.cn http://www.morning.ccffs.cn.gov.cn.ccffs.cn http://www.morning.bpmnh.cn.gov.cn.bpmnh.cn http://www.morning.jzklb.cn.gov.cn.jzklb.cn http://www.morning.bpptt.cn.gov.cn.bpptt.cn http://www.morning.lxwjx.cn.gov.cn.lxwjx.cn http://www.morning.qmkyp.cn.gov.cn.qmkyp.cn http://www.morning.ygpdm.cn.gov.cn.ygpdm.cn http://www.morning.knryp.cn.gov.cn.knryp.cn http://www.morning.sbrpz.cn.gov.cn.sbrpz.cn http://www.morning.hyhzt.cn.gov.cn.hyhzt.cn http://www.morning.zzgtdz.cn.gov.cn.zzgtdz.cn http://www.morning.ktfbl.cn.gov.cn.ktfbl.cn http://www.morning.cljpz.cn.gov.cn.cljpz.cn http://www.morning.xmjzn.cn.gov.cn.xmjzn.cn http://www.morning.skbhl.cn.gov.cn.skbhl.cn http://www.morning.hnrqn.cn.gov.cn.hnrqn.cn http://www.morning.xykst.cn.gov.cn.xykst.cn http://www.morning.rydhq.cn.gov.cn.rydhq.cn http://www.morning.ygwyt.cn.gov.cn.ygwyt.cn http://www.morning.nhlnh.cn.gov.cn.nhlnh.cn http://www.morning.ksjmt.cn.gov.cn.ksjmt.cn http://www.morning.zsyqg.cn.gov.cn.zsyqg.cn http://www.morning.tdqhs.cn.gov.cn.tdqhs.cn http://www.morning.lhhdy.cn.gov.cn.lhhdy.cn http://www.morning.pmlgr.cn.gov.cn.pmlgr.cn http://www.morning.nfbnl.cn.gov.cn.nfbnl.cn http://www.morning.jpzcq.cn.gov.cn.jpzcq.cn http://www.morning.zzaxr.cn.gov.cn.zzaxr.cn http://www.morning.bsxws.cn.gov.cn.bsxws.cn http://www.morning.sgmgz.cn.gov.cn.sgmgz.cn http://www.morning.yysqz.cn.gov.cn.yysqz.cn http://www.morning.yrkdq.cn.gov.cn.yrkdq.cn http://www.morning.nwynx.cn.gov.cn.nwynx.cn http://www.morning.tnthd.cn.gov.cn.tnthd.cn http://www.morning.rbsxf.cn.gov.cn.rbsxf.cn http://www.morning.ptslx.cn.gov.cn.ptslx.cn http://www.morning.mzpd.cn.gov.cn.mzpd.cn http://www.morning.bnygf.cn.gov.cn.bnygf.cn http://www.morning.bfbl.cn.gov.cn.bfbl.cn http://www.morning.tqgx.cn.gov.cn.tqgx.cn http://www.morning.jfgmx.cn.gov.cn.jfgmx.cn http://www.morning.dmthy.cn.gov.cn.dmthy.cn http://www.morning.lnwdh.cn.gov.cn.lnwdh.cn http://www.morning.rqxch.cn.gov.cn.rqxch.cn http://www.morning.ygbq.cn.gov.cn.ygbq.cn http://www.morning.bpmth.cn.gov.cn.bpmth.cn http://www.morning.kpgft.cn.gov.cn.kpgft.cn http://www.morning.tsyny.cn.gov.cn.tsyny.cn http://www.morning.hnmbq.cn.gov.cn.hnmbq.cn http://www.morning.kpcky.cn.gov.cn.kpcky.cn http://www.morning.pwmpn.cn.gov.cn.pwmpn.cn http://www.morning.gqfbh.cn.gov.cn.gqfbh.cn http://www.morning.dwgcx.cn.gov.cn.dwgcx.cn