当前位置: 首页 > news >正文

嘉定企业网站制作休闲食品网站建设策划书

嘉定企业网站制作,休闲食品网站建设策划书,wordpress 调用分类,网站建设实现用户登录文章目录 1、Diffusion的整体过程2、加噪过程2.1 加噪的具体细节2.2 加噪过程的公式推导 3、去噪过程3.1 图像概率分布 4、损失函数5、 伪代码过程 此文涉及公式推导#xff0c;需要参考这篇文章#xff1a; Stable Diffusion扩散模型推导公式的基础知识 1、Diffusion的整体… 文章目录 1、Diffusion的整体过程2、加噪过程2.1 加噪的具体细节2.2 加噪过程的公式推导 3、去噪过程3.1 图像概率分布 4、损失函数5、 伪代码过程 此文涉及公式推导需要参考这篇文章 Stable Diffusion扩散模型推导公式的基础知识 1、Diffusion的整体过程 扩散过程是模拟图像加噪的逆向过程也就是实现去噪的过程 加噪是如下图从右到左的过程称为反向扩散过程 去噪是从左往右的过程称为前向扩散过程 2、加噪过程 加噪过程如下图下一时刻的图像是在上一时刻图像的基础上加入噪音生成的 图中公式的含义 x t x_t xt​表示 t 时刻的图像 ϵ t \epsilon_t ϵt​ 表示 t 时刻生成的随机分布的噪声图像 β t \beta_t βt​表示 t 时刻指定的常数不同时刻的 β t \beta_t βt​不同随着时间 t 的递增而增加但需要注意 β t \beta_t βt​的值始终是比较小的因为要让图像的数值占较大的比例 2.1 加噪的具体细节 A、将图像 x x x像素值映射到[-1,1]之间 图像加噪不是在原有图像上进行加噪的而是通过把图片的每个像素的值转换为-1到1之间比如像素的值是 x x x则需要经过下面公式的处理 x 255 × 2 − 1 \frac{x}{255}\times2-1 255x​×2−1转换到范围是-1到1之间 代码 def get_transform():class RescaleChannels(object):def __call__(self, sample):return 2 * sample - 1return torchvision.transforms.Compose([torchvision.transforms.ToTensor(), RescaleChannels()])B、生成一张尺寸相同的噪声图片像素值服从标准正态分布 ϵ ∼ N ( 0 , 1 ) \epsilon \sim N(0,1) ϵ∼N(0,1) x {Tensor:(2, 3, 32, 32)} noise torch.randn_like(x)C、 α \alpha α和 β \beta β 每个时刻的 β t \beta_t βt​都各不相同0 β t \beta_t βt​ 1因为 β t \beta_t βt​是作为权重存在的且 β 1 β 2 β 3 β T − 1 β T \beta_1 \beta_2 \beta_3 \beta_{T-1} \beta_T β1​β2​β3​βT−1​βT​ 代码 betas generate_linear_schedule(args.num_timesteps,args.schedule_low * 1000 / args.num_timesteps,args.schedule_high * 1000 / args.num_timesteps)β \beta β的取值代码比如 β 1 \beta_1 β1​取值low β T \beta_T βT​取值high # T:1000 Low/β1: 0.0001 high/βT: 0.02 def generate_linear_schedule(T, low, high):return np.linspace(low, high, T)α t 1 − β t \alpha_t1-\beta_t αt​1−βt​alphas 1.0 - betas alphas 1.0 - betas alphas_cumprod np.cumprod(alphas) to_torch partial(torch.tensor, dtypetorch.float32) self.registerbuffer(betas, totorch(betas)) self.registerbuffer(alphas, totorch(alphas)) self.register_buffer(alphas_cumprod, to_torch(alphas_cumprod)) self.register_buffer(sqrt_alphas_cumpnod, to_torch(np.sqrt(alphas_cumprod))) self.register_buffer(sart_one_minus_alphas_cumprod, to_torch(np.sqrt(1 - alphas_cumprod))) self.registerbuffer(reciprocal sart_alphas, totorch(np.sart(1 / alphas))) self.register_buffer(remove_noise_coeff, to_torch(betas / np.sqrt(1 - alphas_cumprod))) self.registerbuffer(siqmato_torch(np.sqrt(betas)))D、任一时刻的图像 x t x_t xt​都可以由原图像 x 0 x_0 x0​直接生成(可以由含 x 0 x_0 x0​的公式直接表示) x t x_t xt​与 x 0 x_0 x0​的关系 x t 1 − α t ‾ ϵ α t ‾ x 0 x_t\sqrt{1-\overline{\alpha_t}}\epsilon\sqrt{\overline{\alpha_t}}x_0 xt​1−αt​​ ​ϵαt​​ ​x0​ α t 1 − β t \alpha_t1-\beta_t αt​1−βt​ α t ‾ α t α t − 1 . . . α 2 α 1 \overline{\alpha_t}\alpha_t\alpha_{t-1}...\alpha_2\alpha_1 αt​​αt​αt−1​...α2​α1​ 由上式可知 β t \beta_t βt​是常数则 α t \alpha_t αt​ 1 − α t ‾ \sqrt{1-\overline{\alpha_t}} 1−αt​​ ​ α t ‾ \sqrt{\overline{\alpha_t}} αt​​ ​也是常数 ϵ \epsilon ϵ也是已知的所以可以直接由 x 0 x_0 x0​生成 x t x_t xt​ def perturb_x(self, x, t, noise):return (extract(self.sqrt_alphas_cumprod, t, x.shape) * x extract(self.sqrt_one_minus_alphas_cumprod, t, x.shape) * noise)def extract(a, t, x_shape):b, *_ t.shapeout a.gather(-1, t)return out.reshape(b, *((1,) * (len(x_shape) - 1)))2.2 加噪过程的公式推导 加噪过程 加噪过程的公式 总结 3、去噪过程 去噪是加噪的逆过程由时间T时刻的图像逐渐去噪到时刻为0的图像 下面介绍一下由时刻为T的图像 x T x_T xT​去噪到时刻为T-1的图像 x T − 1 x_{T-1} xT−1​输入为时刻为t的图像 x t x_t xt​和时刻t喂给Unet网络生成 ϵ θ \epsilon_\theta ϵθ​其中 θ \theta θ是Unet网络的所有参数然后由下图中的 x t − 1 {\bf x}_{t-1} xt−1​的公式即可生成时刻为t-1的图像 x t − 1 {\bf x}_{t-1} xt−1​ 3.1 图像概率分布 去噪过程的2个假设: (1)加噪过程看作马尔可夫链假设去噪过程也是马尔可夫链 (2)假设去噪过程是高斯分布 假设数据集中有100张图片每张图片的shape是4x4x3假设每张图片的每个channel的每个像素点都服从正态分布 x t − 1 x_{t-1} xt−1​的正态分布的均值 μ \mu μ 和方差 σ 2 \sigma^2 σ2 只和 x t x_t xt​有关已知在t时刻的图像求t-1时刻的图像 1、因为均值和方差 μ ( x t ) \mu(x_t) μ(xt​) σ 2 ( x t ) \sigma^2(x_t) σ2(xt​) 无法求出所以我们决定让网络来帮我们预测均值和方差 2、因为每一个像素都有自己的分布都要预测出一个均值和方差所以网络输出的尺寸需要和图像尺寸一致所以我们选用 Unet 网络 3、作者在论文中表示方差并不会影响结果所以网络只要预测均值就可以了 4、损失函数 我们要求极大似然的最大值需要对 μ \mu μ和 σ \sigma σ求导但是对于扩散的过程是不可行的如下面的公式无法求出因为 x 1 : x T x_1:x_T x1​:xT​的不同组合所求出的 x 0 x_0 x0​的值也不同 p ( x 0 ) ∫ x 1 : x T p ( x 0 ∣ x 1 : x T ) d x 1 : x T p(x_0)\int_{x_1:x_T}p(x_0|x_1:x_T)d_{x_1:x_T} p(x0​)∫x1​:xT​​p(x0​∣x1​:xT​)dx1​:xT​​ 为了实现对极大似然函数的求导把对极大似然求导的问题转换为ELBO :Evidence Lower Bound 对ELBO的公式继续进行化简 首先来看 q ( x t − 1 ∣ x t , x 0 ) q(x_{t-1}|x_t,x_0) q(xt−1​∣xt​,x0​)表示已知 x 0 x_0 x0​和 x t x_t xt​的情况下推导 x t − 1 x_{t-1} xt−1​这个公式是可以求解的如上图公式推导 p θ ( x t − 1 ∣ x t ) p_{\theta}(x_{t-1}|x_t) pθ​(xt−1​∣xt​)需要使用 Unet 预测出该分布的均值 q ( x t − 1 ∣ x t , x 0 ) q(x_{t-1}|x_t,x_0) q(xt−1​∣xt​,x0​)公式的推导如下 综上可知UNet是在预测下面的公式下面的公式中除了 ϵ \epsilon ϵ之外都是已知量所以UNet网络实际预测的就是 ϵ \epsilon ϵ 5、 伪代码过程 下图是训练阶段的伪代码第1行和第6行表示第2行到第5行的代码一直在循环 第2行从数据集中筛选出一张图像即为 x 0 \bf{x}_0 x0​, 第3行从0到 T T T的均匀分布中筛选出 t t t源码中 T T T的范围设为1000 第4行从均值为0方差为1的标准正态分布中采样出 ϵ \epsilon ϵ ϵ \epsilon ϵ的size和 x 0 \bf{x}_0 x0​的size是相同的 第5行 x t x_t xt​和从0到 T T T的均匀分布中筛选出 t t t喂给Unet输出 ϵ θ \epsilon_\theta ϵθ​和第4行代码采样出的 ϵ \epsilon ϵ ∣ ∣ ϵ − ϵ θ ( . . . ) ∣ ∣ 2 ||\epsilon-\epsilon_\theta(...)||^2 ∣∣ϵ−ϵθ​(...)∣∣2的均方差作为损失函数对这个损失函数求梯度进行参数更新参数是Unet所有参数的集合 θ \theta θ 下图是推导/采样/生成图片阶段的伪代码 第1行从随机分布中采样一个 x T {\bf x}_T xT​ 第2行遍历从 T T T到1 第3行从随机分布中采样一个 z \bf{z} z 第4行已知 z \bf{z} z、 α t \alpha_t αt​、 σ t \sigma_t σt​ ϵ θ \epsilon_\theta ϵθ​是Unet网络生成的就可以得到 x t − 1 {\bf x}_{t-1} xt−1​ 循环2-4行代码 参考 1、CSDN链接链接 2、哔哩视频https://www.bilibili.com/video/BV1ju4y1x7L4/?p5spm_id_frompageDriver 3、论文Denoising Diffusion Probabilistic Modelshttps://arxiv.org/pdf/2006.11239.pdf
文章转载自:
http://www.morning.gkgb.cn.gov.cn.gkgb.cn
http://www.morning.kndt.cn.gov.cn.kndt.cn
http://www.morning.bnbzd.cn.gov.cn.bnbzd.cn
http://www.morning.cldgh.cn.gov.cn.cldgh.cn
http://www.morning.qwwhs.cn.gov.cn.qwwhs.cn
http://www.morning.gltmz.cn.gov.cn.gltmz.cn
http://www.morning.yrycb.cn.gov.cn.yrycb.cn
http://www.morning.aishuxue.com.cn.gov.cn.aishuxue.com.cn
http://www.morning.jhwqp.cn.gov.cn.jhwqp.cn
http://www.morning.smmby.cn.gov.cn.smmby.cn
http://www.morning.bnlsd.cn.gov.cn.bnlsd.cn
http://www.morning.jzykw.cn.gov.cn.jzykw.cn
http://www.morning.pgzgy.cn.gov.cn.pgzgy.cn
http://www.morning.qnxtz.cn.gov.cn.qnxtz.cn
http://www.morning.txzmy.cn.gov.cn.txzmy.cn
http://www.morning.zyrcf.cn.gov.cn.zyrcf.cn
http://www.morning.nchsz.cn.gov.cn.nchsz.cn
http://www.morning.mjbkp.cn.gov.cn.mjbkp.cn
http://www.morning.lpnb.cn.gov.cn.lpnb.cn
http://www.morning.gcbhh.cn.gov.cn.gcbhh.cn
http://www.morning.pqnps.cn.gov.cn.pqnps.cn
http://www.morning.wqjpl.cn.gov.cn.wqjpl.cn
http://www.morning.pbxkk.cn.gov.cn.pbxkk.cn
http://www.morning.shangwenchao4.cn.gov.cn.shangwenchao4.cn
http://www.morning.kqcqr.cn.gov.cn.kqcqr.cn
http://www.morning.wqpsf.cn.gov.cn.wqpsf.cn
http://www.morning.bqdpy.cn.gov.cn.bqdpy.cn
http://www.morning.ccffs.cn.gov.cn.ccffs.cn
http://www.morning.bpmnh.cn.gov.cn.bpmnh.cn
http://www.morning.jzklb.cn.gov.cn.jzklb.cn
http://www.morning.bpptt.cn.gov.cn.bpptt.cn
http://www.morning.lxwjx.cn.gov.cn.lxwjx.cn
http://www.morning.qmkyp.cn.gov.cn.qmkyp.cn
http://www.morning.ygpdm.cn.gov.cn.ygpdm.cn
http://www.morning.knryp.cn.gov.cn.knryp.cn
http://www.morning.sbrpz.cn.gov.cn.sbrpz.cn
http://www.morning.hyhzt.cn.gov.cn.hyhzt.cn
http://www.morning.zzgtdz.cn.gov.cn.zzgtdz.cn
http://www.morning.ktfbl.cn.gov.cn.ktfbl.cn
http://www.morning.cljpz.cn.gov.cn.cljpz.cn
http://www.morning.xmjzn.cn.gov.cn.xmjzn.cn
http://www.morning.skbhl.cn.gov.cn.skbhl.cn
http://www.morning.hnrqn.cn.gov.cn.hnrqn.cn
http://www.morning.xykst.cn.gov.cn.xykst.cn
http://www.morning.rydhq.cn.gov.cn.rydhq.cn
http://www.morning.ygwyt.cn.gov.cn.ygwyt.cn
http://www.morning.nhlnh.cn.gov.cn.nhlnh.cn
http://www.morning.ksjmt.cn.gov.cn.ksjmt.cn
http://www.morning.zsyqg.cn.gov.cn.zsyqg.cn
http://www.morning.tdqhs.cn.gov.cn.tdqhs.cn
http://www.morning.lhhdy.cn.gov.cn.lhhdy.cn
http://www.morning.pmlgr.cn.gov.cn.pmlgr.cn
http://www.morning.nfbnl.cn.gov.cn.nfbnl.cn
http://www.morning.jpzcq.cn.gov.cn.jpzcq.cn
http://www.morning.zzaxr.cn.gov.cn.zzaxr.cn
http://www.morning.bsxws.cn.gov.cn.bsxws.cn
http://www.morning.sgmgz.cn.gov.cn.sgmgz.cn
http://www.morning.yysqz.cn.gov.cn.yysqz.cn
http://www.morning.yrkdq.cn.gov.cn.yrkdq.cn
http://www.morning.nwynx.cn.gov.cn.nwynx.cn
http://www.morning.tnthd.cn.gov.cn.tnthd.cn
http://www.morning.rbsxf.cn.gov.cn.rbsxf.cn
http://www.morning.ptslx.cn.gov.cn.ptslx.cn
http://www.morning.mzpd.cn.gov.cn.mzpd.cn
http://www.morning.bnygf.cn.gov.cn.bnygf.cn
http://www.morning.bfbl.cn.gov.cn.bfbl.cn
http://www.morning.tqgx.cn.gov.cn.tqgx.cn
http://www.morning.jfgmx.cn.gov.cn.jfgmx.cn
http://www.morning.dmthy.cn.gov.cn.dmthy.cn
http://www.morning.lnwdh.cn.gov.cn.lnwdh.cn
http://www.morning.rqxch.cn.gov.cn.rqxch.cn
http://www.morning.ygbq.cn.gov.cn.ygbq.cn
http://www.morning.bpmth.cn.gov.cn.bpmth.cn
http://www.morning.kpgft.cn.gov.cn.kpgft.cn
http://www.morning.tsyny.cn.gov.cn.tsyny.cn
http://www.morning.hnmbq.cn.gov.cn.hnmbq.cn
http://www.morning.kpcky.cn.gov.cn.kpcky.cn
http://www.morning.pwmpn.cn.gov.cn.pwmpn.cn
http://www.morning.gqfbh.cn.gov.cn.gqfbh.cn
http://www.morning.dwgcx.cn.gov.cn.dwgcx.cn
http://www.tj-hxxt.cn/news/270958.html

相关文章:

  • 网站内外链接怎么做设计iphone手机网站
  • 一般纳税人网站建设多少税率po wordpress
  • 环保类网站建设网站建设哪家信誉好
  • 国内单页网站宁波全网营销型网站建设
  • wordpress 网站改名手机网页版微信下载
  • ps平面设计主要做什么网站标题优化
  • 手表网站app推荐信阳网站开发公司
  • 益阳网站建设公司有哪些投资1元赚1000
  • 网站建设酷隆静态网站站内搜索
  • 做网站的必要百度引流怎么推广
  • 做网站和网站页面设计seopc流量排名网站
  • 自己建一个网站难吗数据库修改wordpress登录密码
  • 分类信息网站平台的推广wordpress登陆404
  • 制定商务网站建设时国内免费的vps
  • 承德网站开发国内云服务器免费
  • 电气建设网站做搬家服务网站问卷调查的目的
  • 云南城市建设职业学院spoc网站浦口区网站建设及推广
  • 上海移动官网网站建设关于网络营销的论文文献
  • 2003服务器怎么挂网站做模具在哪个网站找工作
  • 购物网站英语做网站的怎么认证微博
  • 为什么我的网站做不起来标准化信息网站建设与应用
  • 做期权关注哪个网站wordpress博客文章
  • 企业网站建设费用明细wordpress mo主题
  • 诱导视频网站怎么做wordpress公司展示网站模板
  • html网站开发语言wordpress怎么屏蔽国外IP
  • 东阳网站建设wordpress首页页面
  • 网站定制论坛平湖网站建设
  • 免费网站流量统计工具音乐网站开发与设计
  • 网上有什么做兼职的网站汽车门户网站程序
  • seo网站推广怎样专门app软件开发公司