当前位置: 首页 > news >正文

嘉定企业网站制作长春市经济开发区人才网

嘉定企业网站制作,长春市经济开发区人才网,网站创意文案怎么做,网站科普信息化建设的意义文章目录 1、Diffusion的整体过程2、加噪过程2.1 加噪的具体细节2.2 加噪过程的公式推导 3、去噪过程3.1 图像概率分布 4、损失函数5、 伪代码过程 此文涉及公式推导#xff0c;需要参考这篇文章#xff1a; Stable Diffusion扩散模型推导公式的基础知识 1、Diffusion的整体… 文章目录 1、Diffusion的整体过程2、加噪过程2.1 加噪的具体细节2.2 加噪过程的公式推导 3、去噪过程3.1 图像概率分布 4、损失函数5、 伪代码过程 此文涉及公式推导需要参考这篇文章 Stable Diffusion扩散模型推导公式的基础知识 1、Diffusion的整体过程 扩散过程是模拟图像加噪的逆向过程也就是实现去噪的过程 加噪是如下图从右到左的过程称为反向扩散过程 去噪是从左往右的过程称为前向扩散过程 2、加噪过程 加噪过程如下图下一时刻的图像是在上一时刻图像的基础上加入噪音生成的 图中公式的含义 x t x_t xt​表示 t 时刻的图像 ϵ t \epsilon_t ϵt​ 表示 t 时刻生成的随机分布的噪声图像 β t \beta_t βt​表示 t 时刻指定的常数不同时刻的 β t \beta_t βt​不同随着时间 t 的递增而增加但需要注意 β t \beta_t βt​的值始终是比较小的因为要让图像的数值占较大的比例 2.1 加噪的具体细节 A、将图像 x x x像素值映射到[-1,1]之间 图像加噪不是在原有图像上进行加噪的而是通过把图片的每个像素的值转换为-1到1之间比如像素的值是 x x x则需要经过下面公式的处理 x 255 × 2 − 1 \frac{x}{255}\times2-1 255x​×2−1转换到范围是-1到1之间 代码 def get_transform():class RescaleChannels(object):def __call__(self, sample):return 2 * sample - 1return torchvision.transforms.Compose([torchvision.transforms.ToTensor(), RescaleChannels()])B、生成一张尺寸相同的噪声图片像素值服从标准正态分布 ϵ ∼ N ( 0 , 1 ) \epsilon \sim N(0,1) ϵ∼N(0,1) x {Tensor:(2, 3, 32, 32)} noise torch.randn_like(x)C、 α \alpha α和 β \beta β 每个时刻的 β t \beta_t βt​都各不相同0 β t \beta_t βt​ 1因为 β t \beta_t βt​是作为权重存在的且 β 1 β 2 β 3 β T − 1 β T \beta_1 \beta_2 \beta_3 \beta_{T-1} \beta_T β1​β2​β3​βT−1​βT​ 代码 betas generate_linear_schedule(args.num_timesteps,args.schedule_low * 1000 / args.num_timesteps,args.schedule_high * 1000 / args.num_timesteps)β \beta β的取值代码比如 β 1 \beta_1 β1​取值low β T \beta_T βT​取值high # T:1000 Low/β1: 0.0001 high/βT: 0.02 def generate_linear_schedule(T, low, high):return np.linspace(low, high, T)α t 1 − β t \alpha_t1-\beta_t αt​1−βt​alphas 1.0 - betas alphas 1.0 - betas alphas_cumprod np.cumprod(alphas) to_torch partial(torch.tensor, dtypetorch.float32) self.registerbuffer(betas, totorch(betas)) self.registerbuffer(alphas, totorch(alphas)) self.register_buffer(alphas_cumprod, to_torch(alphas_cumprod)) self.register_buffer(sqrt_alphas_cumpnod, to_torch(np.sqrt(alphas_cumprod))) self.register_buffer(sart_one_minus_alphas_cumprod, to_torch(np.sqrt(1 - alphas_cumprod))) self.registerbuffer(reciprocal sart_alphas, totorch(np.sart(1 / alphas))) self.register_buffer(remove_noise_coeff, to_torch(betas / np.sqrt(1 - alphas_cumprod))) self.registerbuffer(siqmato_torch(np.sqrt(betas)))D、任一时刻的图像 x t x_t xt​都可以由原图像 x 0 x_0 x0​直接生成(可以由含 x 0 x_0 x0​的公式直接表示) x t x_t xt​与 x 0 x_0 x0​的关系 x t 1 − α t ‾ ϵ α t ‾ x 0 x_t\sqrt{1-\overline{\alpha_t}}\epsilon\sqrt{\overline{\alpha_t}}x_0 xt​1−αt​​ ​ϵαt​​ ​x0​ α t 1 − β t \alpha_t1-\beta_t αt​1−βt​ α t ‾ α t α t − 1 . . . α 2 α 1 \overline{\alpha_t}\alpha_t\alpha_{t-1}...\alpha_2\alpha_1 αt​​αt​αt−1​...α2​α1​ 由上式可知 β t \beta_t βt​是常数则 α t \alpha_t αt​ 1 − α t ‾ \sqrt{1-\overline{\alpha_t}} 1−αt​​ ​ α t ‾ \sqrt{\overline{\alpha_t}} αt​​ ​也是常数 ϵ \epsilon ϵ也是已知的所以可以直接由 x 0 x_0 x0​生成 x t x_t xt​ def perturb_x(self, x, t, noise):return (extract(self.sqrt_alphas_cumprod, t, x.shape) * x extract(self.sqrt_one_minus_alphas_cumprod, t, x.shape) * noise)def extract(a, t, x_shape):b, *_ t.shapeout a.gather(-1, t)return out.reshape(b, *((1,) * (len(x_shape) - 1)))2.2 加噪过程的公式推导 加噪过程 加噪过程的公式 总结 3、去噪过程 去噪是加噪的逆过程由时间T时刻的图像逐渐去噪到时刻为0的图像 下面介绍一下由时刻为T的图像 x T x_T xT​去噪到时刻为T-1的图像 x T − 1 x_{T-1} xT−1​输入为时刻为t的图像 x t x_t xt​和时刻t喂给Unet网络生成 ϵ θ \epsilon_\theta ϵθ​其中 θ \theta θ是Unet网络的所有参数然后由下图中的 x t − 1 {\bf x}_{t-1} xt−1​的公式即可生成时刻为t-1的图像 x t − 1 {\bf x}_{t-1} xt−1​ 3.1 图像概率分布 去噪过程的2个假设: (1)加噪过程看作马尔可夫链假设去噪过程也是马尔可夫链 (2)假设去噪过程是高斯分布 假设数据集中有100张图片每张图片的shape是4x4x3假设每张图片的每个channel的每个像素点都服从正态分布 x t − 1 x_{t-1} xt−1​的正态分布的均值 μ \mu μ 和方差 σ 2 \sigma^2 σ2 只和 x t x_t xt​有关已知在t时刻的图像求t-1时刻的图像 1、因为均值和方差 μ ( x t ) \mu(x_t) μ(xt​) σ 2 ( x t ) \sigma^2(x_t) σ2(xt​) 无法求出所以我们决定让网络来帮我们预测均值和方差 2、因为每一个像素都有自己的分布都要预测出一个均值和方差所以网络输出的尺寸需要和图像尺寸一致所以我们选用 Unet 网络 3、作者在论文中表示方差并不会影响结果所以网络只要预测均值就可以了 4、损失函数 我们要求极大似然的最大值需要对 μ \mu μ和 σ \sigma σ求导但是对于扩散的过程是不可行的如下面的公式无法求出因为 x 1 : x T x_1:x_T x1​:xT​的不同组合所求出的 x 0 x_0 x0​的值也不同 p ( x 0 ) ∫ x 1 : x T p ( x 0 ∣ x 1 : x T ) d x 1 : x T p(x_0)\int_{x_1:x_T}p(x_0|x_1:x_T)d_{x_1:x_T} p(x0​)∫x1​:xT​​p(x0​∣x1​:xT​)dx1​:xT​​ 为了实现对极大似然函数的求导把对极大似然求导的问题转换为ELBO :Evidence Lower Bound 对ELBO的公式继续进行化简 首先来看 q ( x t − 1 ∣ x t , x 0 ) q(x_{t-1}|x_t,x_0) q(xt−1​∣xt​,x0​)表示已知 x 0 x_0 x0​和 x t x_t xt​的情况下推导 x t − 1 x_{t-1} xt−1​这个公式是可以求解的如上图公式推导 p θ ( x t − 1 ∣ x t ) p_{\theta}(x_{t-1}|x_t) pθ​(xt−1​∣xt​)需要使用 Unet 预测出该分布的均值 q ( x t − 1 ∣ x t , x 0 ) q(x_{t-1}|x_t,x_0) q(xt−1​∣xt​,x0​)公式的推导如下 综上可知UNet是在预测下面的公式下面的公式中除了 ϵ \epsilon ϵ之外都是已知量所以UNet网络实际预测的就是 ϵ \epsilon ϵ 5、 伪代码过程 下图是训练阶段的伪代码第1行和第6行表示第2行到第5行的代码一直在循环 第2行从数据集中筛选出一张图像即为 x 0 \bf{x}_0 x0​, 第3行从0到 T T T的均匀分布中筛选出 t t t源码中 T T T的范围设为1000 第4行从均值为0方差为1的标准正态分布中采样出 ϵ \epsilon ϵ ϵ \epsilon ϵ的size和 x 0 \bf{x}_0 x0​的size是相同的 第5行 x t x_t xt​和从0到 T T T的均匀分布中筛选出 t t t喂给Unet输出 ϵ θ \epsilon_\theta ϵθ​和第4行代码采样出的 ϵ \epsilon ϵ ∣ ∣ ϵ − ϵ θ ( . . . ) ∣ ∣ 2 ||\epsilon-\epsilon_\theta(...)||^2 ∣∣ϵ−ϵθ​(...)∣∣2的均方差作为损失函数对这个损失函数求梯度进行参数更新参数是Unet所有参数的集合 θ \theta θ 下图是推导/采样/生成图片阶段的伪代码 第1行从随机分布中采样一个 x T {\bf x}_T xT​ 第2行遍历从 T T T到1 第3行从随机分布中采样一个 z \bf{z} z 第4行已知 z \bf{z} z、 α t \alpha_t αt​、 σ t \sigma_t σt​ ϵ θ \epsilon_\theta ϵθ​是Unet网络生成的就可以得到 x t − 1 {\bf x}_{t-1} xt−1​ 循环2-4行代码 参考 1、CSDN链接链接 2、哔哩视频https://www.bilibili.com/video/BV1ju4y1x7L4/?p5spm_id_frompageDriver 3、论文Denoising Diffusion Probabilistic Modelshttps://arxiv.org/pdf/2006.11239.pdf
文章转载自:
http://www.morning.prgdy.cn.gov.cn.prgdy.cn
http://www.morning.zsfooo.com.gov.cn.zsfooo.com
http://www.morning.yngtl.cn.gov.cn.yngtl.cn
http://www.morning.lqpzb.cn.gov.cn.lqpzb.cn
http://www.morning.yjxfj.cn.gov.cn.yjxfj.cn
http://www.morning.gfqj.cn.gov.cn.gfqj.cn
http://www.morning.ffrys.cn.gov.cn.ffrys.cn
http://www.morning.rccpl.cn.gov.cn.rccpl.cn
http://www.morning.bkjhx.cn.gov.cn.bkjhx.cn
http://www.morning.gydsg.cn.gov.cn.gydsg.cn
http://www.morning.qnksk.cn.gov.cn.qnksk.cn
http://www.morning.mdwtm.cn.gov.cn.mdwtm.cn
http://www.morning.ckwxs.cn.gov.cn.ckwxs.cn
http://www.morning.qgjxy.cn.gov.cn.qgjxy.cn
http://www.morning.syfty.cn.gov.cn.syfty.cn
http://www.morning.csdgt.cn.gov.cn.csdgt.cn
http://www.morning.qwfl.cn.gov.cn.qwfl.cn
http://www.morning.pmptm.cn.gov.cn.pmptm.cn
http://www.morning.spfh.cn.gov.cn.spfh.cn
http://www.morning.grnhb.cn.gov.cn.grnhb.cn
http://www.morning.kyctc.cn.gov.cn.kyctc.cn
http://www.morning.bplqh.cn.gov.cn.bplqh.cn
http://www.morning.gyjld.cn.gov.cn.gyjld.cn
http://www.morning.jrbyz.cn.gov.cn.jrbyz.cn
http://www.morning.mmtbn.cn.gov.cn.mmtbn.cn
http://www.morning.mcbqq.cn.gov.cn.mcbqq.cn
http://www.morning.ccpnz.cn.gov.cn.ccpnz.cn
http://www.morning.rfhmb.cn.gov.cn.rfhmb.cn
http://www.morning.pndw.cn.gov.cn.pndw.cn
http://www.morning.hclplus.com.gov.cn.hclplus.com
http://www.morning.tbhf.cn.gov.cn.tbhf.cn
http://www.morning.nqlkb.cn.gov.cn.nqlkb.cn
http://www.morning.bbtn.cn.gov.cn.bbtn.cn
http://www.morning.xjmyq.com.gov.cn.xjmyq.com
http://www.morning.wffxr.cn.gov.cn.wffxr.cn
http://www.morning.youprogrammer.cn.gov.cn.youprogrammer.cn
http://www.morning.lpzqd.cn.gov.cn.lpzqd.cn
http://www.morning.qzqfq.cn.gov.cn.qzqfq.cn
http://www.morning.zljqb.cn.gov.cn.zljqb.cn
http://www.morning.gsksm.cn.gov.cn.gsksm.cn
http://www.morning.iterlog.com.gov.cn.iterlog.com
http://www.morning.qczpf.cn.gov.cn.qczpf.cn
http://www.morning.dzqyn.cn.gov.cn.dzqyn.cn
http://www.morning.nhgkm.cn.gov.cn.nhgkm.cn
http://www.morning.prhqn.cn.gov.cn.prhqn.cn
http://www.morning.nydtt.cn.gov.cn.nydtt.cn
http://www.morning.qtkdn.cn.gov.cn.qtkdn.cn
http://www.morning.youprogrammer.cn.gov.cn.youprogrammer.cn
http://www.morning.jxcwn.cn.gov.cn.jxcwn.cn
http://www.morning.2d1bl5.cn.gov.cn.2d1bl5.cn
http://www.morning.qzpsk.cn.gov.cn.qzpsk.cn
http://www.morning.lssfd.cn.gov.cn.lssfd.cn
http://www.morning.uycvv.cn.gov.cn.uycvv.cn
http://www.morning.nqlcj.cn.gov.cn.nqlcj.cn
http://www.morning.pmptm.cn.gov.cn.pmptm.cn
http://www.morning.pzcqz.cn.gov.cn.pzcqz.cn
http://www.morning.lzqxb.cn.gov.cn.lzqxb.cn
http://www.morning.ubpsa.cn.gov.cn.ubpsa.cn
http://www.morning.dkzwx.cn.gov.cn.dkzwx.cn
http://www.morning.wzwyz.cn.gov.cn.wzwyz.cn
http://www.morning.nggry.cn.gov.cn.nggry.cn
http://www.morning.skqfx.cn.gov.cn.skqfx.cn
http://www.morning.rhkgz.cn.gov.cn.rhkgz.cn
http://www.morning.skscy.cn.gov.cn.skscy.cn
http://www.morning.hpspr.com.gov.cn.hpspr.com
http://www.morning.frtb.cn.gov.cn.frtb.cn
http://www.morning.hypng.cn.gov.cn.hypng.cn
http://www.morning.yhdqq.cn.gov.cn.yhdqq.cn
http://www.morning.dfojgo.cn.gov.cn.dfojgo.cn
http://www.morning.jxfmn.cn.gov.cn.jxfmn.cn
http://www.morning.haibuli.com.gov.cn.haibuli.com
http://www.morning.mxhgy.cn.gov.cn.mxhgy.cn
http://www.morning.brwnd.cn.gov.cn.brwnd.cn
http://www.morning.bqyb.cn.gov.cn.bqyb.cn
http://www.morning.spfq.cn.gov.cn.spfq.cn
http://www.morning.nfks.cn.gov.cn.nfks.cn
http://www.morning.ygrdb.cn.gov.cn.ygrdb.cn
http://www.morning.hjbrd.cn.gov.cn.hjbrd.cn
http://www.morning.trjr.cn.gov.cn.trjr.cn
http://www.morning.mkbc.cn.gov.cn.mkbc.cn
http://www.tj-hxxt.cn/news/281144.html

相关文章:

  • 建站模板建网站个人个性网页界面设计
  • 网络网站是多少钱企业营销运营
  • 微信网站开发完全教程优化设计七年级上册语文答案
  • 学校网站资源建设方案万盛网站建设
  • 网站建设初稿google推广一年的费用
  • 如何查询网站空间商wordpress商家展示主题
  • 湖南网站建设磐石网络最好58同城 招聘 找工作
  • 网站开发语言检测腾讯企业邮箱怎么开通注册
  • 图片分享网站建设html网页 wordpress
  • 网站开发前端大型网络规划设计方案
  • 如何做网站的基础百度 新网站 重定向过多
  • 个人网站 虚拟主机免费企业网站建设技术
  • 公司营销型网站建设亿创电力建设集团有限公司网站
  • 网站正能量就是一打开全是的焊接球网架公司
  • 网站的开发技术重庆微信网站开
  • 360站长平台外汇跟单社区网站开发
  • 中国空间站照片做游戏能赚钱的网站
  • 如何建设属于自己的网站手机app开发语言
  • 做第三方seo优化网站网站安全建设总结报告
  • 图片展示网站php源码做外贸的网站域名怎么买
  • dw网站大学生代做优酷有wordpress插件吗
  • 美食网站开发目的与意义温州市职业中专学校
  • 学做网站需要国际贸易平台有哪些
  • 手机阅读网站开发原因短视频运营
  • 合肥市城乡建设局2019网站太原微网站建设谁家好
  • js 网站制作网页生成
  • phpcms做装修网站张家港手机网站制作
  • 杭州高端网站建设排名贵阳网站建设套餐
  • 在安庆哪里可以做公司网站网站安全建设步骤
  • 全国做网站最好的公司有哪些永久免费自助网站