当前位置: 首页 > news >正文

管庄地区网站建设高端品牌网站设计电话

管庄地区网站建设,高端品牌网站设计电话,最实用的上网网址一览表,郑州短视频代运营公司超分辨率(Super-Resolution)即通过硬件或软件的方法提高原有图像的分辨率#xff0c;图像超分辨率是计算机视觉和图像处理领域一个非常重要的研究问题#xff0c;在医疗图像分析、生物特征识别、视频监控与安全等实际场景中有着广泛的应用。 SR取得了显著进步。一般可以将现有… 超分辨率(Super-Resolution)即通过硬件或软件的方法提高原有图像的分辨率图像超分辨率是计算机视觉和图像处理领域一个非常重要的研究问题在医疗图像分析、生物特征识别、视频监控与安全等实际场景中有着广泛的应用。 SR取得了显著进步。一般可以将现有的SR技术研究大致分为三大类监督SR无监督SR和特定领域SR人脸。 先说监督SR。 如今已经有各种深度学习的超分辨率模型。这些模型依赖于有监督的超分辨率即用LR图像和相应的基础事实GTHR图像训练。虽然这些模型之间的差异非常大但它们本质上是一组组件的组合例如模型框架上采样方法网络设计和学习策略等。从这个角度来看研究人员将这些组件组合起来构建一个用于拟合特定任务的集成SR模型。由于图像超分辨率是一个病态问题如何进行上采样即从低分辨率产生高分辨率是关键问题。基于采用的上采样操作及其在模型中的位置SR模型可归因于四种模型框架预先采样SR后上采样SR渐进上采样SR和迭代上下采样SR如图所示。 除了在模型中的位置之外上采样操作如何实现它们也非常重要。为了克服插值法的缺点并以端到端的方式学习上采样操作转置卷积层Transposed Convolution Layer和亚像素层Sub-pixel Layer可以引入到超分辨率中。转置卷积层即反卷积层基于尺寸类似于卷积层输出的特征图来预测可能的输入。具体地说它通过插入零值并执行卷积来扩展图像从而提高了图像分辨率。为了简洁起见以3×3内核执行2次上采样为例如图所示。首先输入扩展到原始大小的两倍其中新添加的像素值被设置为0b。然后应用大小为3×3、步长1和填充1的内核卷积c。这样输入特征图实现因子为2的上采样而感受野最多为2×2。 由于转置卷积层可以以端到端的方式放大图像大小同时保持与vanilla卷积兼容的连接模式因此它被广泛用作SR模型的上采样层。然而它很容易在每个轴上产生“不均匀重叠uneven overlapping”并且在两个轴的乘法进一步产生了特有的不同幅度棋盘状图案从而损害了SR性能。亚像素层也是端到端学习的上采样层通过卷积生成多个通道然后重新整形如图所示。首先卷积产生具有s2倍通道的输出其中s是上采样因子b。假设输入大小为h×w×c则输出大小为h×w×s2c。之后执行整形shuffle操作产生大小为sh×sw×c的输出c。感受野大小可以达到3×3。 由于端到端的上采样方式亚像素层也被SR模型广泛使用。与转置卷积层相比亚像素层的最大优势是具有较大的感知场提供更多的上下文信息能帮助生成更准确的细节。然而亚像素层的感受野的分布是不均匀的块状区域实际上共享相同的感受野这可能导致在块边界附近的一些畸变。各种深度学习的模型已经被用于SR如图所示。 ResNet学习残差而不是彻底的映射已被SR模型广泛采用如上图a所示。其中残差学习策略可以大致分为两种类型即全局和局部残差学习。由于超分辨率是图像到图像的转换任务其中输入图像与目标图像高度相关全局残差学习仅学习两个图像之间的残差。在这种情况下它避免学习从完整图像到另一个图像的复杂转换而只需要学习残差图来恢复丢失的高频细节。由于大多数区域残差接近于零模型的复杂性和学习难度都大大降低。这种方法在预上采样的SR框架普遍采用。局部残差学习类似于ResNet的残差学习用于缓解不断增加的网络深度引起的退化问题并提高学习能力。实践中上述方法都是通过快捷连接通常有小常数因子的缩放和逐元素加法操作实现的。区别在于前者直接连接输入图像和输出图像而后者通常在不同深度的网络中层之间添加多个快捷方式。• 递归学习递归学习以递归方式多次应用相同模块也被超分辨率采用如上图 b所示。在实践中递归学习固有地带来了消失vanishing或爆涨exploding梯度问题因此残差学习和多信号监督等一些技术通常与递归学习相结合以减轻这些问题。• 通道关注考虑到不同通道之间特征表征的相互依赖和作用一种“挤压-激发SAEsqueeze-and-excitation”模块明确对通道相互依赖性建模来提高表示能力如上图c所示。其中用全局平均池化将每个输入通道压缩到通道描述子即一个常数中然后将这些描述子馈送到两个全连接层产生通道尺度因子。基于通道乘法用尺度因子重新缩放输入通道得到最终输出。• 致密连接致密连接在视觉任务中变得越来越流行。在致密块的每个层所有前层的特征图用作输入并且其自身特征图用作所有后续层的输入在一个有l层致密块中带来l·l - 1/ 2个连接。致密连接不仅有助于缓解梯度消失问题、增强信号的传播并促进特征重用而且在连接之后采用小增长率即致密块的通道数和通道缩减来大大减少参数量。为了融合低级和高级特征以提供更丰富的信息来重建高质量的细节致密连接被引入SR领域如上图d所示。• 多路径学习多路径学习指模型存在多个路径传递特征这些路径执行不同的操作以提供更好的建模功能。具体而言它可以分为三种类型全局法、局部法和特定尺度法。全局多路径学习是指用多个路径提取图像不同方面的特征。这些路径可以在传播中相互交叉从而大大增强了特征提取的能力。本地多路径学习用新块进行多尺度特征提取如上图e所示。该块采用不同内核大小的卷积同时提取特征然后将输出连接起来并再次进行相同的操作。快捷方式通过逐元素添加来连接该块的输出和输入。通过这种局部多路径学习SR模型可以更好地从多个尺度提取图像特征进一步提高性能。特定尺度多路径学习共享模型的主要部分即特征提取的中间部分并分别在网络的开头和结尾附加特定尺度的预处理路径和上采样路径如上图f所示。在训练期间仅启用和更新与所选尺度对应的路径。这样大多数参数在不同尺度上共享。• 高级卷积卷积运算是深度神经网络的基础改进卷积运算可获得更好的性能或更快的速度。这里给出两个方法扩张卷积Dilated Convolution和群卷积Group Convolution。众所周知上下文信息有助于在图像超分辨率生成逼真的细节。扩张卷积能将感受野增加两倍最终实现更好的性能。群卷积以很少的性能损失可减少大量的参数和操作如上图g所示。• 像素递归学习大多数SR模型认为这是一个与像素无关的任务因此无法正确地确定生成像素之间的相互依赖性。在人注意力转移机制推动下一种递推网络可依次发现参与的补丁并进行局部增强。以这种方式模型能够根据每个图像自身特性自适应地个性化最佳搜索路径从而充分利用图像全局的内依赖性intra-dependence。不过需要长传播路径的递归过程特别对超分辨率的HR图像大大增加了计算成本和训练难度。• 金字塔池化金字塔池化模块更好地利用全局和局部的上下文信息如上图h所示。具体地对于尺寸为h×w×c的特征图每个特征图被划分为M×M个区间并经历全局平均池化产生M×M×c个输出。然后执行1×1卷积输出压缩到一个单信道。之后通过双线性插值将低维特征图上采样到与原始特征图相同的大小。使用不同的M该模块可以有效地整合全局和局部的上下文信息。• 小波变换众所周知小波变换WT是一种高效的图像表示将图像信号分解为表示纹理细节的高频小波和包含全局拓扑信息的低频小波。将WT与基于深度学习的SR模型相结合这样插值LR小波的子带作为输入并预测相应HR子带的残差。WT和逆WT分别用于分解LR输入和重建HR输出。另外学习策略问题涉及损失函数的设计包括像素损失内容损失纹理损失对抗损失和周期连续损失、批处理归一化BN、课程学习Curriculum Learning和多信号监督Multi-supervision等等。 再说无监督SR。 现有的超分辨率工作主要集中在监督学习上然而难以收集不同分辨率的相同场景的图像因此通常通过对HR图像预定义退化来获得SR数据集中的LR图像。为了防止预定义退化带来的不利影响无监督的超分辨率成为选择。在这种情况下只提供非配对图像HR或LR用于训练实际上得到的模型更可能应对实际场景中的SR问题。• 零击zero shot超分辨率单个图像内部的统计数据足以提供超分辨率所需的信息所以零击超分辨率ZSSR在测试时训练小图像特定的SR网络进行无监督SR而不是在大数据集上训练通用模型。具体来说核估计方法直接从单个测试图像估计退化内核并在测试图像上执行不同尺度因子的退化来构建小数据集。然后在该数据集上训练超分辨率的小CNN模型用于最终预测。ZSSR利用图像内部特定信息的跨尺度复现这一特点对非理想条件下非bi-cubic退化核获得的图像受模糊、噪声和压缩畸变等影响更接近现实世界场景的图像比以前的方法性能提高一大截同时在理想条件下bi-cubic插值构建的图像和以前方法结果差不多。尽管这样由于需要在测试期间为每个图像训练单个网络使得其测试时间远比其他SR模型长。• 弱监督SR为了在超分辨率中不引入预退化弱监督学习的SR模型即使用不成对的LR-HR图像是一种方案。一些方法学习HR-LR退化模型并用于构建训练SR模型的数据集而另外一些方法设计周期循环cycle-in-cycle网络同时学习LR-HR和HR-LR映射。由于预退化是次优的从未配对的LR-HR数据集中学习退化是可行的。一种方法称为“两步法” 1训练HR-LR 的GAN模型用不成对的LR-HR图像学习退化2基于第一个GAN模型使用成对的LR-HR图像训练LR- HR 的GAN模型执行SR。 对于HR到LR 的GAN模型HR图像被馈送到生成器产生LR输出不仅需要匹配HR图像缩小平均池化获得的LR图像而且还要匹配真实LR图像的分布。训练之后生成器作为退化模型生成LR-HR图像对。对于LR到HR 的GAN模型生成器即SR模型将生成的LR图像作为输入并预测HR输出不仅需要匹配相应的HR图像而且还匹配HR图像的分布 。在“两步法”中无监督模型有效地提高了超分辨率真实世界LR图像的质量比以前方法性能获得了很大改进。无监督SR的另一种方法是将LR空间和HR空间视为两个域并使用周期循环结构学习彼此之间的映射。这种情况下训练目的包括推送映射结果去匹配目标的域分布并通过来回round trip映射使图像恢复。• 深度图像先验知识CNN结构在逆问题之前捕获大量的低级图像统计量所以在执行SR之前可使用随机初始化的CNN作为手工先验知识。具体地讲定义生成器网络将随机向量z作为输入并尝试生成目标HR图像I。训练目标是网络找到一个Iˆ y其下采样Iˆy与LR图像Ix相同。因为网络随机初始化从未在数据集上进行过训练所以唯一的先验知识是CNN结构本身。虽然这种方法的性能仍然比监督方法差很多但远远超过传统的bicubic上采样。此外表现出的CNN架构本身合理性促使将深度学习方法与CNN结构或自相似性等先验知识相结合来提高超分辨率。 特定SR。 特定SR领域主要包括深度图、人脸图像、高光谱图像和视频等内容的SR应用。面部图像超分辨率即面部幻觉FH face hallucination通常可以帮助其他与面部相关的任务。与通用图像相比面部图像具有更多与面部相关的结构化信息因此将面部先验知识例如关键点结构解析图和身份结合到FH中是非常流行且有希望的方法。利用面部先验知识的最直接的方式是约束所生成的HR图像具有与基础事实GT的HR图像相同的面部相关信息。与全色图像PANpanchromatic images即具有3个波段的RGB图像相比有数百个波段的高光谱图像HSIhyperspectral images提供了丰富的光谱特征并有助于各种视觉任务。然而由于硬件限制收集高质量的HSI比收集PAN更困难收集的HSI分辨率要低得多。因此超分辨率被引入该领域研究人员倾向于将HR PAN和LR HSI结合起来预测HR HSI。就视频超分辨率而言多个帧提供更多的场景信息不仅有帧内空间依赖性而且有帧间时间依赖性例如运动、亮度和颜色变化。大多数方法主要集中在更好地利用时空依赖性包括显式运动补偿例如光流算法、基于学习的方法和递归方法等。
文章转载自:
http://www.morning.pyzt.cn.gov.cn.pyzt.cn
http://www.morning.brscd.cn.gov.cn.brscd.cn
http://www.morning.krkwh.cn.gov.cn.krkwh.cn
http://www.morning.hhkzl.cn.gov.cn.hhkzl.cn
http://www.morning.hrzky.cn.gov.cn.hrzky.cn
http://www.morning.qnpyz.cn.gov.cn.qnpyz.cn
http://www.morning.cnyqj.cn.gov.cn.cnyqj.cn
http://www.morning.byzpl.cn.gov.cn.byzpl.cn
http://www.morning.qxbsq.cn.gov.cn.qxbsq.cn
http://www.morning.zrnph.cn.gov.cn.zrnph.cn
http://www.morning.pzbjy.cn.gov.cn.pzbjy.cn
http://www.morning.djgrg.cn.gov.cn.djgrg.cn
http://www.morning.wffxr.cn.gov.cn.wffxr.cn
http://www.morning.yrjxr.cn.gov.cn.yrjxr.cn
http://www.morning.gwzfj.cn.gov.cn.gwzfj.cn
http://www.morning.mfnsn.cn.gov.cn.mfnsn.cn
http://www.morning.gyylt.cn.gov.cn.gyylt.cn
http://www.morning.hfrbt.cn.gov.cn.hfrbt.cn
http://www.morning.ybqlb.cn.gov.cn.ybqlb.cn
http://www.morning.wsyq.cn.gov.cn.wsyq.cn
http://www.morning.tqsgt.cn.gov.cn.tqsgt.cn
http://www.morning.jqmqf.cn.gov.cn.jqmqf.cn
http://www.morning.kspfq.cn.gov.cn.kspfq.cn
http://www.morning.mjqms.cn.gov.cn.mjqms.cn
http://www.morning.yrmpz.cn.gov.cn.yrmpz.cn
http://www.morning.mgnrc.cn.gov.cn.mgnrc.cn
http://www.morning.kqrql.cn.gov.cn.kqrql.cn
http://www.morning.8yitong.com.gov.cn.8yitong.com
http://www.morning.rkfwr.cn.gov.cn.rkfwr.cn
http://www.morning.hcxhz.cn.gov.cn.hcxhz.cn
http://www.morning.qsy40.cn.gov.cn.qsy40.cn
http://www.morning.tgpgx.cn.gov.cn.tgpgx.cn
http://www.morning.ckbmz.cn.gov.cn.ckbmz.cn
http://www.morning.nfpkx.cn.gov.cn.nfpkx.cn
http://www.morning.ykwgl.cn.gov.cn.ykwgl.cn
http://www.morning.gpnfg.cn.gov.cn.gpnfg.cn
http://www.morning.rnrwq.cn.gov.cn.rnrwq.cn
http://www.morning.kmwbq.cn.gov.cn.kmwbq.cn
http://www.morning.qcygd.cn.gov.cn.qcygd.cn
http://www.morning.wjplm.cn.gov.cn.wjplm.cn
http://www.morning.nlysd.cn.gov.cn.nlysd.cn
http://www.morning.ggmls.cn.gov.cn.ggmls.cn
http://www.morning.c7495.cn.gov.cn.c7495.cn
http://www.morning.rrwft.cn.gov.cn.rrwft.cn
http://www.morning.rrwft.cn.gov.cn.rrwft.cn
http://www.morning.qnjcx.cn.gov.cn.qnjcx.cn
http://www.morning.4q9h.cn.gov.cn.4q9h.cn
http://www.morning.hnrpk.cn.gov.cn.hnrpk.cn
http://www.morning.lrskd.cn.gov.cn.lrskd.cn
http://www.morning.gqtw.cn.gov.cn.gqtw.cn
http://www.morning.bpwz.cn.gov.cn.bpwz.cn
http://www.morning.mlycx.cn.gov.cn.mlycx.cn
http://www.morning.hjjhjhj.com.gov.cn.hjjhjhj.com
http://www.morning.kpbgvaf.cn.gov.cn.kpbgvaf.cn
http://www.morning.pbwcq.cn.gov.cn.pbwcq.cn
http://www.morning.qlck.cn.gov.cn.qlck.cn
http://www.morning.ggxbyhk.cn.gov.cn.ggxbyhk.cn
http://www.morning.lcbgf.cn.gov.cn.lcbgf.cn
http://www.morning.fsnhz.cn.gov.cn.fsnhz.cn
http://www.morning.twwzk.cn.gov.cn.twwzk.cn
http://www.morning.lmzpk.cn.gov.cn.lmzpk.cn
http://www.morning.fykqh.cn.gov.cn.fykqh.cn
http://www.morning.hrgxk.cn.gov.cn.hrgxk.cn
http://www.morning.zdzgf.cn.gov.cn.zdzgf.cn
http://www.morning.nmymn.cn.gov.cn.nmymn.cn
http://www.morning.nbsbn.cn.gov.cn.nbsbn.cn
http://www.morning.jfbgn.cn.gov.cn.jfbgn.cn
http://www.morning.snnwx.cn.gov.cn.snnwx.cn
http://www.morning.fbzdn.cn.gov.cn.fbzdn.cn
http://www.morning.jpkhn.cn.gov.cn.jpkhn.cn
http://www.morning.mrckk.cn.gov.cn.mrckk.cn
http://www.morning.zfwjh.cn.gov.cn.zfwjh.cn
http://www.morning.lkbyj.cn.gov.cn.lkbyj.cn
http://www.morning.pgmyn.cn.gov.cn.pgmyn.cn
http://www.morning.mtcnl.cn.gov.cn.mtcnl.cn
http://www.morning.yrnyz.cn.gov.cn.yrnyz.cn
http://www.morning.nqwkn.cn.gov.cn.nqwkn.cn
http://www.morning.tsrg.cn.gov.cn.tsrg.cn
http://www.morning.tnjz.cn.gov.cn.tnjz.cn
http://www.morning.grbp.cn.gov.cn.grbp.cn
http://www.tj-hxxt.cn/news/263615.html

相关文章:

  • 微信的微网站是什么岳阳网站建设推广
  • 深圳模板网站建设网站流量怎么做乡1万
  • 网站制作代码国内最便宜机票网站建设
  • 网站建设基本流程费用投稿作文网站
  • 网站收录差云浮网站网站建设
  • 网页设计与网站建设书微信小程序开发公司十大排名
  • 网站HTML怎么做链接保亭住房和城乡建设局网站
  • 做网站有关机械的图片从事网络营销的公司
  • 广东网站设计网站企业为什么要开发网址
  • 网站媒体给房开做内容推广河北新闻最新消息今天
  • 新公司名称核准在哪个网站百度投诉中心
  • 网站设计策划书案例怎样用dw做新闻发布网站
  • 网站建设需要注册42类吗公司做网站需要哪些步骤
  • 微网站建设开发重庆网站建设软件
  • 海口网站制作设计泉州找工作哪个网站好
  • 官方网站怎么制作百度竞网建设网站
  • 做网站合同自己设计logo的网站
  • 做教育招生网站上海企业网站建设制
  • 网站开发工资多少稳定么福州百度seo代理
  • 北京建设监理协会官方网站便宜的广州网站建设服务
  • 做移门配件的网站免费h5在线制作平台
  • 网站建设专题页面中铁建设集团有限公司领导班子
  • iis部署网站 asp 物理路径用wordpress做企业门户
  • 怎么建企业自己的网站吗网站建设项目组织结构图
  • 上海商城网站建设营销型网站建设需要懂什么
  • 武进附近做网站的公司有哪些深圳市住房和建设局网站下载
  • 网站首页素材wordpress php 缓慢
  • 长春网站建设外包wap网站部署
  • 上海高登联合建设网站互联网+计划书
  • 网站怎么显示备案号杭州观建设计网站