当前位置: 首页 > news >正文

.net 免备案网站空间 最新版天堂资源网在线

.net 免备案网站空间, 最新版天堂资源网在线,举报网站建设情况总结,德兴市网站建设服务公司HDR 技术近年来发展迅猛#xff0c;在未来将会成为图像与视频领域的主流。当前 HDR 内容非常短缺#xff0c;限制了 HDR 视听节目的广泛应用。逆色调映射(Inverse Tone Mapping)应运而生#xff0c;它是一种用来将 SDR 源信号转换为 HDR 源信号的技术#xff0c;可以应用于…HDR 技术近年来发展迅猛在未来将会成为图像与视频领域的主流。当前 HDR 内容非常短缺限制了 HDR 视听节目的广泛应用。逆色调映射(Inverse Tone Mapping)应运而生它是一种用来将 SDR 源信号转换为 HDR 源信号的技术可以应用于生产端或终端设备在一定程度上实现对现有 SDR 节目的 HDR“还原”及向上兼容。本系列中我们将会详细分类介绍逆色调映射算法。分为两个部分一逆色调映射概述及一些经典算法包括全局算法分类算法以及拓展映射算法二介绍最近的研究趋势特别是基于机器学习的逆色调映射算法。 1 逆色调映射概述 HDR 技术说是继 4K 之后视频领域的又一次重大技术突破不仅提高图像的动态范围同时也提供了更宽的色域并提升了画面在高光和暗部的细节信息带给观看者更加真实的视觉体验。但作为 HDR 产业链的核心内容短缺的问题仍然是 HDR 普及和成熟的重要限制因素。众多电视厂商将 HDR 技术作为其产品规划中的重要技术主要是在硬件方面进行提升。而由于 HDR 内容制作对于设备要求较高对采集、调色、显示等多方面都需要较高的质量要求内容制作的复杂度和周期长等因素导致了 HDR 内容的匮乏。让内容跟上硬件发展的速度让内容不再限制整个 HDR 产业链的发展依然是当前 HDR 发展完善的重要任务。 如果能充分利用已有的大量 SDR部分文献中使用 LDR两者意义一致本文中均使用SDR 视频源将其转换为 HDR 内容那么不仅可以改善 HDR 片源不足的问题同时也可以有效利用已有的资源进行内容重置。为此逆色调映射方法 inverse Tone MappingOperator, iTMO 或 reverse Tone Mapping Operator, rTMO应运而生。通常也将该 SDR转化 HDR 过程的算法称为扩展算子 Expand Operator 它可以被定义为一个 SDR 图像 I 的函数 g g ( I ) D i w × h × c ⟶ D o w × h × c (1) g(I) D^{w \times h \times c}_{i} \longrightarrow D^{w \times h \times c}_{o}\tag{1} g(I)Diw×h×c​⟶Dow×h×c​(1) 其中Di ⊂ Do w 、h、 c 分别是图像的高度、宽度和通道数 Di 是 SDR 图像在 8 比特量化 的 情 况 下 Di [0,255] Do 是 HDR 图 像 在 使 用 单 精 度 浮 点 数 时 Do [0 , 3.4 x 10 ^38 ] ⊂ 。 由于在图像的过曝光和欠曝光部分存在大量的信息缺失因此从 SDR 的单曝光图片通过逆色调映射算法进行 HDR 内容的重构是一种病态问题(ill-posed)因为这需要算法预测或估计出过曝光或欠曝光部分缺失的信息是什么。因此过曝与欠曝区域信息的重构是逆色调映射技术中需要着重设计的部分。一般情况下逆色调映射算法将 SDR 内容变换为HDR 内容需要经过以下几个步骤 线性化图片通常已经经过 gamma 校正也就是说其电平信号与记录的真实场景中的辐射率 radiance并不是线性关系。为了后续处理方便会先将图像进行线性化处理。动态范围扩展该步骤是逆色调映射算法的核心部分动态范围扩展方式决定着映射后图像的最终质量。对高光部分进行扩展对低光部分进行压缩可以达到目的。过曝/欠曝区域重建存在过曝或者欠曝现象的 SDR 图像相应区域会损失很多细节因此需要通过一定的方式恢复或者重建该区域已获得更多的细节。去噪逆色调映射算法处理和存储使用的是 16 比特的浮点数 因此需要通过去噪消除量化或压缩而引入的噪声。颜色校正进行逆色调映射处理后图像的饱和度会降低因此需要进行颜色校正让色彩表现 color appearance和 SDR 源相一致。 需要说明第一步线性化图像非常重要在线性空间中操作图像的主要原因是对亮度和色域拓展有更大程度上的控制和可预测性。在一个未知的空间中很难预测扩展如何表现此外为了恢复场景属性例如平均值、几何平均值、标准偏差等需要精确估计场景的辐射度量。 当可以得到拍摄设备信息时线性化可以通过设备的 CRF 来计算但当图像储存为 RAW格式时不需要这个操作因为 RAW 格式本身就是存储为线性格式。然而一般情况下我们并不能得到拍摄设备的 CRF并且视频和图像都是通过 8bit 非线性储存这种情况下我们需要估计 CRF 来实现线性化操作。一般实现这种线性化的方法最常用的是 Gamma 校正除此之外还可以使用辐射校准等。 1.1 逆色调映射中的颜色转换 SDR 图像与 HDR 图像的区别不仅体现在亮度范围上也体现在色域差别上。常见的 SDR图像/视频的颜色空间符合 BT.709 标准中规定的色域而 HDR 图像/视频的颜色空间则符合BT.2020 标准中规定的色域。这种色域的拓展使得 HDR 图像/视频在可见光中的颜色覆盖率提高了近 40%。因此现今的逆色调映射算法不仅仅要对图像的亮度信息与对比度进行增强还需要进行色域映射。传统的逆色调映射算法很少涉及颜色的处理忽视这点可能引起增强后的图像/视频出现颜色偏移等现象。 逆色调映射算法中色域转换的常见方法是色彩校正(Color Correction)这种方法可以使映射后得到的 HDR 图像获得视觉上与原生 HDR 接近的效果另一种方法是使用色彩或图像外观模型进行色域转换一般这种模型都是基于人类视觉系统的特性来实现的但是这种方法能否准确地预测复杂场景或任意观看条件下的转换参数是值得商榷的。 随着色域的标准化颜色空间由 BT.709 向 BT.2020 的转换过程也被纳入了 ITU 的标准之中 ITU 发布的色域转换建议书 BT.2087 [25]中提出了由 BT.709 到 BT.2020 的色域转换流程 BT.2407[26]建议书中提出了一种从 BT.2020 到 BT.709 色域转换的方法。 BT.2087 中提到的转换方法主要应用于解决 BT.709/HD 电视内容在 BT.2020/UHDTV 上播放的兼容性问题方法是基于光电转换函数和电光转换函数及其反函数具体转化方法可以参照 ITU 发布的文档。在逆色调映射过程中的颜色转换可参考 BT.2087 建议。此外更先进的色域映射算法考虑如何高效利用图像的空间属性。在空间色域映射中不再存在从输入色域到输出色域的一对一颜色转换而是考虑图像的局部背景使得算法不仅可以准确地再现颜色而且还能同时再现纹理和局部对比度其主要方法有两类一种是将传统映射过程中丢失的信息迭代添加回到图像中另一类方法最小化刻画色域映射图像和原始图像之间感知误差的损失函数一般通过机器学习的方法实现。 逆色调映射算法可以分为三大类算法全局算法分类算法以及拓展映射算法。在本文的后续部分当中将介绍这三大类算法中的代表性方法以及最新的基于机器学习的逆色调映射方法。 2 逆色调映射算法 2.1 全局模型 全局模型顾名思义就是对 SDR 内容中的所有像素点都使用相同的扩展方程该扩展方程对全局有着相同的操作。 幂函数模型 这种方法是最早提出的逆色调映射算法之一最初由 Landis [1]提出主要从图像重新获取基于幂函数的数字三维模型主要考虑到幂函数良好的范围拓展能力用于将小范围的亮度拓展到高动态范围亮度扩展可以定义为 L w ( x ) { ( 1 − k ) L d ( x ) k L w , m a x L d ( x ) L d ( x ) ≥ R L d ( x ) o t h e r w i s e k ( L d ( x ) − R 1 − R ) α (2) L_w(x)\begin{cases}(1-k)L_d(x)kL_{w,max}L_d(x)\qquad L_d(x)\geq R\\L_d(x)\qquad otherwise\end{cases} \\ k\bigg(\frac{L_d(x)-R}{1-R}\bigg)^{\alpha} \tag{2} Lw​(x){(1−k)Ld​(x)kLw,max​Ld​(x)Ld​(x)≥RLd​(x)otherwise​k(1−RLd​(x)−R​)α(2) 其中 R 表示扩展的阈值原文章中使用的是 0.5Lw,max 表示用户需要在输出图片中展示的最大亮度 α是控制色调曲线伸展的衰减指数。 图 7-1 Landis 方法示例 (a)初始 SDR 环境贴图 (b)仅使用(a)的重建图像 ©使用扩展过的(a)的重建图像。 虽然这种方法为 IBL(image based lighting)生成了合适的 HDR 环境贴图如图 1 所示但它可能无法生成可在 HDR 显示器上可视化的高质量图像和视频。这是因为这种方法不处理伪像例如对压缩或量化产生伪像不作处理全局的亮度拓展对于整体亮度效果有着较好的改善但是无法进行细节增强。 对 HDR 监视器的线性缩放 为了研究 HDR 显示器支持 SDR 内容的效果 Akyuz [2]等人进行了一系列有关显示效果的主观测试测试实验通过使用杜比 DR-37P HDR 显示器评估色调映射图像、单幅曝光图像和 HDR 图像。实验设计 20-40 岁之间的 22 名测试者在所有实验中均使用了从室内到室外、从昏暗到非常明亮的不同光线条件下的 10 张 HDR 图像 HDR 图像亮度约为 5 个数量级通过线性缩放处理得到不同动态范围的图片以便直接映射到杜比 DR-37P HDR 显示器上。 第一个实验中使用各种色调映射算法由 HDR 得到 SDR再比较两个图像另外也比较了一种自动曝光和测试者在试点研究中选择的曝光其中自动曝光是为了最大限度上减少曝光过度和曝光不足的像素数量。图像显示在 DR-37P 显示器上使用经过校准的 HDR 图像和SDR 图像匹配 Dell UltraSharp 2007FP 20.1 英寸 LCD 显示器测试者的任务主要是将图像按照主观效果排序。对于每个原始测试图像测试者必须观看测试图像两秒钟这是从不同类型的图像中随机选择的。实验结果表明测试者更喜欢 HDR图像作者没有发现色调映射和单次曝光图像在测试者之间的偏好方面存在很大的差异。 第二个实验中作者比较了从单次曝光图片扩展得到的 HDR 图像和单次曝光的图像为了扩大单次曝光图像扩展方法可以表示为 L w ( x ) k ( L d ( x ) − L d , m i n L d , m a x − L d , m i n ) γ (3) L_w(x)k\Big(\frac{L_d(x)-L_{d,min}}{L_{d,max}-L_{d,min}}\Big)^{\gamma}\tag{3} Lw​(x)k(Ld,max​−Ld,min​Ld​(x)−Ld,min​​)γ(3) 其中 k 表示 HDR 显示器的最大亮度强度 γ 表示非线性缩放因子。对于这个实验分别生成了γ 为 1、 2.2 和 0.45 的图像此外设置和排名方式与第一个实验相同。结果表明选择较亮的曝光扩展图像比 HDR 图像更受欢迎当它们具有相同的平均亮度时反之亦然。 Akyuz 等人表示平均亮度比对比度更受欢迎。最后另一个重要结论是 γ1时产生的线性缩放图像最受欢迎这表明线性缩放足以满足 HDR 图像和视频的体验。 作者仅使用高分辨率 HDR 图像并且没有产生压缩伪像。虽然这在理想条件下工作良好但在实际情况下例如使用压缩的电视节目或 DVD 中情况可能并非总是如此。在这些情况下需要进行更准确的扩展以避免压缩伪像和轮廓的放大。 过曝 SDR 图像的 Gamma 扩展 Masia [7]等人进行了两项心理物理学研究以分析扩展函数在各种曝光度水平下的表现。作者随后使用这些实验的结果来开发过曝内容的扩展技术。在这些实验中比较了三种逆色调映射算法包括 Rempel[8]、线性缩放[2]和 Banterle[13]提出的方法(这些算法后文中将介绍)并且结果显示随着内容曝光度的增加结果下降的趋势。作者还观察到 逆色调映射函数制造出一些在图像 SDR 格式中可见的伪像原因在于算法产生不正确的光照强度值并造成空间内容失真。了解逆色调映射函数如何影响最终输出图像的观看效果可能有助于开发更好的算法。 图 7-2 Masia 方法中过曝图片案例 (a)原始 SDR 图像 (b)©(d)扩展后不同光圈下的图片。 如图 2 所示作者指出当图片的曝光度提高时细节会丢失这是由于像素点的饱和度增加使得对应的颜色褪色至白色。基于这种发现他们提出通过将剩余细节突出更加明显来映射 SDR 图像这不同于常见的逆色调映射算法只是增强饱和的区域。 一种实现这种方法的直观的方式就是使用 Gamma 扩展 Masia 提出一种自适应的方式通过输入 SDR 图像的动态内容来确定  的值与 Akyuz 的方法类似 k 值可以通过以下方式 计算 k l o g L d , H − l o g L d , m i n l o g L d , m a x − l o g L d , m i n (4) k\frac{logL_{d,H}-logL_{d,min}}{logL_{d,max}-logL_{d,min}}\tag{4} klogLd,max​−logLd,min​logLd,H​−logLd,min​​(4) 其中 L L L d H d d , ,min ,max , , 分别是对数平均数、最小亮度值和最大亮度值 k 值是一个统计数据有助于澄清输入图像是主观黑暗还是明亮。为了自动预测 Gamma 值开展了一项试点研究要求用户手动调整一组图像中的  值数据是经验拟合关系的线性回归 γ ( k ) a k b (5) \gamma(k)akb\tag{5} γ(k)akb(5) 由拟合得到 a 10.44,b -6.282。这种逆色调映射算法的主要缺点之一是它可能无法充分利用动态范围而且 a 和 b 的值只能在该组测试图像上正常工作在一些不属于原始图像集的图像中γ可能为负值。 2.2 分类模型 HDR 显示器的高光重现 Meylan [9,10]提出一种专门用于处理包含镜面高光的图像的逆色调映射算法是一种典型的分类模型算法。其主要思想是检测图像中的漫反射和镜面部分并使用不同的线性方程对其进行扩展。 算法的第一步是计算一个阈值 用于在亮度通道区分高光部分和漫反射部分如图 3所示。首先图像通过使用一个大小为 m width height  max , / 50   的滤波器来计算 t1 作为滤波后亮度通道的最大值重复使用上述操作可以使用一个 2 1 m 大小的滤波器来计算t2 。其次 t1被用于在原始亮度上的阈值用于生成一个 mask随后使用t2 对 mask 应用腐蚀和膨胀滤波器。这些可以应用于一些迭代以获得稳定的 mask一般情况下几次迭代就可以达到效果。此时 mask 中像素值为 1 的点被视为镜面像素而黑色像素被视为漫反射像素。因此  被作为 Ld 中的镜面像素的最小亮度值。 在计算w之后亮度通道可以通过以下方式扩展 L w ( x ) f ( L d ( x ) ) { s 1 L d ( x ) L d ( x ) ≤ ω s 1 ω s 2 ( L d ( x ) − ω ) o t h e r w o s e s 1 ρ ω , s 2 1 − ρ L d , m a x − ω (6) L_w(x)f(L_d(x))\begin{cases}s_1L_d(x)\qquad L_d(x)\leq\omega\\s_1\omegas_2(L_d(x)-\omega)\qquad otherwose\end{cases} \\s_1\frac{\rho}{\omega},s_2\frac{1-\rho}{L_{d,max}-\omega}\tag{6} Lw​(x)f(Ld​(x)){s1​Ld​(x)Ld​(x)≤ωs1​ωs2​(Ld​(x)−ω)otherwose​s1​ωρ​,s2​Ld,max​−ω1−ρ​(6) 其中Ld ,max1是由于图像被归一化处理过 ρ 表示 HDR 显示器分配给漫反射部分的百分比这是由用户定义的。 图 7-3 计算最大漫反射亮度值 的计算框图 f 的全局应用可能会导致增强高光部分的量化伪像通过在镜面反射区域应用选择性率可以减少这些伪像图 4 显示了算法整体的流程。首先使用 5x5 平均滤波器对扩展后的亮度值 f(Ld(x)) 进行滤波得到 f 。随后 f(Ld(x))和 f 使用线性内插和 mask 进行混合该 mask 是通过使用 对 SDR 亮度进行阈值化处理并应用扩张和 5x5 平均滤波器来计算。 最后作者使用杜比 DR-37P HDR 显示器进行了一系列心理物理学实验以确定ρ值值。结果显示对于室外场景用户偏好较高的 ρ值这意味着分配给高光的动态范围的百分比很小而室内场景的百分比则相反。对于具有相同漫反射亮度的室内和室外场景用户选择较低的  值因此他们更喜欢将更多范围分配给高光数据分析表明 ρ值0.66 是一个很好的一般估计值。 图 7-4 Meylan 方法整体框图 镜面高光相比漫反射高光部分具有更高的亮度通常在图像采集或者处理阶段往往会进行压缩或者截断损失了一定的图像细节和对比度。 Meylan 通过心理视觉实验发现对于传统的 SDR 内容如果直接采用线性 iTMO 进行动态范围扩展必然会引起图像镜面高光部分泛白图像饱和度不足图像整体视觉表现不自然。该算法转为特定服务而设计在 HDR监视器上重现高光点其他任务如增强食品的使用需要更多处理和分类操作作者的评估实验强调了这一点。 HDR 显示器的明亮视频特征增强 Didyk [11]等人提出了一个用于增强 SDR 视频亮度的交互式系统主要用于 DVD 内容的显示和增强。这个系统的主要思想是将场景分为三个部分漫反射、反射和光源然后仅对反射和光源进行增强。作者提到漫反射部分在不产生视觉伪像的情况下难以增强并且电影制作者可能会向他们展示饱和度而不是光源和截断反射。该系统适用于非线性值因为目标是增强而非物理准确性。 图 7-5 Didyk 方法流程图 该系统由三个主要部分组成预处理、分类和增强裁剪区域流程框图如图 5 所示。预处理步骤会生成分类过程中所需的数据特别是它使用 flood-fill 算法来确定剪切区域至少有一个通道必须饱和而且亮度值须大于 222。此外在此阶段还会计算光流以及其他功能如图像统计、几何特征和邻域特征。 分类决定了框架中的亮区、反射和漫反射区域并依赖于 2000 个人工分类区域的训练集。首先具有内核的支持向量机执行区域的初始分类随后,使用基于欧几里得度量的最近邻分类器运动跟踪改进了初始估计 d 2 ( ( z , x , t ) , ( z ′ , x ′ , t ′ ) ) 50 ∥ z − z ′ ∥ 2 ∥ z − z ′ ∥ 2 5 ( t − t ′ ) 2 (7) d^2((z,x,t),(z^\prime,x^\prime,t^\prime))50\lVert z-z^\prime\lVert^2\lVert z-z^\prime\lVert^25(t-t^\prime)^2 \tag{7} d2((z,x,t),(z′,x′,t′))50∥z−z′∥2∥z−z′∥25(t−t′)2(7) 其中 z 表示区域特征 x 表示图像中的坐标 t 表示帧数。这允许在测试中使用的所有区域达到 12.6%的分类误差使用运动补偿跟踪修剪区域进一步减少了需要手动修正的对象的百分比达到 3%。 通过应用非线性自适应色调曲线来增强修剪区域这是基于存储在直方图 H 中的修剪区域内的偏导数计算的色调曲线被定义为 H 的倒数的直方图均衡 f ( b ) k ∑ j 2 b ( 1 − H [ j ] ) t 2 (8) f(b)k\sum^b_{j2}(1-H[j])t_2 \tag{8} f(b)kj2∑b​(1−H[j])t2​(8) 这里t2 是修剪区域的最低亮度值 k 是限制到最大提升值 m 缩放因子对于亮光为 150%对于反射为 125% k m − t 2 ∑ j 1 N ( 1 − H [ j ] ) (9) k\frac{m-t_2}{\sum^N_{j1}(1-H[j])} \tag{9} k∑j1N​(1−H[j])m−t2​​(9) 值 N 是 H 中的 bin 的数量为了避免在增强期间产生轮廓使用双边滤波对亮度通道进行滤波将其分离为精细细节和基础层其在亮度扩展之后合并该方法是半自动的因为需要用户的介入。 2.3 扩展映射模型 扩展映射模型 Expand Map Models最早是 2006 年 Banterle 在其一篇文章“ inversetone mapping” [13]中提出的术语表示在将 SDR 内容扩展为 HDR 的过程中使用一个引导函数指导该过程的转换。该模型在 Banterle 及 Rempel 的文章中均有使用。 Banterle——使用扩展映射模型进行非线性扩展 Banterle [13]提出了扩展 SDR 内容到 HDR 监视器的基本流程“ inverse tone mapping/aframework for inverse tone mapping”如下图 6 所示。该方法的核心即如何使用反向的TMO 算子并结合一定的平滑处理算法重建出过曝区域中丢失的图像信息。 图 7-6 Banterle 方法的流程框图 本方法的逆色调映射方程可以被描述为 L w ( x ) 1 2 L w , m a x L w h i t e ( L d ( x ) − 1 ( 1 − L d ( x ) ) 2 4 L w h i t e 2 L d ( x ) ) (10) L_w(x)\frac{1}{2}L_{w,max}L_{white}\Bigg(L_d(x)-1\sqrt{(1-L_d(x))^2\frac{4}{L^2_{white}}L_d(x)}\Bigg)\tag{10} Lw​(x)21​Lw,max​Lwhite​(Ld​(x)−1(1−Ld​(x))2Lwhite2​4​Ld​(x) ​)(10) 其中Lw,max 表示输出亮度的最大值以 cd/m2 为单位 Lwhite 是一个决定扩展曲线形状的参数与对比度成比例。作者建议让这两个值取等以此来在限制扩展导致的伪像同时增加对比度。 在范围拓展之后计算扩展映射是表示高亮度区域中图像的低频版本的平滑区域它有两个主要目标首先是重建图像曝光过度区域丢失的亮度分布第二个目标是减弱扩展期间可以增强的量化或压缩伪像。扩展映射通过对使用重要性采样生成的样本应用密度估计来实现。最后扩展 SDR 图像和原始 SDR 图像通过线性插值进行组合其中扩展映射充当权值加权。需要注意的是低亮度值保持原始值这样可以避免在 Lwhite 设置为较高值时对低值进行压缩否则可能会出现轮廓等伪像。 为了方便后期处理首先需要把图像进行线性化然后使用反向的 TMO 算子进行范围扩展。得到线性化的输入图像之后根据输入图像利用中位数采样强度估计的方法计算扩展映射图。其包含了图像的高亮区域的低频分量提取高亮区域的低频分量是用于重构高亮区域中丢失的图像信息。另外在范围扩展的过程中量化和压缩过程必然会带来失真。使用扩展映射的另一个目的是为了尽量消除该影响。最后将扩展映射作为插值权重将原始的SDR 图像和范围扩展得到的图像进行线性插值得到最终的扩展图像。 Banterle 将该模型进行了扩展使其可以用于自动处理图像和视频扩展参数需要通过强度估计和试探法确定以重构高亮区域丢失的图像信息。该方法的优势在于使用扩展映射很好的保持了原始图像中的边缘信息从而减小了最终生成的图像的边缘失真。该方法也有一定的局限性当图像中的过曝区域过大大于 30%左右时没有足够的信息用于图像区域的重建不能通过强度估计等方法进行图像信息恢复。 Rempel——SDR2HDR 由于 Banterle 提出的扩展映射模型在速度方面具有一定的限制如果不使用高端的硬件支持很难满足实时性要求。 2007 年 Rempel [8]提出了一种基于扩展映射模型的简单方法该方法可以实时地将 SDR 图像进行扩展得到 HDR 图像。该方法的流程图如下图所示 图 7-7 SDR2HDR 方法流程框图 该算法首先对输入 SDR 图像进行去线性化和对比缩放的操作一般我们看到的 SDR 图片都是经过 Gamma 校正后的图像在逆色调映射中通常需要将图像还原至线性空间。但是经过实验发现数码相机拍摄的照片和视频中通常还经过了传感器本身的曲线的处理比常见的 Gamma 校正更为复杂算法在本步骤的处理就是为了模拟数码相机的反应曲线使得得到的图片更接近模拟胶片的效果。实现是通过实验验证设定了一个简单的 Gamma 曲线从而得到了一种视觉上令人满意的效果。 得到线性空间的图像之后为了适配 HDR 显示设备将图像的亮度信息缩放到整个 HDR显示设备支持的亮度范围内。但是这种缩放不能改变过多否则会造成图像看起来不够自然最重要的是将高亮部分变得更亮使其产生类似“ 发光” 的效果。大量实验结果得出算法设定的对比度大概在 5000:1亮度范围在 0.3~1200cd/m2 之间。随后为了去除这种缩放所产生的噪声和量化误差使用一个简单的滤波操作来处理图像。 算法的第二步是对图像的亮区进行增强首先将亮区分割出来算法认为视频中像素值高于 230、图像中像素值高于 254 的区域为亮区分割出来存为 mask再获得图像的轮廓图用于之后的处理。 图 7-8 使用图像金字塔进行亮度增强 如图 8 所示亮度增强是通过图像金字塔进行的。首先是过程(1)对图像的亮区 mask 进行下采样得到光源的信息然后如过程(2)对结果使用最近邻插值上采样得到平滑后的亮区光源信息同时(3)对轮廓图也同样进行下采样处理得到图像的强轮廓信息在过程(4)上采样亮度 mask 信息时使用同分辨率下的轮廓信息在上采样的过程中遇到强轮廓就停止采样从而使得亮区不会产生过量扩散的错误。最后(5)就是将平滑过的亮度信息与mask 融合得到最终 HDR 图像的高亮区域亮度信息。 该算法本质上可以算作是一种基于 Expand Map 的方法主要对 SDR 图像上无法显示的高亮区域进行增强使得图像在 HDR 显示器上可以更为自然的显示出来。由于算法的计算复杂度较小可以达到实时处理的效果这相比之前 Banterle 的实时方法对硬件的要求更低。但是本算法只对高亮区域处理而对正常亮度区域的增强不明显在正常场景拍摄的图片中增强效果不明显且算法没有考虑色域增强只是简单地增加饱和度来实现更鲜艳的颜色。 2.4 近年提出的逆色调映射算法 适用于各种曝光的高质量逆色调映射 Kovaleski 和 Oliveira [22]在 2014 年提出了一种增强算法这种方法基于交叉双边滤波并能够很好的处理曝光不足或过量的情况。 双边滤波是一种非线性滤波器同时对空间域和亮度范围进行滤波。使用一个高斯方程G 作为下降函数则双边滤波后的 I b 可以被定义为 I p b 1 W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ I p − I q ∣ ) I q W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ I p − I q ∣ ) (11) I^b_p\frac{1}{W^b_p}\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert I_p-I_q\rvert)I_q \\ W^b_p\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert I_p-I_q\rvert) \tag{11} Ipb​Wpb​1​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Ip​−Iq​∣)Iq​Wpb​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Ip​−Iq​∣)(11) 其中 ,p qI I 代表在图像在位置 p 和 q 上对应的像素值σ s σ r , 表示空间和距离上的高斯函数标准差 bWp是一个归一化因子。将其中的G(Ip-Iq)部分替换为另一幅图片那么上式就可以得到交叉双边滤波 I p b 1 W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ E p − E q ∣ ) I q W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ E p − E q ∣ ) (12) I^b_p\frac{1}{W^b_p}\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert E_p-E_q\rvert)I_q \\ W^b_p\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert E_p-E_q\rvert) \tag{12} Ipb​Wpb​1​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Ep​−Eq​∣)Iq​Wpb​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Ep​−Eq​∣)(12) 直观地认为高斯滤波器的权重基于图像中位置 p 和 q 之间的空间距离和图像中 p 和 q位置像素值的差。由于该滤波器的非线性特性在实时应用受到限制。 有些环节可以通过使用不同的方法来近似结果以交互式速率进行计算。 Durand 和 Dorsey 通过线性内插几个离散化的强度值来计算滤波器的响应这些强度值在频域中用高斯内核滤波。 Paris 和 Durand将这项工作解释为一种高维线性卷积其后是三线性插值和分裂从而扩展了这项工作。这种想法的推广是使用双边网格双边网格  是一个有规则取样的三维阵列其中前两个维度定义图像的空间域而第三个维度表示图像的范围。使用双边网格进行滤波操作分为三个步骤进行网格创建、处理和切片。为了处理双边网格可以将三维函数应用其中我们得到一个新的网格    ’ f  。对于双边滤波器 f 是高斯核的卷积分别使用  s r 、 作为域和距离维度上的方差。切片操作用于从双边网格中提取分段平滑的二维图像。 在双边网格中使用图像 E 来执行交叉双边滤波以确定网格位置同时存储来自数据图像 I 的像素值。切片操作随后使用边缘图像来恢复结果。 Adams 等人通过统一单形有效地实现了 5D 彩色双边滤波与 Paris 和 Durand 的方法相比他们使用了更简单的插值操作。最近 Gastal 和 Oliveira 提出了一种计算适应信号的流形这些流形之间的加权插值可以得到更高精度和更快速率的输出并使用比之前方法更少的采样点数量。 Kovaleski 和 Oliveira 提出的方法通过使用双边网格生成一个亮度增强函数网格使用两个不同的图片生成其意义上更像是交叉双边滤波。但是切片操作通过使用第三幅图片来实现其方法可以被写为 b f ( I ) S B ( G σ s , σ r ⨂ g A ( C ) ) (13) bf(I)S_B(G_{\sigma_{s},\sigma_{r}}\bigotimes g_A(C)) \tag{13} bf(I)SB​(Gσs​,σr​​⨂gA​(C))(13) 其中 A、 B、 C 都是单通道图片 A 中的每个像素都包含对应 RGB 通道的图像中的最大强度值图像 B 包含图像 I 的的亮度信息图像 C 包含图像 A 中所有像素值超过某阈值 t 的所有像素点。 进一步 RGB 通道中的最大强度值图像 A被用作检测饱和像素的默认方式正如我们将要展示的那样这个选择会影响该算法处理过度曝光内容的能力。在生成图像 A、 B、C 之前图像使用 Gamma 2.2 曲线进行线性化处理 g C A 是一个双边网格使用图像 I 的边缘信息进行过滤同时存储图像 C 的值。因此双边滤波公式可以被写为 I p b 1 W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ B p − A q ∣ ) C q W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ B p − A q ∣ ) (14) I^b_p\frac{1}{W^b_p}\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert B_p-A_q\rvert)C_q \\ W^b_p\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert B_p-A_q\rvert) \tag{14} Ipb​Wpb​1​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Bp​−Aq​∣)Cq​Wpb​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Bp​−Aq​∣)(14) 一个关键点在于上式中使用最大强度值图像 A 倾向于导致 Kovaleski 和 Oliveira 的算法无法增强过度曝光的 SDR 图像的细节。通过使用最大强度信道值他们的算法尽管在感知上存在差异但他们对 RGB 三通道的信息平等处理这种不一致反映在所得到的亮度增强函数中。这个关键点同样可以解决这个问题用亮度图像 B 代替最大强度通道图像 A这种操作不仅解决了曝光过度的图像的问题而且极大地简化了亮度增强函数生成过程将以上公式变为交叉双边滤波形式 I p b 1 W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ B p − B q ∣ ) C q W p b ∑ q ∈ S G σ s ( ∥ p − q ∥ ) G σ r ( ∣ B p − B q ∣ ) (15) I^b_p\frac{1}{W^b_p}\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert B_p-B_q\rvert)C_q \\ W^b_p\sum_{q\in S} G_{\sigma_{s}}(\lVert p-q\rVert)G_{\sigma_{r}}(\lvert B_p-B_q\rvert) \tag{15} Ipb​Wpb​1​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Bp​−Bq​∣)Cq​Wpb​q∈S∑​Gσs​​(∥p−q∥)Gσr​​(∣Bp​−Bq​∣)(15) 图 7-9 不同双向滤波算法的结果对比 公式(15)相比与之前公式来说可以使用多种不同的双边滤波加速方法如图 9 所示是使用不同种加速方法的效果对比了不使用加速的双边滤波、双边网格、实时双边滤波和自适应流形四种结果。此外滤波参数中本算法取 150s  这时模糊滤波器的滤波结果不容易被人类视觉系统察觉同时另一个滤波器参数 25r  是通过大量实验测量得出实验表明这个取值更有利于得到亮度增强函数。 根据计算存储的亮度增强函数 作者使用和 Rempel 算法类似的步骤输入图像 I 使用Gamma 2.2 曲线进行线性化使用上面公式计算得到亮度增强函数随后将函数缩放至范围1…内在实验中  取值为 4。最后线性化输入图像的值根据目标显示能力和选择的 值进行性缩放最低亮度为 0.3cd/m2最高亮度为 1200cd/m2。然后通过重新调整的亮度增强函数将该缩放的图像逐点相乘来获得最终的 HDR 图像。 生成效果图如图 10 所示结果图使用 DRIM 评价方法进行展现。 图 7-10 DRIM 对结果图进行评价 基于视网膜反应的逆色调映射 Huo [24]在 2014 年提出一种基于人类视觉系统视网膜反应的逆色调映射算法通过生理学上的研究该方法可以避免出现很多现有方法都会发生的伪像问题。受到人类视觉系统特性的启发这种逆色调映射方案的计算复杂度低参数数量较少并能获得高质量的 HDR图像输出。 与真实世界场景的动态范围相比人类视网膜的感光细胞具有较窄的动态范围这要归功于人类视觉系统的适应机制它使得眼睛首先适应一些亮度值然后以相当小的动态感知图像范围围绕该亮度值。因此人类视觉的基本过程是对整个场景的全局色调映射这种全局功能可以用视网膜的反应和光强刺激之间的关系来描述 R R m a x I n ( I n σ n ) (16) \frac{R}{R_{max}}\frac{I^n}{(I^n\sigma^n)} \tag{16} Rmax​R​(Inσn)In​(16) 其中 R 表示视网膜对光强 I 的刺激反应Rmax 是反映的最大值  是全局适应等级它表示产生的相应强度是Rmax 振幅的一半所需的强度参数 n 是灵敏度控制指数。 实验证明场景的绝对亮度信息对于人类视觉系统来说是次要的通过亮度很定性的机制在视觉处理的非常早期阶段往往会被大量舍弃而是用局部对比来传达广域场景的大量信息。因此视网膜反应的更恰当描述应该是局部映射局部自适应属性可以通过将全局自适应水平 改编为局部像素 p 的自适应水平p 来实现。设pI 表示像素 p 在实际场景中的辐射强度值视网膜反应pR 被认为是眼睛感知到的 SDR 图像的强度值可以表示为 R p R m a x I p n ( I p n σ p n ) (17) R_p\frac{R_{max}I^n_p}{(I^n_p\sigma^n_p)} \tag{17} Rp​(Ipn​σpn​)Rmax​Ipn​​(17) 对于逆色调映射pI 可以通过以下方式计算  是为了避免分母为 0 I p ( R p σ p n ( R m a x − R p δ ) ) 1 / n (18) I_p\Bigg(\frac{R_p\sigma^n_p}{(R_{max}-R_p\delta)}\Bigg)^{1/n} \tag{18} Ip​((Rmax​−Rp​δ)Rp​σpn​​)1/n(18) 之前的研究认为灵敏度参数 n 通常取值在 0.71.0 之间 作者通过大量实验得出取值为 0.9 时结果更好。p 是局部适应水平它描述了一个像素邻域强度信息通常可以使用算术平均值、几何平均值或图像局部区域的高斯模糊来确定该参数。这里 HDR 图像中像素 p 周围的局部强度psI 用来作为p 的取值。在仅有 SDR 图像的情况下基于 SDR 图像的最大亮度 255 被映射到 HDR 显示器的最大亮度的假设算法首先计算 SDR 图像的psL 随后将其乘以 HDR 显示器最大亮度与 255 的比值。 很多方法可以计算得到psL 论文使用 Durand 和 Dorsey 提出的双边滤波逆色调映射公式可以写为 I p ( R p ( I p s ( σ m , σ d ) ) ( R m a x − R p δ ) ) 1 / n (19) I_p\Bigg(\frac{R_p(I_{ps}(\sigma_m,\sigma_d))}{(R_{max}-R_p\delta)}\Bigg)^{1/n} \tag{19} Ip​((Rmax​−Rp​δ)Rp​(Ips​(σm​,σd​))​)1/n(19) 输出的像素 p 的双边滤波psL L p s ( σ m , σ d ) 1 W p ∑ q ⊂ Ω f σ m ( q − p ) g σ d ( R q − R d ) R q (20) L_{ps}(\sigma_m,\sigma_d)\frac{1}{W_p\sum_{q\subset\Omega}f_{\sigma_{m}}(q-p)g_{\sigma_d}(R_q-R_d)R_q} \tag{20} Lps​(σm​,σd​)Wp​∑q⊂Ω​fσm​​(q−p)gσd​​(Rq​−Rd​)Rq​1​(20) 其中pW 是归一化因子 W p ∑ q ⊂ Ω f σ m ( q − p ) g σ d ( R q − R d ) (21) W_p\sum_{q\subset\Omega}f_{\sigma_{m}}(q-p)g_{\sigma_d}(R_q-R_d)\tag{21} Wp​q⊂Ω∑​fσm​​(q−p)gσd​​(Rq​−Rd​)(21) 其中pm表示高斯函数 f 在空间域的标准差 f σ m ( p ∣ p ( x , y ) ) K m e x p { − ( x 2 y 2 ) σ m 2 } 2 (22) f_{\sigma_{m}}(p|p(x,y))K_m exp \Bigg\lbrace-\frac{(x^2y^2)}{\sigma^2_m} \Bigg\rbrace^2 \tag{22} fσm​​(p∣p(x,y))Km​exp{−σm2​(x2y2)​}2(22) 其中 d 表示高斯函数 g 在亮度域下的标准差 Km 是归一化因子  表示整幅图像。 m 和 d 分别取值为 16 和 0.3。如图 10 所示为方法计算结果与其他两种方法的对比。 图 7-11 算法效果图和与其他方法的对比 (a)论文方法 (b)iPG©SDR2HDR 基于深度学习的逆色调映射 Endo [23]针对逆色调映射中过度曝光和曝光过少、 细节损失的情形进行优化提出了一种基于深度学习的方法其网络基于卷积神经网络将输入图像转化为多幅不同曝光度的图片再组合为一张 HDR 图像输出。 图 7-12 Endo 提出的方法流程图 12 所示是方法的流程框图。首先作者通过使用不同的非线性相机反应曲线来改变图像的曝光度由此形成了多幅不同曝光度的图片数据集就是以 SDR 图像为输入多幅不同曝光度的图片为输出组成。其计算方法如下 Z i , j f ( E i Δ t j ) Δ t j 1 τ T / 2 , . . . , 1 τ 2 , 1 τ , 1 , τ , τ 2 , . . . , τ T / 2 (23) Z_{i,j}f(E_i\Delta t_j)\\ \Delta t_j\frac{1}{\tau^{T/2}},...,\frac{1}{\tau^2},\frac{1}{\tau},1,\tau,\tau^2,...,\tau^{T/2}\tag{23} Zi,j​f(Ei​Δtj​)Δtj​τT/21​,...,τ21​,τ1​,1,τ,τ2,...,τT/2(23) 其中Zi j , 表示 SDR 图像对应点 i 在曝光指数 j 下的像素值 f 表示相机反应函数 Ei 表示 HDR图像在点 i 处的像素值。tj 为曝光时间作者通过指数定义实验中采用 T   8, 2  。随后在使用得到的多张不同曝光度的照片通过合并算法进行计算从而得到一张完整的 HDR图片。 Endo 使用的是编解码器结构并在对应层间有跳跃式连接。先将一张 SDR 图片编码至深度网络这里通过 2D 卷积神经网络实现随后再将图像的深度语义特征解码为不同曝光度的 SDR 图片这时使用的是 3D 卷积神经网络。这种网络用于将图像的曝光度提高或降低从而得到多幅图片用于之后合成 HDR 图片。 在具体网络结构方面编码器网络有 9 层卷积核大小为 4 的卷积层并包含批归一化和Leaky-ReLU。解码器网络使用 3D 去卷积神经网络其中前三层的卷积核为 444其余层为 344。类似地出最后一层外其他层都包含批归一化和 Leaky-ReLU而最后一层的激活函数为 Sigmoid。 在这个编解码网络中解码器使用完全编码的向量这意味着整个图像的潜在特征都包含在内为了将输入图像中的局部和底层信息逐步融入解码器作者在编解码器的对应层之间添加了跳跃式连接具体网络结构图如图所示 图 7-13 网络结构图 通过长达一个月的训练 取得了满意效果。 其与一些传统算法的比如下图所示。 图 7-14 Endo 算法效果图和与其他方法的对比 基于生成对抗网络的逆色调映射模型 S. Ning 等人[3]认为由于逆色调映射过程相当于是向低动态范围的图像中添加暗区和亮区的细节希望可以达到一个信息增加的过程因此采用生成对抗网络的对抗机制可以很好的完成生成任务。生成对抗网络是由 I.Goodfellow 提出的基于博弈的模型其模型本身由两个网络构成一个是生成网络在图像任务中用于生成图像实现图像的转换任务另一个是判别网络用于判别输入给判别网络的图像是由生成器生成的还是源图像。生成对抗网络的训练过程就是通过训练生成网络使得生成的图像越来越接近源图像从而可以“蒙骗”判别网络进行错误的决策训练判别网络的过程就是使判别网络可以更准确的分辨出生成的图像和源图像从而使得这两部分网络的训练过程成为一种博弈式对抗过程期望的训练结果是能够得到一个稳态。 算法上讲 GAN 的判别网络可以看成是将图像数据映射到判别概率的函数 D: D(x) →(0,1)对于一个固定的生成器 G判别器 D 可能被训练用于粪便图像是来自训练数据概率接近 1还是来自生成器概率接近 0。 这种方法的优点是其分类边界灵活使用纯概率的方法可以得到挖掘信息更深的模型这种模型可以清晰的判别出多类别或某一类与其他类之间存在的差异特征。 图 7-15 网络结构图 作者在论文提出了一种 iTMN 可以用于将 SDR 转换为 HDR 的生成对抗网络网络结构如图 15 所示生成网络采用 U-Net 类似结构这是因为 U-Net 可以在图像重构的过程中同时使用深层信息和浅层信息一步一步地重建图像因此 U-Net 会很适合本任务。用于约束网络的损失函数是一种混合损失函数包括生成对抗网络定义相关的对抗损失函数和生成网络内容相关的内容损失函数 m i n G m a x D λ L G ( L , H ) ⏟ c o n t e n t l o s s R G , D ( L , H ) ⏟ a d v e r s a r i a l r e g u l a r i z e r (24) min_Gmax_D\underbrace{\lambda L_G(L,H)}_{content loss}\underbrace{R_{G,D}(L,H)}_{adversarial regularizer}\tag{24} minG​maxD​contentloss λLG​(L,H)​​adversarialregularizer RG,D​(L,H)​​(24) 其中内容损失函数包含两个部分分别是均方差和差分均方差希望通过均方差从像素值方面上约束网络通过差分均方差在周围像素点的关系上进行约束 E ( L , H ) ∼ p d a t a [ ∥ G ( L ) − H ∥ F 2 α ( ∥ d x G ( L ) − d x H ∥ F 2 ∥ d y G ( L ) − d y H ∥ F 2 ) ] (25) E_{(L,H)\sim p_{data}}\Bigg[\Big\lVert G(L)-H\Big\rVert^2_F\alpha\Bigg(\Big\lVert d_xG(L)-d_xH\Big\rVert^2_F \Big\lVert d_yG(L)-d_yH \Big\rVert^2_F\Bigg)\Bigg] \tag{25} E(L,H)∼pdata​​[ ​G(L)−H ​F2​α( ​dx​G(L)−dx​H ​F2​ ​dy​G(L)−dy​H ​F2​)](25) 除此之外对抗损失函数即由 GAN 网络的定义得出可以被归纳为 E H ∼ p d a t a [ l o g ( 1 − D ( H ) ) ] E L ∼ p d a t a [ l o g ( D ( G ( L ) ) ) ] (26) E_{H\sim p_{data}}[log(1-D(H))]E_{L\sim p_{data}}[log(D(G(L)))] \tag{26} EH∼pdata​​[log(1−D(H))]EL∼pdata​​[log(D(G(L)))](26) 数据使用 HDR 视频切片单帧图片经过多个色调映射算法处理后选取效果最好的 SDR 图像与原生 HDR 图像组成数据集训练使用的训练集包含 2660 对图像测试集包含 140 对图像实现采用 TensorFlow 框架。 训练后网络在测试数据集上做验证评测方法采用 HDR-VDP-2、 mPSNR 和 SSIM结果与 Huo[24]、 KO[22]和 DrTMO[23]做对比并同时与提出结构的两种变式做对比其中 NoDMSE 是提出的结构中除去 L2 部分 NoAdvReg 是提出结构除去对抗部分即使用单独的 U-Net评价结果如下 该方法在三种不同的评价指标效果均有提升说明该算法在对比度提升、图像内容增强和图像结构信息上都有一定的进步。除此之外也对网络的参数进行了一些实验关于是否需要运用 GAN 模型在发色调映射任务上的问题从之前的数据和图 16 所示的效果图中都显示使用 GAN 可以得到更好的转换效果。 图 7-16 S. Ning 算法效果图和与其他方法的对比 利用深度卷积网络的单次曝光 HDR 重建 相机的感光元件只能一时间捕捉范围有限的亮度 因此传统方法中很多都是使用多个曝光度的照片来合成 HDR 图片。 Eilertsen 在文章[27]中提出了一种使用单次曝光的图像来进行 HDR 图像重建本质是在亮度饱和区域上预测丢失的信息这种任务很适合用深度学习的算法来解决因此算法是基于一种深度卷积网络 CNN来预测丢失的 HDR 信息。 算法包括以下步骤 首先 算法需要对输入的 SDR 图片进行线性化、颜色校正等预处理。线性化方法中为了降低复杂度而使用了一种平均的相机响应函数来线性化图像颜色校正上 也是使用固定的白平衡转换来简化预处理的过程量化恢复若使用 CNN 来完成则更接近超分辨率等工作因此本方法中并未进行量化恢复的处理。 随后算法的模型使用自动编解码器结构实现对应层也使用了跳跃式连接但与 UNet 不同是 网络的解码器部分是在图像的对数域进行处理因此跳跃式连接还需要将图像的特征转换到对数域再与解码器的各层输出结合 可以通过公式(27)表示 ℏ i D σ ( W [ h i D l o g ( f − 1 ( h i E ) ) ε ] b ) (27) \hbar_i^D\sigma\Bigg(W\left[\begin{matrix}h^D_i\\log(f^{-1}(h^E_i))\varepsilon\end{matrix}\right]b\Bigg)\tag{27} ℏiD​σ(W[hiD​log(f−1(hiE​))ε​]b)(27) 其中 hiE 和 hiD 分别表示编码网络和解码网络对应层的输出 f 1 是将图片线性化的处理函数随后的操作就是将两部分信息组合起来作为混合信息送给下一卷积层处理。 网络的结构如图17 所示 图 7-17 Eilertsen 提出方法的网络结构 最终输出的 HDR 图像也是由网络输出的对数域图片和输入图片线性化后加权得到可以由公式(28)表示 H i , c ( 1 − α i ) f − 1 ( D i , c ) α i e x p ( y ^ i , c ) (28) H_{i,c}(1-\alpha_i)f^{-1}(D_{i,c})\alpha_iexp(\hat{y}_{i,c}) \tag{28} Hi,c​(1−αi​)f−1(Di,c​)αi​exp(y^​i,c​)(28) 其中 Di c , 表示输入的 SDR 图像 yˆi c , 表示网络输出的对数域的 HDR 图像 i c , 分别表示图像的标号和颜色通道i 是用户自定义取值用于调整两种图像来源的权重。 最后网络的损失函数是通过将图像分解为亮度分量 Illumination和漫反射分量 Reflectance 用于得到图像不同维度的信息然后对两种分量转换至对数域后在 L2范数下进行约束最终的损失函数由两个分量在对数域上的 L2 范数差的加权和来确定可以由公式(29)表示 L ( y ^ , H ) λ N ∑ i ∣ α i ( l o g ( I i y ^ ) − l o g ( I i y ) ) ∣ 2 1 − λ 3 N ∑ i , c ∣ α i ( l o g ( R i , c y ^ ) − l o g ( R i , c y ) ) ∣ 2 (29) L(\hat{y},H)\frac{\lambda}{N}\sum_i\Big\lvert\alpha_i(log(I^{\hat{y}}_i)-log(I^y_i))\Big\rvert^2 \frac{1-\lambda}{3N}\sum_{i,c}\Big\lvert \alpha_i(log(R^{\hat{y}}_{i,c})-log(R^y_{i,c}))\Big\rvert^2\tag{29} L(y^​,H)Nλ​i∑​ ​αi​(log(Iiy^​​)−log(Iiy​)) ​23N1−λ​i,c∑​ ​αi​(log(Ri,cy^​​)−log(Ri,cy​)) ​2(29) 其中 I R , 分别表示图像的亮度分量和漫反射分量 y ,y ^ 分别表示网络的输出图片和真实图片  是用户指定的权值参数。训练使用的是预训练的模型实验表明经过预训练的模型可以重建出局部亮度更高的 HDR 结果这与真实 HDR 图像更为接近随后对网络使用常用参数在与 Endo[23]相同方法下构建的数据集进行训练训练结果如图 18 所示 可以看出得到的模型能够较好的重建 HDR 图像的高亮部分这与真实的 HDR 图片很接近。 图 7-18 Eilertsen 使用的深度学习方法的重建结果
http://www.tj-hxxt.cn/news/218504.html

相关文章:

  • 免费建设网站的画出电商网站设计实训总结报告
  • wordpress免费网站模板四川省人事考试网
  • 连云港网站备案在哪优惠活动推广文案
  • 贸易公司网站建设要多少钱wordpress这么安装不了
  • 网站优化工作内容湖南省建设厅易晓林
  • 个人网站怎么申请注册建设网站企业网上银行
  • 织梦印刷公司网站源码在农村做相亲网站怎么样
  • 网站店铺分布图怎么做微信商户平台入口
  • 网站动画特效网站开发多少钱一个月
  • 深圳网站开发外包哪家好论坛网站开发开题报告
  • 中山网站建设制作 超凡科技网站项目开发的制作流程
  • 服务器添加网站网站建设的关键问题
  • 网站网页区别wordpress 判断用户组
  • 经营网站挣钱外包网站开发公司
  • 电脑哪里做模板下载网站网络维护基础知识
  • 郑州网站seo优建设银行网站怎么登录
  • 无锡网站制作推广php网站开发wamp
  • 武邑网站建设代理公司简介ppt模板免费
  • 工程公司会计账务处理温州seo方法
  • 门户网站建设信息化项目背景连云港外贸网站建设
  • 江阴建设局网站招考自己建网站做外贸
  • 默认网站建立前端效果网站
  • 深圳商业网站建设哪家好织梦网站内容管理系统
  • 房地产手机网站模板工商局网站实名认证怎么做
  • 检察院网站建设方案制作复杂的企业网站首页
  • 汕头网站设计电话微博网页版登录入口
  • 网站建设有哪些软件有哪些内容邢台网上车管所
  • 受欢迎的企业网站建设百度官网认证网站
  • 东莞百度代做网站联系方式如何设计一个公司的网页
  • 寮步营销型网站建设价格做照片用的视频模板下载网站