广告位网站建设,定制产品去哪个平台,网站免费推广计划,wordpress防黑客文章目录前言文献阅读摘要介绍方法总结相关性总结前言
本周阅读文献《Multi-step ahead probabilistic forecasting of multiple hydrological》#xff0c;文献主要提出一种基于三维卷积神经网络、卷积最小门记忆神经网络和变分贝叶斯神经网络的混合深度学习模型#xff08…
文章目录前言文献阅读摘要介绍方法总结相关性总结前言
本周阅读文献《Multi-step ahead probabilistic forecasting of multiple hydrological》文献主要提出一种基于三维卷积神经网络、卷积最小门记忆神经网络和变分贝叶斯神经网络的混合深度学习模型B-CM-C4D实现多站多水文变量的多步提前概率预测。作者提出了一种时间序列相关性分析方法分析上下游站点随时间变化的相关性解决到底考虑过去和未来选取多少场景进行预测的问题。深度学习神经网络层ConvMGM主要是改进复杂的预测模型ConvLSTM以提高其预测准确性并减少训练时间的问题。引入变分贝叶斯概率预测框架来量化CM-C2D模型的预测不确定性。其次学习了相关性的基础知识了解了三种相关系数。
This week,I read an article which proposes a new hybrid deep learning model (B-CM-C3D) based on 3-D Convolutional Neural Network, Convolutional Minimum Gate Memory Neural Network and Variational Bayesian Neural Network to obtain multi-step ahead probabilistic forecasting of multiple hydrological variables for multiple stations.A time series correlation analysis method is proposed to analyze the correlation of upstream and downstream stations over time, and to solve the problems of the number of historical scenario inputs and the number of future scenario outputs. A new deep learning neural network layer (ConvMGM) is proposed to reduce the training time of ConvLSTM.A variational Bayesian probabilistic forecasting framework is introduced to quantify the forecasting uncertainty of the CM-C3D model.Then I learn the basics of correlation and three kinds of correlation coefficients. 文献阅读
题目Multi-step ahead probabilistic forecasting of multiple hydrological variables for multiple stations 作者Zhendong Zhang , Haihua Tang , Hui Qin , Bin Luo , Chao Zhou , Huayan Zhou
摘要
要想精确的模拟物理流域需要对水文预报站数量、水文变量类型、预报精度、预测周期和定量不确定性提出了更高的要求。如何同时获取多个站点的多个水文变量的多步提前概率预测是本研究要解决的关键问题。文献介绍了河流流域数字孪生的背景分析了在此背景下水文预报面临的新问题将水文预测的输入和输出重构为四维张量提出一种基于三维卷积神经网络、卷积最小门记忆神经网络和变分贝叶斯神经网络的混合深度学习模型(B-CM-C3D)实现多站多水文变量的多步提前概率预测为了验证该模型的性能将该模型与长江流域的4种主流模型进行了比较。实验结果表明模型的预测精度和概率预测综合性能有80%优于其他对比模型。
介绍
数字孪生(DT)是指在虚拟世界中模拟真实世界的系统。河流流域数字孪生(River Basin Digital TwinRBDT)是数字世界中对物理河流流域的映射它能较理想地模拟物理河流流域的运行规律。RBDT有两个关键方面:外部显示和内部驱动。前者使RBDT看起来像一个物理流域后者使RBDT按照物理流域的规律运行。在RBDT中为了更精确地模拟物理流域离不开高精度的预报模型、调度模型、洪水演化模型等模型。本研究重点研究RBDT背景下的水文预报需要考虑以下4个重要方面:(1)下游站点流量受上游站点流量的影响;(2)河道内流量、水位等水文变量也相互影响;(3)水文变量多步提前预测比单步提前预测提供更多的信息(4)水文预报存在不确定性。因此如何在RBDT背景下同时获得多站多水文变量的多步提前概率预报是本研究的目的。
水文预测方法主要分为物理过程驱动方法和数据驱动方法两大类。物理过程驱动方法基于水文原理。物理过程驱动法的优点是模型可解释性强但缺点是需要更多的基础数据、复杂的建模、耗时的求解。数据驱动方法通常基于机器学习或深度学习等统计方法根据历史径流信息和气象相关因素对水文变量进行预测。数据驱动方法的优点是计算速度快预测精度高缺点是预测模型为黑箱模型可解释性较差。常用的数据驱动方法可分为时间序列模型、机器学习或深度学习模型和多方法混合模型。近年来深度学习模型逐渐应用于水文预测领域。长短期记忆网络(Long Short-Term Memory NetworkLSTM)和卷积神经网络(convolutional Neural NetworkCNN)分别擅长于时间序列处理和特征提取因此被用于水文预测。为了克服单一预测模型的缺点同时利用多个预测模型的优势混合模型逐渐成为水文预测的主流方法。
现有的多步预测方法通常有两种思路。一是将单步提前预测的结果作为输入对预测模型进行多次滚动。这样误差累积严重容易出现趋势总是上升或下降的情况难以预测多步超前预测结果中的拐点。另一种方法是通过打乱时间序列数据来构建多步预测模型。这种方法没有将多个预测周期的水文变量作为一个整体来考虑将多个单步超前预测模型进行了分离。贝叶斯推理是一种概率预测框架。当与不同的确定性预测模型相结合时需要在原有框架思想的基础上进行公式推导完成确定性预测模型的不确定性量化。深度学习模型的训练通常是耗时的。因此本研究需要解决的关键问题如下:(1)如何同时获得多个站点的多个水文变量的预测结果?(2)多步提前预测如何实现全局考虑?(3)如何利用贝叶斯推理量化多站多水文变量多步提前预测结果的不确定性?(4)如何减少模型的训练时间?
本文提出了一种基于三维卷积神经网络(Conv3D)、卷积最小门记忆神经网络(ConvMGM)和变分贝叶斯神经网络(VBNN) 的概率预测混合模型获得RBDT背景下多站多水文变量的多步提前概率预测。本研究的主要贡献如下:(1)将多站点的多个水文变量时间序列重新排列为4-D张量。(2)提出了一种新的深度学习神经网络层ConvMGM缩短了现有卷积长短期记忆网络层的训练并提高了预测精度。(3)将Conv3D和ConvMGM相结合形成一种新的混合深度学习模型(CM-C3D)该模型结合了Conv3D擅长挖掘特征和ConvMGM擅长处理时间序列的优点。(4)利用变分贝叶斯框架量化CM-C3D的不确定性得到一个全新的概率预测深度学习模型(B-CM-C3D)。 流域数字孪生的背景 RBDT可以简单地理解为在数字世界中构建一个真实的河流流域。RBDT建设的两个重点是三维可视化技术和流域运行模型。前者使RBDT看起来像一个真实的河流流域后者通过模拟河流流域的关键水文过程使RBDT能够真正映射出真实的河流流域。预测模型、水库调度模型、流量演化模型都是流域运行模型的重要组成部分。本文研究的重点是如何模拟河道内多个关键站点水文变量的变化过程并量化预测的不确定性。
RBDT原理图如图所示其中子图(a)为物理真实流域。通常一条真实河流会被水库、水文站等站点切割成多个河段。这些站点和河段构成了数字世界中的二维拓扑如图子图(b)所示。每个站点都有多个关键的水文变量如水位(Z)、径流®和降水§。通过考虑水文变量二维结构变成了三维场景如图子图©所示。同时这些水文元素大多是时间序列因此完整的RBDT是一个四维时间序列场景如图(d)所示。 利用历史4-D时间序列场景预测未来4-D时间序列场景。本研究需要解决的具体问题如下: (1)如何构建具有4-D输入和4-D输出的预测模型? (2)有多少过去的情景适合预测。如果过去3-D场景数量过少预测精度会过低如果数量过大模型训练会非常耗时。 (3)预测未来最多有多少个3-D场景是合适的。如果预测的未来场景数量过多精度就会降低。 (4)如何改进如此复杂的预测模型提高其预测精度减少训练时间? (5)没有一个模型可以完美预测总是存在不确定性。如何获取4-D场景的概率密度函数(probability density function, PDF)是该研究要解决的关键问题。
方法
时间序列相关性分析 皮尔逊相关系数(PCC)和最大信息系数(MIC)是常用的相关性分析方法。它们通常同时分析两组变量但如果两组变量之间存在时间滞后则会影响分析结果。当洪水在河道中从上游流向下游时上游的径流与下游的径流是相关的。同时考虑到水流速度的影响上游洪峰向下游传播需要一段时间。如果同时利用上游站和下游站的径流过程来计算相关系数结果会较小因此本文提出了一种时间序列相关分析(time series correlation analysis, TSCA)方法来分析水文过程与时间滞后的相关性。前t步PCC和MIC的计算公式如下: PCCt和MICt分别提前T步的PCC和MIC。X1 ~ (T−T 1)表示从1到T−T 1索引的自变量样本Yt~ T表示从T到T索引的因变量样本。X1 ~ (T−T 1)和Yt~ T是样本均值。D是一个集合为[X1 ~ (T−T 1)Yt~ T]的序对。对于网格G, D|G是数据D在G单元上诱导的概率分布。I(D|G)表示相互信息。函数B(n) n0.6和|D|是数据D的大小T是样本总数。符号t表示时滞其范围在[0,t−2]内。
TSCA的目的是寻找相关系数最大的滞后即tmax。设t从0变为t−2依次计算相应的PCCt和MICt。然后找出最大的PCCt和MICt对应的t为tmax。在上图的子图©中从上游到下游分别显示了上游站与上游站、上游站与中游站、上游站与下游站径流过程的时间序列相关系数雷达图。雷达图中带颜色的实线表示步进0到N对应的相关系数红色虚线表示相关系数最大对应的步进数。越靠近雷达图中心相关系数越小反之亦然。对于上游站本身PCC0最大所以tmax 0。tmax 中游站和下游站的分别为2和4。上游站和下游站距离越远滞后时间越长tmax。 TSCA不仅有利于探索上下游站点之间的相关性也有助于解决提出的(2)和(3)问题。t值max 可以指导多水文变量多步提前概率预测模型的输入和输出使用多少3-D情景。由于对应于tmax 是最大的不建议最长的预测周期超过tmax。同时用于预测输入的历史3-D情景数量应大于tmax。如果训练模型的计算机性能更好可以考虑更多的历史场景输入3到4倍的t值max。如果计算机性能相对平均则输入个数大于t的预测结果max 或者是t的两倍大max 是可以接受的。在本研究中建议使用历史场景数量为t值的两到三倍max 作为预测模型的输入且场景数等于tmax 为预测输出。 卷积最小门内存神经网络 ConvMGM LSTM擅长处理序列数据CNN擅长挖掘输入中的特征。卷积长短期记忆神经网络融合了两者的优点。卷积门控循环单元神经网络(Convolutional Gated Recurrent Unit Neural NetworkConvGRU)将ConvLSTM中三个门(输入门、遗忘门、输出门)的结构缩减为两个门的结构(重置门、更新门)在不降低预测精度的情况下减少了训练时间。本文提出了卷积最小门记忆神经网络(convolution Minimum Gate Memory Neural Network简称conmgm)将门结构的数目减少到一种。大大减少了模型参数和训练时间提高了预测精度。ConvMGM的网络结构如图所示。 前向传播公式 基于ConvMGM和Conv3D的情景预测模型CM-C3D Conv3D是一个三维卷积神经网络ConvMGM具有时间记忆功能Conv3D擅长挖掘特征输入中的关系两者都有利于水文情景预报。ConvMGM 图层 CM 与 Conv3D 图层 C3D 具有相同的输入和输出格式。因此将这两种类型的层组合为隐藏层的一部分形成了一种新的混合深度学习模型CM-C3D。CM-C3D模型是一种确定性预测模型无法量化预测的不确定性。CM-C3D模型的输入和输出形状均为4D。 变分贝叶斯概率预测框架 概率神经网络与确定性神经网络的不同之处在于它们的权重变量服从概率分布而不是确定性的单一值。这些概率分布描述了权重的不确定性因此可用于量化预测不确定性。 变分贝叶斯情景概率预测模型 B-CM-C3D 本研究结合ConvMGM、Conv3D和VBNN构建了一种新的混合深度学习模型B-CM-C3D用于水文概率预测。B-CM-C3D模型有一个输入层五个隐藏层两个ConvMGM层两个Conv3D层一个VBNN层和一个输出层。输入形状为(TxMxQxW)以及变量的含义T,M,Q,A 与上述相同。前两个隐藏层是 ConvMGM 层分别称为 CM-1 层和 CM-2 层。第三层和第四个隐藏层是 Conv3D 层分别称为 C3D-1 层和 C3D-2 层。第五个隐藏层是VBNN层通过该层可以将确定性预测结果转换为概率预测结果。最后一层是输出层。 评估指标 在这项研究中包括决定系数R2)平均绝对误差MAE最大绝对误差MaxAE最小绝对误差MinAE对应于最大值的绝对误差MaxValueAE和对应于最小值的绝对误差MinValueAE用于评估确定性预测结果的准确性。R2越近为1预测精度越高。MAE、MaxAE、MinAE、MaxValueAE和MinValueAE越小预测精度越高。其计算公式如下
总结
本研究侧重于RBDT背景下多个水文变量的多步超前概率预测。然后提出了需要详细解决的五个关键问题。提出一种时间序列相关性分析方法分析上下游站点随时间变化的相关性。其次提出一种新的深度学习神经网络层ConvMGM来减少ConvLSTM的训练时间。此外将ConvMGM和Conv2D组合成一个新的混合深度学习模型CM-C3D进行预测引入变分贝叶斯概率预测框架来量化CM-C2D模型的预测不确定性。最后以长江流域为例验证了本研究所提模型的性能主要结论 (1)本研究提出的B-CM-C3D模型在确定性预测精度和概率预测综合性能方面优于其他对比模型。 (2)B-CM-C3D将训练时间缩短了约43%。
相关性
相关分析是指对两个或多个具备相关性的变量元素进行分析从而衡量两个因素的的相关密切程度相关性的元素之间需要存在一定的联系或者概率才可以进行相关性分析。
相关系数考察两个变量之间的相关程度。一般用字母r 表示用来度量两个变量间的线性关系。
怎么确定相关关系的存在相关关系呈现的形态和方向相关关系的密切程度。其主要方法是绘制相关图表和计算相关系数。
第一种相关分析方法是将数据进行可视化处理简单的说就是绘制图表。单纯从数据的角度很难发现其中的趋势和联系而将数据点绘制成图表后趋势和联系就会变的清晰起来。
1.相关图折线图及散点图 利用直角坐标系第一象限把自变量置于横轴上因变量置于纵轴上而将两变量相对应的变量值用坐标点形式描绘出来用以表明相关点分布状况的图形。相关图被形象地称为相关散点图。因素标志分了组结果标志表现为组平均数所绘制的相关图就是一条折线这种折线又叫相关曲线。 2.相关表 编制相关表前首先要通过实际调查取得一系列成对的标志值资料作为相关分析的原始数据。 相关表的分类简单相关表和分组相关表。单变量分组相关表自变量分组并计算次数而对应的因变量不分组只计算其平均值该表特点使冗长的资料简化能够更清晰地反映出两变量之间相关关系。双变量分组相关表自变量和因变量都进行分组而制成的相关表这种表形似棋盘故又称棋盘式相关表。 3.相关系数 1、相关系数是按积差方法计算同样以两变量与各自平均值的离差为基础通过两个离差相乘来反映两变量之间相关程度着重研究线性的单相关系数。 2、确定相关关系的数学表达式。 3、确定因变量估计值误差的程度。
在进行相关分析时首先需要绘制散点图来判断变量之间的关系形态如果是线性关系则可以利用相关系数来测度两个变量之间的关系强度然后对相关系数进行显著性检验以判断样本所反映的关系是否代表两个变量总体上的关系。
根据散点图当自变量取某一值时因变量对应为一概率分布如果对于所有的自变量取值的概率分布都相同则说明因变量和自变量是没有相关关系的。反之如果自变量的取值不同因变量的分布也不同则说明两者是存在相关关系的。 通过散点图可以判断两个变量之间有无相关关系并对变量之间的关系形态作出大致的描述但散点图不能准确反映变量之间的关系强度。因此为准确度量两个变量之间的关系强度需要计算相关系数。
相关系数correlation coefficient是根据样本数据计算的度量两个变量之间线性关系强度的统计量。
若相关系数是根据总体全部数据计算的称为总体相关系数记为ρ
若是根据样本数据计算的则称为样本相关系数记为r
样本相关系数的计算公式为 按上述公式计算的相关系数也称为线性相关系数Linear Correlation Coefficient或称为 Pearson 相关系数Pearson’s Correlation Coefficient Pearson相关系数 Pearson相关系数Pearson CorrelationCoefficient是用来衡量两个数据集合是否在一条线上面它用来衡量定距变量间的线性关系。 当两个变量都是正态连续变量而且两者之间呈线性关系时表现这两个变量之间相关程度用积差相关系数主要有Pearson简单相关系数。 Pearson积差相关系数对应的计算公式如下 Spearman相关系数 在统计学中, 以查尔斯·斯皮尔曼命名的斯皮尔曼等级相关系数即spearman相关系数。经常用希腊字母ρ表示。 它是衡量两个变量的依赖性的 非参数 指标。 它利用单调方程评价两个统计变量的相关性。 如果数据中没有重复值 并且当两个变量完全单调相关时斯皮尔曼相关系数则为1或−1。 斯皮尔曼相关系数被定义成等级变量之间的皮尔逊相关系数。对于样本容量为n的样本n个原始数据被转换成等级数据相关系数ρ为 Kendall秩相关系数 Kendall(肯德尔)系数的定义n个同类的统计对象按特定属性排序其他属性通常是乱序的。同序对concordant pairs和异序对discordant pairs之差与总对数n*(n-1)/2)的比值定义为Kendall(肯德尔)系数。 定义了Kendall-tau系数
其中n是项目数P是在所有项目中在给定项目之后按两个排名排列的项目数之和。 总结
相关系数衡量变量之间相关程度的一个量值相关系数r的数值范围是在-1到1之间相关系数r的正负号表示变化方向。“”号表示变化方向一致即正相关“-”号表示变化方向相反即负相关。r的绝对值表示变量之间的密切程度(即强度)。绝对值越接近1表示两个变量之间关系越密切越接近0表示两个变量之间关系越不密切。 文章转载自: http://www.morning.kmjbs.cn.gov.cn.kmjbs.cn http://www.morning.cryb.cn.gov.cn.cryb.cn http://www.morning.gghhmi.cn.gov.cn.gghhmi.cn http://www.morning.qqfcf.cn.gov.cn.qqfcf.cn http://www.morning.ywtbk.cn.gov.cn.ywtbk.cn http://www.morning.sfqtf.cn.gov.cn.sfqtf.cn http://www.morning.bpknt.cn.gov.cn.bpknt.cn http://www.morning.xcxj.cn.gov.cn.xcxj.cn http://www.morning.hrjrt.cn.gov.cn.hrjrt.cn http://www.morning.llqky.cn.gov.cn.llqky.cn http://www.morning.rlwcs.cn.gov.cn.rlwcs.cn http://www.morning.xysdy.cn.gov.cn.xysdy.cn http://www.morning.kpcky.cn.gov.cn.kpcky.cn http://www.morning.lbpfl.cn.gov.cn.lbpfl.cn http://www.morning.qrqg.cn.gov.cn.qrqg.cn http://www.morning.rgdcf.cn.gov.cn.rgdcf.cn http://www.morning.hhzdj.cn.gov.cn.hhzdj.cn http://www.morning.rkyw.cn.gov.cn.rkyw.cn http://www.morning.xdpjs.cn.gov.cn.xdpjs.cn http://www.morning.sgqw.cn.gov.cn.sgqw.cn http://www.morning.zbnts.cn.gov.cn.zbnts.cn http://www.morning.ckwxs.cn.gov.cn.ckwxs.cn http://www.morning.wjhnx.cn.gov.cn.wjhnx.cn http://www.morning.spwm.cn.gov.cn.spwm.cn http://www.morning.pqkyx.cn.gov.cn.pqkyx.cn http://www.morning.dzpnl.cn.gov.cn.dzpnl.cn http://www.morning.htsrm.cn.gov.cn.htsrm.cn http://www.morning.yrycb.cn.gov.cn.yrycb.cn http://www.morning.nsrtvu.com.gov.cn.nsrtvu.com http://www.morning.dwxqf.cn.gov.cn.dwxqf.cn http://www.morning.wplbs.cn.gov.cn.wplbs.cn http://www.morning.tsynj.cn.gov.cn.tsynj.cn http://www.morning.fzqfb.cn.gov.cn.fzqfb.cn http://www.morning.qbwmz.cn.gov.cn.qbwmz.cn http://www.morning.ljxxl.cn.gov.cn.ljxxl.cn http://www.morning.qlckc.cn.gov.cn.qlckc.cn http://www.morning.wrwcf.cn.gov.cn.wrwcf.cn http://www.morning.lmxrt.cn.gov.cn.lmxrt.cn http://www.morning.rywn.cn.gov.cn.rywn.cn http://www.morning.mjtft.cn.gov.cn.mjtft.cn http://www.morning.yxplz.cn.gov.cn.yxplz.cn http://www.morning.kwpnx.cn.gov.cn.kwpnx.cn http://www.morning.hjrjr.cn.gov.cn.hjrjr.cn http://www.morning.mszwg.cn.gov.cn.mszwg.cn http://www.morning.wdshp.cn.gov.cn.wdshp.cn http://www.morning.mdjtk.cn.gov.cn.mdjtk.cn http://www.morning.rbcw.cn.gov.cn.rbcw.cn http://www.morning.nlysd.cn.gov.cn.nlysd.cn http://www.morning.qzpkr.cn.gov.cn.qzpkr.cn http://www.morning.czlzn.cn.gov.cn.czlzn.cn http://www.morning.jjzjn.cn.gov.cn.jjzjn.cn http://www.morning.rlqml.cn.gov.cn.rlqml.cn http://www.morning.jwpcj.cn.gov.cn.jwpcj.cn http://www.morning.qczpf.cn.gov.cn.qczpf.cn http://www.morning.mtsck.cn.gov.cn.mtsck.cn http://www.morning.zxybw.cn.gov.cn.zxybw.cn http://www.morning.xnyfn.cn.gov.cn.xnyfn.cn http://www.morning.qgmbx.cn.gov.cn.qgmbx.cn http://www.morning.prkdl.cn.gov.cn.prkdl.cn http://www.morning.lhrwy.cn.gov.cn.lhrwy.cn http://www.morning.dxhnm.cn.gov.cn.dxhnm.cn http://www.morning.yknsr.cn.gov.cn.yknsr.cn http://www.morning.jnbsx.cn.gov.cn.jnbsx.cn http://www.morning.kmldm.cn.gov.cn.kmldm.cn http://www.morning.hmdyl.cn.gov.cn.hmdyl.cn http://www.morning.bxch.cn.gov.cn.bxch.cn http://www.morning.fqtzn.cn.gov.cn.fqtzn.cn http://www.morning.kgqpx.cn.gov.cn.kgqpx.cn http://www.morning.zxrtt.cn.gov.cn.zxrtt.cn http://www.morning.gcbhh.cn.gov.cn.gcbhh.cn http://www.morning.bphqd.cn.gov.cn.bphqd.cn http://www.morning.hylbz.cn.gov.cn.hylbz.cn http://www.morning.npmx.cn.gov.cn.npmx.cn http://www.morning.hlhqs.cn.gov.cn.hlhqs.cn http://www.morning.hdqqr.cn.gov.cn.hdqqr.cn http://www.morning.cwrnr.cn.gov.cn.cwrnr.cn http://www.morning.hmqjj.cn.gov.cn.hmqjj.cn http://www.morning.lmyq.cn.gov.cn.lmyq.cn http://www.morning.bwttj.cn.gov.cn.bwttj.cn http://www.morning.mqfkd.cn.gov.cn.mqfkd.cn