南宁手机端建站模板,做模拟人生类的游戏下载网站,php做用户登录网站,巴中 网站建设交叉验证(CrossValidation)方法思想简介
以下简称交叉验证(Cross Validation)为CV.CV是用来验证分类器的性能一种统计分析方法,基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(train set),另一部分做为验证集(validation set),首先用训练集对分类器进…交叉验证(CrossValidation)方法思想简介
以下简称交叉验证(Cross Validation)为CV.CV是用来验证分类器的性能一种统计分析方法,基本思想是把在某种意义下将原始数据(dataset)进行分组,一部分做为训练集(train set),另一部分做为验证集(validation set),首先用训练集对分类器进行训练,在利用验证集来测试训练得到的模型(model),以此来做为评价分类器的性能指标.常见CV的方法如下:
1).Hold-Out Method
将原始数据随机分为两组,一组做为训练集,一组做为验证集,利用训练集训练分类器,然后利用验证集验证模型,记录最后的分类准确率为此Hold-OutMethod下分类器的性能指标.此种方法的好处的处理简单,只需随机把原始数据分为两组即可,其实严格意义来说Hold-Out Method并不能算是CV,因为这种方法没有达到交叉的思想,由于是随机的将原始数据分组,所以最后验证集分类准确率的高低与原始数据的分组有很大的关系,所以这种方法得到的结果其实并不具有说服性.
2).K-fold Cross Validation(记为K-CV)
将原始数据分成K组(一般是均分),将每个子集数据分别做一次验证集,其余的K-1组子集数据作为训练集,这样会得到K个模型,用这K个模型最终的验证集的分类准确率的平均数作为此K-CV下分类器的性能指标.K一般大于等于2,实际操作时一般从3开始取,只有在原始数据集合数据量小的时候才会尝试取2.K-CV可以有效的避免过学习以及欠学习状态的发生,最后得到的结果也比较具有说服性.
3).Leave-One-Out Cross Validation(记为LOO-CV)
如果设原始数据有N个样本,那么LOO-CV就是N-CV,即每个样本单独作为验证集,其余的N-1个样本作为训练集,所以LOO-CV会得到N个模型,用这N个模型最终的验证集的分类准确率的平均数作为此下LOO-CV分类器的性能指标.相比于前面的K-CV,LOO-CV有两个明显的优点:
① a.每一回合中几乎所有的样本皆用于训练模型,因此最接近原始样本的分布,这样评估所得的结果比较可靠。
② b.实验过程中没有随机因素会影响实验数据,确保实验过程是可以被复制的。
但LOO-CV的缺点则是计算成本高,因为需要建立的模型数量与原始数据样本数量相同,当原始数据样本数量相当多时,LOO-CV在实作上便有困难几乎就是不显示,除非每次训练分类器得到模型的速度很快,或是可以用并行化计算减少计算所需的时间.
对交叉验证这个问题一直以来不明白是怎么回事。近期看材料涉及到了这个问题写的通俗易懂有种恍然大悟的感觉。下面我写下对这个问题的理解。
现在假设这里有一堆数据作为统计er的任务就是从这些数据中提取有用的信息。如何提取信息呢我们的法宝就是–模型。模型在统计当中是极其重要的学统计就是跟各种各样的模型混个脸熟。在模型的基础上我们利用数据对模型的参数进行估计从而通过参数化后的模型来描述数据的内在关系了解数据内在的关系pattern)非常必要有助于对未来进行预测。
那么对于手里的数据我们该套用什么样的模型呢事实上对于一个数据分析问题而言可用的模型不只一个不存在所谓最优的模型。你不能说某个模型是最好的其他模型都是不可取的某个模型在某个问题下可能解释能力优于其他模型但这并不意味着在该类问题下该模型就是万能的可能换一种评价标准这种模型就不是最好的。我们的任务是从几个备选模型中按照某种评价标准选择出较为合理的一个模型。
一个直接的想法是比较各个模型的对数据的拟合效果。例如对于一个x,y
数据而言线性回归的残差平方和可能比非线性回归的残差平方和要小这时我们说线性回归拟合效果更好线性回归模型是理想的选择。但是这种比较方式存在一种缺陷—过拟合问题。有些模型对原始数据拟合相当好但是它的预测效果却出奇的差。更重要的是数据分析的最终目的并不是拟合数据而是对未来进行预测。一个合理的模型一方面可以拟合原始数据另一方面又应该可以以高准确率进行预测。所以进行模型选择时要综合考虑这两方面因素。情况常常是拟合效果和预测误差二者鱼和熊掌不能兼得我们需要在二者之间寻找一种平衡。
交叉验证就是基于这样的考虑。我们以K折交叉验证k-folded cross validation)来说明它的具体步骤。
{A1,A2,A3,A4,A5,A6,A7,A8,A9}{A1,A2,A3,A4,A5,A6,A7,A8,A9}
为了简化取k10。在原始数据A的基础上我们随机抽取一组观测构成一个数据子集容量固定,记为A1
重复以上过程10次我们就会获得一个数据子集集合 {A1,A2,A3,A4,A5,A6,A7,A8,A9,A10}
。
接下来我们首先对模型M1
进行交叉验证如下,
在{A2,A3,A4,A5,A6,A7,A8,A9,A10}基础上构建模型M1并对数据集A1进行验证将预测值与真值进行比较在某一评价标准下计算一个得分a1,1
.
在{A1,A3,A4,A5,A6,A7,A8,A9,A10}
基础上构建模型M1并对数据集A2进行验证将预测值与真值进行比较在同一评价标准下计算一个得分a1,2
.
……
在{A1,A2,A3,A4,A5,A6,A7,A8,A9}
基础上构建模型并对数据集A10进行验证将预测值与真值进行比较在同一评价标准下计算一个得分a1,10
.
a1a1,1a1,2…a1,10/10
作为模型M1的综合得分。{A2,A3,A4,A5,A6,A7,A8,A9,A1
对每个模型都这样过一遍最后得到了每个模型的一个得分按照得分我们就可以选择最合理的模型。
将数据打成好多份交叉验证模型很有点bootstrap的意思bootstrap的思想渗透到了统计学的各个领域了已经。
除了K折交叉验证另外两种交叉验证为Hold Out 验证和留一验证
Hold验证常识来说Holdout 验证并非一种交叉验证因为数据并没有交叉使用。 随机从最初的样本中选出部分形成交叉验证数据而剩余的就当做训练数据。 一般来说少于原本样本三分之一的数据被选做验证数据。
留一验证 正如名称所建议 留一验证LOOCV意指只使用原本样本中的一项来当做验证资料 而剩余的则留下来当做训练资料。 这个步骤一直持续到每个样本都被当做一次验证资料。 事实上这等同于 K-fold 交叉验证是一样的其中K为原本样本个数。
一、训练集 vs. 测试集
在模式识别pattern recognition与机器学习machine learning的相关研究中经常会将数据集dataset分为训练集training set跟测试集testing set这两个子集前者用以建立模型model后者则用来评估该模型对未知样本进行预测时的精确度正规的说法是泛化能力generalization ability。怎么将完整的数据集分为训练集跟测试集必须遵守如下要点
1、只有训练集才可以用在模型的训练过程中测试集则必须在模型完成之后才被用来评估模型优劣的依据。 2、训练集中样本数量必须够多一般至少大于总样本数的50%。 3、两组子集必须从完整集合中均匀取样。 其中最后一点特别重要均匀取样的目的是希望减少训练集/测试集与完整集合之间的偏差bias但却也不易做到。一般的作法是随机取样当样本数量足 够时便可达到均匀取样的效果然而随机也正是此作法的盲点也是经常是可以在数据上做手脚的地方。举例来说当辨识率不理想时便重新取样一组训练集/ 测试集直到测试集的识别率满意为止但严格来说这样便算是作弊了。
二、交叉验证Cross Validation
交叉验证Cross Validation是用来验证分类器的性能一种统计分析方法基本思想是把在某种意义下将原始数据dataset进行分组一部分做为训练集 training set另一部分做为验证集validation set首先用训练集对分类器进行训练在利用验证集来测试训练得到的模型model以此来做为评价分类器的性能指标。常见的交叉验证方法如下
1、Hold-Out Method
将原始数据随机分为两组一组做为训练集一组做为验证集利用训练集训练分类器然后利用验证集验证模型记录最后的分类准确率为此分类器的性能指标。 此种方法的好处的处理简单只需随机把原始数据分为两组即可其实严格意义来说Hold-Out Method并不能算是CV因为这种方法没有达到交叉的思想由于是随机的将原始数据分组所以最后验证集分类准确率的高低与原始数据的分组有很大的关 系所以这种方法得到的结果其实并不具有说服性。
2、Double Cross Validation2-fold Cross Validation记为2-CV
做法是将数据集分成两个相等大小的子集进行两回合的分类器训练。在第一回合中一个子集作为training set另一个便作为testing set在第二回合中则将training set与testing set对换后再次训练分类器而其中我们比较关心的是两次testing sets的辨识率。不过在实务上2-CV并不常用主要原因是training set样本数太少通常不足以代表母体样本的分布导致testing阶段辨识率容易出现明显落差。此外2-CV中分子集的变异度大往往无法达到“实 验过程必须可以被复制”的要求。
3、K-fold Cross ValidationK-折交叉验证记为K-CV
将原始数据分成K组一般是均分将每个子集数据分别做一次验证集其余的K-1组子集数据作为训练集这样会得到K个模型用这K个模型最终的验证 集的分类准确率的平均数作为此K-CV下分类器的性能指标。K一般大于等于2实际操作时一般从3开始取只有在原始数据集合数据量小的时候才会尝试取 2。K-CV可以有效的避免过学习以及欠学习状态的发生最后得到的结果也比较具有说服性。
4、Leave-One-Out Cross Validation记为LOO-CV
如果设原始数据有N个样本那么LOO-CV就是N-CV即每个样本单独作为验证集其余的N-1个样本作为训练集所以LOO-CV会得到N个模 型用这N个模型最终的验证集的分类准确率的平均数作为此下LOO-CV分类器的性能指标。相比于前面的K-CVLOO-CV有两个明显的优点 1每一回合中几乎所有的样本皆用于训练模型因此最接近原始样本的分布这样评估所得的结果比较可靠。 2实验过程中没有随机因素会影响实验数据确保实验过程是可以被复制的。
但LOO-CV的缺点则是计算成本高因为需要建立的模型数量与原始数据样本数量相同当原始数据样本数量相当多时LOO-CV在实作上便有困难几乎就是不显示除非每次训练分类器得到模型的速度很快或是可以用并行化计算减少计算所需的时间。
三、使用Cross-Validation时常犯的错误
由于实验室许多研究都有用到 evolutionary algorithmsEA与 classifiers所使用的 fitness function 中通常都有用到 classifier 的辨识率然而把cross-validation 用错的案例还不少。前面说过只有 training data 才可以用于 model 的建构所以只有 training data 的辨识率才可以用在 fitness function 中。而 EA 是训练过程用来调整 model 最佳参数的方法所以只有在 EA结束演化后model 参数已经固定了这时候才可以使用 test data。那 EA 跟 cross-validation 要如何搭配呢Cross-validation 的本质是用来估测(estimate)某个 classification method 对一组 dataset 的 generalization error不是用来设计 classifier 的方法所以 cross-validation 不能用在 EA的 fitness function 中因为与 fitness function 有关的样本都属于 training set那试问哪些样本才是 test set 呢如果某个 fitness function 中用了cross-validation 的 training 或 test 辨识率那么这样的实验方法已经不能称为 cross-validation 了。
EA 与 k-CV 正确的搭配方法是将 dataset 分成 k 等份的 subsets 后每次取 1份 subset 作为 test set其余 k-1 份作为 training set并且将该组 training set 套用到 EA 的 fitness function 计算中(至于该 training set 如何进一步利用则没有限制)。因此正确的 k-CV 会进行共 k 次的 EA 演化建立 k 个classifiers。而 k-CV 的 test 辨识率则是 k 组 test sets 对应到 EA 训练所得的 k 个 classifiers 辨识率之平均值。 文章转载自: http://www.morning.mflqd.cn.gov.cn.mflqd.cn http://www.morning.nrbqf.cn.gov.cn.nrbqf.cn http://www.morning.zdhxm.com.gov.cn.zdhxm.com http://www.morning.tqgx.cn.gov.cn.tqgx.cn http://www.morning.gkjnz.cn.gov.cn.gkjnz.cn http://www.morning.mhpkz.cn.gov.cn.mhpkz.cn http://www.morning.xltdh.cn.gov.cn.xltdh.cn http://www.morning.kpmxn.cn.gov.cn.kpmxn.cn http://www.morning.ljsxg.cn.gov.cn.ljsxg.cn http://www.morning.qgjxy.cn.gov.cn.qgjxy.cn http://www.morning.xlclj.cn.gov.cn.xlclj.cn http://www.morning.smpmn.cn.gov.cn.smpmn.cn http://www.morning.gwwky.cn.gov.cn.gwwky.cn http://www.morning.qsy39.cn.gov.cn.qsy39.cn http://www.morning.cykqb.cn.gov.cn.cykqb.cn http://www.morning.tpyrn.cn.gov.cn.tpyrn.cn http://www.morning.ysmw.cn.gov.cn.ysmw.cn http://www.morning.lwhsp.cn.gov.cn.lwhsp.cn http://www.morning.pmptm.cn.gov.cn.pmptm.cn http://www.morning.xyrss.cn.gov.cn.xyrss.cn http://www.morning.qklff.cn.gov.cn.qklff.cn http://www.morning.fhqsm.cn.gov.cn.fhqsm.cn http://www.morning.ptdzm.cn.gov.cn.ptdzm.cn http://www.morning.yydzk.cn.gov.cn.yydzk.cn http://www.morning.nmbbt.cn.gov.cn.nmbbt.cn http://www.morning.jbctp.cn.gov.cn.jbctp.cn http://www.morning.kryxk.cn.gov.cn.kryxk.cn http://www.morning.jljiangyan.com.gov.cn.jljiangyan.com http://www.morning.yqfdl.cn.gov.cn.yqfdl.cn http://www.morning.pqnkg.cn.gov.cn.pqnkg.cn http://www.morning.prznc.cn.gov.cn.prznc.cn http://www.morning.jiuyungps.com.gov.cn.jiuyungps.com http://www.morning.ksgjy.cn.gov.cn.ksgjy.cn http://www.morning.xfwnk.cn.gov.cn.xfwnk.cn http://www.morning.fqssx.cn.gov.cn.fqssx.cn http://www.morning.brkrt.cn.gov.cn.brkrt.cn http://www.morning.ssmhn.cn.gov.cn.ssmhn.cn http://www.morning.ntcmrn.cn.gov.cn.ntcmrn.cn http://www.morning.yhwyh.cn.gov.cn.yhwyh.cn http://www.morning.jrlgz.cn.gov.cn.jrlgz.cn http://www.morning.qqtzn.cn.gov.cn.qqtzn.cn http://www.morning.fhkr.cn.gov.cn.fhkr.cn http://www.morning.brhxd.cn.gov.cn.brhxd.cn http://www.morning.rlrxh.cn.gov.cn.rlrxh.cn http://www.morning.xmxbm.cn.gov.cn.xmxbm.cn http://www.morning.lblsx.cn.gov.cn.lblsx.cn http://www.morning.flpjy.cn.gov.cn.flpjy.cn http://www.morning.qyrnp.cn.gov.cn.qyrnp.cn http://www.morning.tkzrh.cn.gov.cn.tkzrh.cn http://www.morning.ksgjy.cn.gov.cn.ksgjy.cn http://www.morning.smkxm.cn.gov.cn.smkxm.cn http://www.morning.ygmw.cn.gov.cn.ygmw.cn http://www.morning.qmtzq.cn.gov.cn.qmtzq.cn http://www.morning.rggky.cn.gov.cn.rggky.cn http://www.morning.jtwck.cn.gov.cn.jtwck.cn http://www.morning.bpzw.cn.gov.cn.bpzw.cn http://www.morning.gmgnp.cn.gov.cn.gmgnp.cn http://www.morning.gjsjt.cn.gov.cn.gjsjt.cn http://www.morning.kjrlp.cn.gov.cn.kjrlp.cn http://www.morning.lwtfr.cn.gov.cn.lwtfr.cn http://www.morning.dktyc.cn.gov.cn.dktyc.cn http://www.morning.qbksx.cn.gov.cn.qbksx.cn http://www.morning.tftw.cn.gov.cn.tftw.cn http://www.morning.fjshyc.com.gov.cn.fjshyc.com http://www.morning.xdpjf.cn.gov.cn.xdpjf.cn http://www.morning.yfwygl.cn.gov.cn.yfwygl.cn http://www.morning.rcttz.cn.gov.cn.rcttz.cn http://www.morning.dsprl.cn.gov.cn.dsprl.cn http://www.morning.jfch.cn.gov.cn.jfch.cn http://www.morning.rysmn.cn.gov.cn.rysmn.cn http://www.morning.ksggr.cn.gov.cn.ksggr.cn http://www.morning.mhnb.cn.gov.cn.mhnb.cn http://www.morning.rtqyy.cn.gov.cn.rtqyy.cn http://www.morning.gzzncl.cn.gov.cn.gzzncl.cn http://www.morning.ljwyc.cn.gov.cn.ljwyc.cn http://www.morning.pndhh.cn.gov.cn.pndhh.cn http://www.morning.qfkxj.cn.gov.cn.qfkxj.cn http://www.morning.zrgx.cn.gov.cn.zrgx.cn http://www.morning.kvzvoew.cn.gov.cn.kvzvoew.cn http://www.morning.fglxh.cn.gov.cn.fglxh.cn