自己买域名建设网站,wap网站开发框架,网站建设制作流程,如何做像京东淘宝那样的网站1、降维
降维是指在某些限定条件下#xff0c;降低随机变量(特征)个数#xff0c;得到一组“不相关”主变量的过程
降低随机变量的个数 相关特征(correlated feature) 相对湿度与降雨量之间的相关等等 正是因为在进行训练的时候#xff0c;我们都是使用特征进行学习。如果…1、降维
降维是指在某些限定条件下降低随机变量(特征)个数得到一组“不相关”主变量的过程
降低随机变量的个数 相关特征(correlated feature) 相对湿度与降雨量之间的相关等等 正是因为在进行训练的时候我们都是使用特征进行学习。如果特征本身存在问题或者特征之间相关性较强对于算法学习预测会影响较大 1.2、降维的两种方式
特征选择主成分分析可以理解一种特征提取的方式
2、什么是特征选择
2.1、定义
数据中包含冗余或无关变量或称特征、属性、指标等旨在从原有特征中找出主要特征。
2.2、方法
Filter(过滤式)主要探究特征本身特点、特征与特征和目标值之间关联 方差选择法低方差特征过滤 Embedded (嵌入式)算法自动选择特征特征与目标值之间的关联 决策树:信息熵、信息增益正则化L1、L2深度学习卷积等
3、 过滤式
3.1、低方差特征过滤 删除低方差的一些特征前面讲过方差的意义。再结合方差的大小来考虑这个方式的角度。 特征方差小某个特征大多样本的值比较相近特征方差大某个特征很多样本的值都有差别
3.2、API
sklearn.feature_selection.VarianceThreshold(threshold 0.0) threshold过滤多少小于多少阈值的数据删除所有低方差特征Variance.fit_transform(X) X:numpy array格式的数据[n_samples,n_features]返回值训练集差异低于threshold的特征将被删除。默认值是保留所有非零方差特征即删除所有样本中具有相同值的特征。
3.3、代码
数据数据集下载链接
示例
index,pe_ratio,pb_ratio,market_cap,return_on_asset_net_profit,du_return_on_equity,ev,earnings_per_share,revenue,total_expense,date,return
0,000001.XSHE,5.9572,1.1818,85252550922.0,0.8008,14.9403,1211444855670.0,2.01,20701401000.0,10882540000.0,2012-01-31,0.027657228229937388
1,000002.XSHE,7.0289,1.588,84113358168.0,1.6463,7.8656,300252061695.0,0.326,29308369223.2,23783476901.2,2012-01-31,0.08235182370820669
2,000008.XSHE,-262.7461,7.0003,517045520.0,-0.5678,-0.5943,770517752.56,-0.006,11679829.03,12030080.04,2012-01-31,0.09978900335112327
3,000060.XSHE,16.476,3.7146,19680455995.0,5.6036,14.617,28009159184.6,0.35,9189386877.65,7935542726.05,2012-01-31,0.12159482758620697
4,000069.XSHE,12.5878,2.5616,41727214853.0,2.8729,10.9097,81247380359.0,0.271,8951453490.28,7091397989.13,2012-01-31,-0.0026808154146886697import pandas as pd
from sklearn.feature_selection import VarianceThresholddef variance_demo():删除低方差特征——特征选择:return: Nonedata pd.read_csv(factor_returns.csv)print(data)# 1、实例化一个转换器类transfer VarianceThreshold(threshold10)# 2、调用fit_transformdata transfer.fit_transform(data.iloc[:, 1:10]) # indexdate return 三个不需要的特征print(删除低方差特征的结果\n, data)print(形状\n, data.shape)print(data)return Noneif __name__ __main__:variance_demo()
结果 index pe_ratio pb_ratio ... total_expense date return
0 000001.XSHE 5.9572 1.1818 ... 1.088254e10 2012-01-31 0.027657
1 000002.XSHE 7.0289 1.5880 ... 2.378348e10 2012-01-31 0.082352
2 000008.XSHE -262.7461 7.0003 ... 1.203008e07 2012-01-31 0.099789
3 000060.XSHE 16.4760 3.7146 ... 7.935543e09 2012-01-31 0.121595
4 000069.XSHE 12.5878 2.5616 ... 7.091398e09 2012-01-31 -0.002681
... ... ... ... ... ... ... ...
2313 601888.XSHG 25.0848 4.2323 ... 1.041419e10 2012-11-30 0.060727
2314 601901.XSHG 59.4849 1.6392 ... 1.089783e09 2012-11-30 0.179148
2315 601933.XSHG 39.5523 4.0052 ... 1.749295e10 2012-11-30 0.137134
2316 601958.XSHG 52.5408 2.4646 ... 6.009007e09 2012-11-30 0.149167
2317 601989.XSHG 14.2203 1.4103 ... 4.132842e10 2012-11-30 0.183629[2318 rows x 12 columns]
删除低方差特征的结果[[ 5.95720000e00 8.52525509e10 8.00800000e-01 ... 1.21144486e122.07014010e10 1.08825400e10][ 7.02890000e00 8.41133582e10 1.64630000e00 ... 3.00252062e112.93083692e10 2.37834769e10][-2.62746100e02 5.17045520e08 -5.67800000e-01 ... 7.70517753e081.16798290e07 1.20300800e07]...[ 3.95523000e01 1.70243430e10 3.34400000e00 ... 2.42081699e101.78908166e10 1.74929478e10][ 5.25408000e01 3.28790988e10 2.74440000e00 ... 3.88380258e106.46539204e09 6.00900728e09][ 1.42203000e01 5.91108572e10 2.03830000e00 ... 2.02066110e114.50987171e10 4.13284212e10]]
形状(2318, 7)
4、相关系数
皮尔逊相关系数(Pearson Correlation Coefficient) 反映变量之间相关关系密切程度的统计指标
4.1、公式计算案例 比如说我们计算年广告费投入与月均销售额
那么之间的相关系数怎么计算 最终计算 0.9942 所以我们最终得出结论是广告投入费与月平均销售额之间有高度的正相关关系。
4.2、特点
相关系数的值介于–1与1之间即–1≤ r ≤1。其性质如下
当r0时表示两变量正相关r0时两变量为负相关当|r|1时表示两变量为完全相关当r0时表示两变量间无相关关系当0|r|1时表示两变量存在一定程度的相关。且|r|越接近1两变量间线性关系越密切|r|越接近于0表示两变量的线性相关越弱一般可按三级划分|r|0.4为低度相关0.4≤|r|0.7为显著性相关0.7≤|r|1为高度线性相关 这个符号|r|为r的绝对值 |-5| 5 4.3、API
from scipy.stats import pearsonr x : (N,) array_likey : (N,) array_like Returns: (Pearson’s correlation coefficient, p-value)
import pandas as pd
from scipy.stats import pearsonrdef pearsonr_demo():相关系数计算:return: Nonedata pd.read_csv(factor_returns.csv)factor [pe_ratio, pb_ratio, market_cap, return_on_asset_net_profit, du_return_on_equity, ev,earnings_per_share, revenue, total_expense]for i in range(len(factor)):for j in range(i, len(factor) - 1):print(指标%s与指标%s之间的相关性大小为%f % (factor[i], factor[j 1], pearsonr(data[factor[i]], data[factor[j 1]])[0]))return Noneif __name__ __main__:pearsonr_demo()
指标pe_ratio与指标pb_ratio之间的相关性大小为-0.004389
指标pe_ratio与指标market_cap之间的相关性大小为-0.068861
指标pe_ratio与指标return_on_asset_net_profit之间的相关性大小为-0.066009
指标pe_ratio与指标du_return_on_equity之间的相关性大小为-0.082364
指标pe_ratio与指标ev之间的相关性大小为-0.046159
指标pe_ratio与指标earnings_per_share之间的相关性大小为-0.072082
指标pe_ratio与指标revenue之间的相关性大小为-0.058693
指标pe_ratio与指标total_expense之间的相关性大小为-0.055551
指标pb_ratio与指标market_cap之间的相关性大小为0.009336
指标pb_ratio与指标return_on_asset_net_profit之间的相关性大小为0.445381
指标pb_ratio与指标du_return_on_equity之间的相关性大小为0.291367
指标pb_ratio与指标ev之间的相关性大小为-0.183232
指标pb_ratio与指标earnings_per_share之间的相关性大小为0.198708
指标pb_ratio与指标revenue之间的相关性大小为-0.177671
指标pb_ratio与指标total_expense之间的相关性大小为-0.173339
指标market_cap与指标return_on_asset_net_profit之间的相关性大小为0.214774
指标market_cap与指标du_return_on_equity之间的相关性大小为0.316288
指标market_cap与指标ev之间的相关性大小为0.565533
指标market_cap与指标earnings_per_share之间的相关性大小为0.524179
指标market_cap与指标revenue之间的相关性大小为0.440653
指标market_cap与指标total_expense之间的相关性大小为0.386550
指标return_on_asset_net_profit与指标du_return_on_equity之间的相关性大小为0.818697
指标return_on_asset_net_profit与指标ev之间的相关性大小为-0.101225
指标return_on_asset_net_profit与指标earnings_per_share之间的相关性大小为0.635933
指标return_on_asset_net_profit与指标revenue之间的相关性大小为0.038582
指标return_on_asset_net_profit与指标total_expense之间的相关性大小为0.027014
指标du_return_on_equity与指标ev之间的相关性大小为0.118807
指标du_return_on_equity与指标earnings_per_share之间的相关性大小为0.651996
指标du_return_on_equity与指标revenue之间的相关性大小为0.163214
指标du_return_on_equity与指标total_expense之间的相关性大小为0.135412
指标ev与指标earnings_per_share之间的相关性大小为0.196033
指标ev与指标revenue之间的相关性大小为0.224363
指标ev与指标total_expense之间的相关性大小为0.149857
指标earnings_per_share与指标revenue之间的相关性大小为0.141473
指标earnings_per_share与指标total_expense之间的相关性大小为0.105022
指标revenue与指标total_expense之间的相关性大小为0.995845从中我们得出
指标revenue与指标total_expense之间的相关性大小为0.995845指标return_on_asset_net_profit与指标du_return_on_equity之间的相关性大小为0.818697
5、主成分分析
什么是主成分分析(PCA)
定义高维数据转化为低维数据的过程在此过程中可能会舍弃原有数据、创造新的变量作用是数据维数压缩尽可能降低原数据的维数复杂度损失少量信息。应用回归分析或者聚类分析当中
5.1、计算案例理解
假设对于给定5个点数据如下 (-1,-2) (-1, 0) ( 0, 0) ( 2, 1) ( 0, 1) 要求将这个二维的数据简化成一维 并且损失少量的信息 这个过程如何计算的呢找到一个合适的直线通过一个矩阵运算得出主成分分析的结果不需要理解 5.2、API
sklearn.decomposition.PCA(n_componentsNone) 将数据分解为较低维数空间n_components: 小数表示保留百分之多少的信息整数减少到多少特征 PCA.fit_transform(X) X:numpy array格式的数据[n_samples,n_features]返回值转换后指定维度的array
5.3、数据计算
数据计算 [[2,8,4,5], [6,3,0,8], [5,4,9,1]] from sklearn.decomposition import PCAdef pca_demo():对数据进行PCA降维:return: Nonedata [[2,8,4,5], [6,3,0,8], [5,4,9,1]]# 1、实例化PCA, 小数——保留多少信息transfer PCA(n_components0.9)# 2、调用fit_transformdata1 transfer.fit_transform(data)print(保留90%的信息降维结果为\n, data1)# 1、实例化PCA, 整数——指定降维到的维数transfer2 PCA(n_components3)# 2、调用fit_transformdata2 transfer2.fit_transform(data)print(降维到3维的结果\n, data2)return Noneif __name__ __main__:pca_demo()
保留90%的信息降维结果为[[ 1.28620952e-15 3.82970843e00][ 5.74456265e00 -1.91485422e00][-5.74456265e00 -1.91485422e00]]
降维到3维的结果[[ 1.28620952e-15 3.82970843e00 5.26052119e-16][ 5.74456265e00 -1.91485422e00 5.26052119e-16][-5.74456265e00 -1.91485422e00 5.26052119e-16]]
文章转载自: http://www.morning.bchfp.cn.gov.cn.bchfp.cn http://www.morning.yjmlg.cn.gov.cn.yjmlg.cn http://www.morning.sjli222.cn.gov.cn.sjli222.cn http://www.morning.ywpcs.cn.gov.cn.ywpcs.cn http://www.morning.wyppp.cn.gov.cn.wyppp.cn http://www.morning.ns3nt8.cn.gov.cn.ns3nt8.cn http://www.morning.pznhn.cn.gov.cn.pznhn.cn http://www.morning.zyytn.cn.gov.cn.zyytn.cn http://www.morning.kxrld.cn.gov.cn.kxrld.cn http://www.morning.kwqqs.cn.gov.cn.kwqqs.cn http://www.morning.jlpdc.cn.gov.cn.jlpdc.cn http://www.morning.kcxtz.cn.gov.cn.kcxtz.cn http://www.morning.kbyp.cn.gov.cn.kbyp.cn http://www.morning.crkmm.cn.gov.cn.crkmm.cn http://www.morning.mysmz.cn.gov.cn.mysmz.cn http://www.morning.blqsr.cn.gov.cn.blqsr.cn http://www.morning.kpzbf.cn.gov.cn.kpzbf.cn http://www.morning.qnbsx.cn.gov.cn.qnbsx.cn http://www.morning.hrqfl.cn.gov.cn.hrqfl.cn http://www.morning.pjjkz.cn.gov.cn.pjjkz.cn http://www.morning.brxzt.cn.gov.cn.brxzt.cn http://www.morning.xesrd.com.gov.cn.xesrd.com http://www.morning.rkjz.cn.gov.cn.rkjz.cn http://www.morning.nhzzn.cn.gov.cn.nhzzn.cn http://www.morning.mbbgk.com.gov.cn.mbbgk.com http://www.morning.ldpjm.cn.gov.cn.ldpjm.cn http://www.morning.rjyd.cn.gov.cn.rjyd.cn http://www.morning.seoqun.com.gov.cn.seoqun.com http://www.morning.jpbky.cn.gov.cn.jpbky.cn http://www.morning.bdgb.cn.gov.cn.bdgb.cn http://www.morning.qcygd.cn.gov.cn.qcygd.cn http://www.morning.mqxrx.cn.gov.cn.mqxrx.cn http://www.morning.hfyll.cn.gov.cn.hfyll.cn http://www.morning.kpwcx.cn.gov.cn.kpwcx.cn http://www.morning.xirfr.cn.gov.cn.xirfr.cn http://www.morning.bgbnc.cn.gov.cn.bgbnc.cn http://www.morning.tpyrn.cn.gov.cn.tpyrn.cn http://www.morning.qrcxh.cn.gov.cn.qrcxh.cn http://www.morning.xfcjs.cn.gov.cn.xfcjs.cn http://www.morning.zcfsq.cn.gov.cn.zcfsq.cn http://www.morning.clhyj.cn.gov.cn.clhyj.cn http://www.morning.nfnxp.cn.gov.cn.nfnxp.cn http://www.morning.klltg.cn.gov.cn.klltg.cn http://www.morning.zwhtr.cn.gov.cn.zwhtr.cn http://www.morning.bxch.cn.gov.cn.bxch.cn http://www.morning.jlboyuan.cn.gov.cn.jlboyuan.cn http://www.morning.gtmgl.cn.gov.cn.gtmgl.cn http://www.morning.ttaes.cn.gov.cn.ttaes.cn http://www.morning.kqgsn.cn.gov.cn.kqgsn.cn http://www.morning.litao7.cn.gov.cn.litao7.cn http://www.morning.tlpsd.cn.gov.cn.tlpsd.cn http://www.morning.ljjmr.cn.gov.cn.ljjmr.cn http://www.morning.qhkdt.cn.gov.cn.qhkdt.cn http://www.morning.nzfyx.cn.gov.cn.nzfyx.cn http://www.morning.rggky.cn.gov.cn.rggky.cn http://www.morning.xxwl1.com.gov.cn.xxwl1.com http://www.morning.gywfp.cn.gov.cn.gywfp.cn http://www.morning.tbksk.cn.gov.cn.tbksk.cn http://www.morning.xgxbr.cn.gov.cn.xgxbr.cn http://www.morning.lrplh.cn.gov.cn.lrplh.cn http://www.morning.tpwrm.cn.gov.cn.tpwrm.cn http://www.morning.slqgl.cn.gov.cn.slqgl.cn http://www.morning.tnjz.cn.gov.cn.tnjz.cn http://www.morning.pjrgb.cn.gov.cn.pjrgb.cn http://www.morning.sogou66.cn.gov.cn.sogou66.cn http://www.morning.sgfpn.cn.gov.cn.sgfpn.cn http://www.morning.kgkph.cn.gov.cn.kgkph.cn http://www.morning.krqhw.cn.gov.cn.krqhw.cn http://www.morning.nydgg.cn.gov.cn.nydgg.cn http://www.morning.wrlxy.cn.gov.cn.wrlxy.cn http://www.morning.xbhpm.cn.gov.cn.xbhpm.cn http://www.morning.bgqqr.cn.gov.cn.bgqqr.cn http://www.morning.fwcjy.cn.gov.cn.fwcjy.cn http://www.morning.qlpq.cn.gov.cn.qlpq.cn http://www.morning.fykqh.cn.gov.cn.fykqh.cn http://www.morning.qqnh.cn.gov.cn.qqnh.cn http://www.morning.lzrpy.cn.gov.cn.lzrpy.cn http://www.morning.dwrbn.cn.gov.cn.dwrbn.cn http://www.morning.rbkml.cn.gov.cn.rbkml.cn http://www.morning.tjwlp.cn.gov.cn.tjwlp.cn