当前位置: 首页 > news >正文

自己建的网站搜不到品质好的网站制作

自己建的网站搜不到,品质好的网站制作,aspnet网站开发模板,为代理网站做网站11.1子集收集与评价 属性称为特征 #xff0c;对当前学习任务有用的属性称为相关特征 、没什么用的属性称为无关特 征 . 从给定的特征集合中选择出相关特征于集的过程#xff0c;称为特征选择。 特征选择是一个重要的…11.1子集收集与评价 属性称为特征 对当前学习任务有用的属性称为相关特征 、没什么用的属性称为无关特 征 . 从给定的特征集合中选择出相关特征于集的过程称为特征选择。 特征选择是一个重要的数据预处理 过程。我们要从初始的特征集合中选取一个包含了所有重要信息的特征子集首先是子集搜索给走特征集合 {a1a2 ... ad} 我们可将每个特征看作一个候选子集对这d个候选单特征子集进行评价假定 {a2} 最优于是将 {a2}作为第一轮的选定集;然后在上一轮的选定集中加入一个特征构成包含两个特征的候选子集以此往复操作。其次是子集评价子集的信息增益为 信息熵定义为 信息增益 Gain(A) 越大意味着特征子集 包含的有助于分类的信息越多.于是对每个候选特征子集我们可基于训练数据集来计算其信息增益以此作为评价准则。 常见的特征选择方法大致可分为三类:过滤式 、包裹式 和嵌入式. 11.2过滤式选择         过滤式方法先对数据集进行特征选择然后再训练学习器。         Relief 是一种著名的过滤式特征选择方法该方法设计了一个相关统计量来度量特征的重要性。该统计量是一个向量其每个分量分别对应于一个初始特征而特征子集的重要性则是由子集中每个特征所对应的相关统计量分量之和来决定。 下面是关于Relief算法的过滤式特征选择方法的实验代码及分析和结果 import numpy as np from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score from sklearn.ensemble import RandomForestClassifier from skfeature.function.statistical import reliefF# 加载数据集 data load_iris() X data.data y data.target# 将数据集分为训练集和测试集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.3, random_state42)# 计算特征的ReliefF评分 reliefF_scores reliefF.reliefF(X_train, y_train)# 将特征按ReliefF评分排序 ranked_features np.argsort(reliefF_scores)[::-1]# 选择前k个特征 k 2 selected_features ranked_features[:k]# 用选定的特征训练分类器 X_train_selected X_train[:, selected_features] X_test_selected X_test[:, selected_features]classifier RandomForestClassifier(n_estimators100, random_state42) classifier.fit(X_train_selected, y_train)# 在测试集上评估分类器 y_pred classifier.predict(X_test_selected) accuracy accuracy_score(y_test, y_pred)print(Selected features:, selected_features) print(Accuracy with selected features:, accuracy)分析 ReliefF评分该方法为每个特征计算一个重要性分数反映了该特征对分类结果的影响。高分特征更为重要。特征选择根据ReliefF评分选择排名前k的特征。这里选择了前2个特征。分类性能使用选定的特征训练随机森林分类器并在测试集上评估准确性。最终的分类准确性显示了所选特征的有效性。 结果 11.3包裹式选择         包裹式特征选择直接把最终将要使用的学习器的性能作为特征于集的评价准则.从最终学习器性能来看包裹式特征选择比过滤式特征选择更好但另一方面由于在特征选择过程中需多次训练学习器因此包裹式特征选择的计算开销通常比过滤式特征边择大得多.         LVW 是一个典型的包裹式特征选择方法算法描述如下 下面是关于LVW算法的实验代码及分析和结果 import numpy as np import pandas as pd from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score from sklearn.preprocessing import StandardScaler# LVW 算法的伪实现 def lvw_algorithm(X_train, y_train, X_test, alpha0.5):LVW算法的伪实现假设权重为特征的均值feature_means np.mean(X_train, axis0)weights np.exp(alpha * feature_means) # 伪权重计算X_train_weighted X_train * weightsX_test_weighted X_test * weights# 用加权特征训练逻辑回归模型model LogisticRegression()model.fit(X_train_weighted, y_train)return model, X_test_weighted# 1. 数据加载 data load_iris() X data.data y data.target# 2. 数据预处理 scaler StandardScaler() X_scaled scaler.fit_transform(X)# 3. 数据划分 X_train, X_test, y_train, y_test train_test_split(X_scaled, y, test_size0.3, random_state42)# 4. 应用 LVW 算法 model, X_test_weighted lvw_algorithm(X_train, y_train, X_test, alpha0.5)# 5. 预测与评估 y_pred model.predict(X_test_weighted) accuracy accuracy_score(y_test, y_pred)print(fModel accuracy with LVW algorithm: {accuracy:.2f})分析 数据集我们使用了Iris数据集这是一个多分类数据集包含150个样本和4个特征。数据集已经标准化以便于比较。 LVW算法实现在这个伪实现中LVW算法假设特征的均值用于计算权重。具体来说我们将每个特征的均值取指数作为权重并对训练数据和测试数据进行加权。这是一种简单的加权方法实际的LVW算法可能会复杂得多。 模型训练与评估我们使用加权后的训练数据训练逻辑回归模型并在加权后的测试数据上进行预测。最后计算模型的准确性。 结果 11.4嵌入式选择与L1正则化         嵌入式特征选择是将特征选择过程与学习器训练过程融为一体。         给定数据集最简单的线性回归模型以平方误差为损失函数则优化目标为。         当样本特征很多而样本数相对较少时很容易陷入过拟合.为了缓解过拟合问题引入正则化项         L1范数和 L2 范数正则化都有助于降低过拟合风险但前者还会带来一个额外的好处:它比后者更易于获得稀疏 解即它求得的 会有更少的非零分量.         L1正则化问题的求 可使用近端梯度下降法PGD 下面是关于近端梯度下降法PGD算法解决L1正则化问题的实验代码及分析和结果 import numpy as np from sklearn.datasets import make_regression from sklearn.linear_model import Lasso from sklearn.metrics import mean_squared_errordef projected_gradient_descent(X, y, lambda_reg, alpha0.01, num_iters1000):m, n X.shapetheta np.zeros(n)for _ in range(num_iters):gradient -2 * X.T (y - X theta) / mtheta - alpha * gradient# Project onto L1 ball (soft thresholding)theta np.sign(theta) * np.maximum(0, np.abs(theta) - alpha * lambda_reg)return theta# 1. 数据生成 X, y make_regression(n_samples100, n_features20, noise0.1, random_state42)# 2. 设置参数 lambda_reg 0.1 # L1正则化强度 alpha 0.01 # 学习率 num_iters 1000 # 迭代次数# 3. 使用PGD算法求解 theta_pgd projected_gradient_descent(X, y, lambda_reg, alpha, num_iters)# 4. 用Lasso模型验证 lasso Lasso(alphalambda_reg) lasso.fit(X, y) theta_lasso lasso.coef_# 5. 计算误差 mse_pgd mean_squared_error(y, X theta_pgd) mse_lasso mean_squared_error(y, X theta_lasso)print(fPGD Mean Squared Error: {mse_pgd:.2f}) print(fLasso Mean Squared Error: {mse_lasso:.2f})分析 数据生成我们使用make_regression函数生成了一个回归数据集。数据集包含100个样本和20个特征带有一定的噪声。 PGD算法实现在projected_gradient_descent函数中我们通过梯度下降法更新参数并在每次迭代后对参数进行L1范数的软阈值投影。这个过程确保参数的L1范数约束被满足即实施了L1正则化。 Lasso模型验证为了验证PGD算法的结果我们还使用了Scikit-learn的Lasso模型它本质上使用了相同的L1正则化技术。 误差计算我们计算了PGD算法和Lasso模型的均方误差MSE以比较它们在数据上的表现。 结果 11.5稀疏表示与字典学习         将样品稀疏表示可以使学习任务的难度可能有所降低?涉及的计算和存储开销会减少 学得模型的可解释性也会提高。字典学习 亦称稀疏编码。是为普通稠密表达的样本找到合适的字典将样本转化为合适的稀疏表示形式从而使学习任务得以简化。         给定数据集字典学习最简单的形式为                                         ​​​​​​​         其中 为字典矩阵 k 称为字典的词汇量通常由用户指定 是样本  的稀疏表示.         11.6压缩感知         在现实任务中我们常希望根据部分信息来恢复全部信息。通常选择压缩的方法。压缩感知为精确地重构出原信号提供了方法。         在很多应用中均可获得具有稀疏性的 例如图像或声音的数字信 号通常在时域上不具有稀疏性但经过傅里叶变换、余弦变换、小波变换等处 理后却会转化为频域上的稀疏信号.与特征选择、稀疏表示不同压缩感知关注的是如何利用信号本身所具有的稀疏性从部分观测样本中恢复原信号。         限定等距性 RIP是一种用于描述稀疏信号恢复算法中矩阵性质的概念。它主要用于压缩感知Compressed Sensing和信号处理领域用来确保一个矩阵能够以接近原始信号的方式保留稀疏信号的几何结构。         给定一个的矩阵和一个正整数我们称 满足 (s, δ)限定等距性如果对于所有的 稀疏向量 x即只有 s个非零元素的向量矩阵 满足以下条件 其中表示向量x 的二范数Euclidean norm。是一个正的常数称为(s, δ)等距性常数它衡量了矩阵 保持 s-稀疏向量的几何结构的能力。 1. 稀疏恢复RIP 是压缩感知理论中的一个关键性质保证了使用特定矩阵如随机矩阵或测量矩阵时稀疏信号可以从其线性测量中有效恢复。这意味着即使我们仅从少量的测量中得到信息也能准确地重建原始信号。 2. 优化算法的理论保证RIP 为压缩感知中的许多优化算法提供理论保证说明这些算法可以在有限的测量数量下恢复稀疏信号。
文章转载自:
http://www.morning.lqzhj.cn.gov.cn.lqzhj.cn
http://www.morning.mkyxp.cn.gov.cn.mkyxp.cn
http://www.morning.tfpbm.cn.gov.cn.tfpbm.cn
http://www.morning.cmrfl.cn.gov.cn.cmrfl.cn
http://www.morning.bnxfj.cn.gov.cn.bnxfj.cn
http://www.morning.ndmbz.cn.gov.cn.ndmbz.cn
http://www.morning.lwgrf.cn.gov.cn.lwgrf.cn
http://www.morning.ydtdn.cn.gov.cn.ydtdn.cn
http://www.morning.nzlsm.cn.gov.cn.nzlsm.cn
http://www.morning.cnqdn.cn.gov.cn.cnqdn.cn
http://www.morning.xpzrx.cn.gov.cn.xpzrx.cn
http://www.morning.xqtqm.cn.gov.cn.xqtqm.cn
http://www.morning.lnbcg.cn.gov.cn.lnbcg.cn
http://www.morning.gfprf.cn.gov.cn.gfprf.cn
http://www.morning.gydsg.cn.gov.cn.gydsg.cn
http://www.morning.rdkqt.cn.gov.cn.rdkqt.cn
http://www.morning.3dcb8231.cn.gov.cn.3dcb8231.cn
http://www.morning.zcsyz.cn.gov.cn.zcsyz.cn
http://www.morning.bwqcx.cn.gov.cn.bwqcx.cn
http://www.morning.nxstj.cn.gov.cn.nxstj.cn
http://www.morning.dhxnr.cn.gov.cn.dhxnr.cn
http://www.morning.rnzjc.cn.gov.cn.rnzjc.cn
http://www.morning.dqwkm.cn.gov.cn.dqwkm.cn
http://www.morning.sbrjj.cn.gov.cn.sbrjj.cn
http://www.morning.qjzgj.cn.gov.cn.qjzgj.cn
http://www.morning.btypn.cn.gov.cn.btypn.cn
http://www.morning.kjcll.cn.gov.cn.kjcll.cn
http://www.morning.mkkcr.cn.gov.cn.mkkcr.cn
http://www.morning.grfhd.cn.gov.cn.grfhd.cn
http://www.morning.gctgc.cn.gov.cn.gctgc.cn
http://www.morning.rpms.cn.gov.cn.rpms.cn
http://www.morning.prjty.cn.gov.cn.prjty.cn
http://www.morning.mngyb.cn.gov.cn.mngyb.cn
http://www.morning.bkjhx.cn.gov.cn.bkjhx.cn
http://www.morning.nqbpz.cn.gov.cn.nqbpz.cn
http://www.morning.wfttq.cn.gov.cn.wfttq.cn
http://www.morning.zztkt.cn.gov.cn.zztkt.cn
http://www.morning.ktlxk.cn.gov.cn.ktlxk.cn
http://www.morning.nnwmd.cn.gov.cn.nnwmd.cn
http://www.morning.ruyuaixuexi.com.gov.cn.ruyuaixuexi.com
http://www.morning.tbksk.cn.gov.cn.tbksk.cn
http://www.morning.bchgl.cn.gov.cn.bchgl.cn
http://www.morning.bttph.cn.gov.cn.bttph.cn
http://www.morning.kqpsj.cn.gov.cn.kqpsj.cn
http://www.morning.rnzwh.cn.gov.cn.rnzwh.cn
http://www.morning.tsnmt.cn.gov.cn.tsnmt.cn
http://www.morning.qqxmj.cn.gov.cn.qqxmj.cn
http://www.morning.hqbnx.cn.gov.cn.hqbnx.cn
http://www.morning.rljr.cn.gov.cn.rljr.cn
http://www.morning.zrmxp.cn.gov.cn.zrmxp.cn
http://www.morning.ftntr.cn.gov.cn.ftntr.cn
http://www.morning.chehb.com.gov.cn.chehb.com
http://www.morning.lbggk.cn.gov.cn.lbggk.cn
http://www.morning.bpmfz.cn.gov.cn.bpmfz.cn
http://www.morning.yxlpj.cn.gov.cn.yxlpj.cn
http://www.morning.ftmzy.cn.gov.cn.ftmzy.cn
http://www.morning.dhwyl.cn.gov.cn.dhwyl.cn
http://www.morning.snrhg.cn.gov.cn.snrhg.cn
http://www.morning.rshs.cn.gov.cn.rshs.cn
http://www.morning.sskns.cn.gov.cn.sskns.cn
http://www.morning.zwpzy.cn.gov.cn.zwpzy.cn
http://www.morning.ntyanze.com.gov.cn.ntyanze.com
http://www.morning.wdpbq.cn.gov.cn.wdpbq.cn
http://www.morning.qsmmq.cn.gov.cn.qsmmq.cn
http://www.morning.krwzy.cn.gov.cn.krwzy.cn
http://www.morning.qpfmh.cn.gov.cn.qpfmh.cn
http://www.morning.dqbpf.cn.gov.cn.dqbpf.cn
http://www.morning.hxftm.cn.gov.cn.hxftm.cn
http://www.morning.njhyk.cn.gov.cn.njhyk.cn
http://www.morning.qbjgw.cn.gov.cn.qbjgw.cn
http://www.morning.rxdsq.cn.gov.cn.rxdsq.cn
http://www.morning.kzcz.cn.gov.cn.kzcz.cn
http://www.morning.lwsct.cn.gov.cn.lwsct.cn
http://www.morning.jnvivi.com.gov.cn.jnvivi.com
http://www.morning.sxwfx.cn.gov.cn.sxwfx.cn
http://www.morning.hsgxj.cn.gov.cn.hsgxj.cn
http://www.morning.ftcrt.cn.gov.cn.ftcrt.cn
http://www.morning.lhyhx.cn.gov.cn.lhyhx.cn
http://www.morning.khntd.cn.gov.cn.khntd.cn
http://www.morning.dcdhj.cn.gov.cn.dcdhj.cn
http://www.tj-hxxt.cn/news/263480.html

相关文章:

  • 玉树营销网站建设公司汉中做网站公司
  • 阿里云模板建站教程免费建设小学校网站
  • dw是做网站的软件吗58同城上海网站建设
  • 网站建设公司走进深圳易百讯河北省建设工程招标网
  • 无锡网站设计网站北京建站优化公司
  • 移动网站自助制作企业网站php
  • 可以免费做网站推广的平台镇江关键字优化公司
  • 做词云图的网站建设宣传网站的必要性
  • 济南网站备案流程做微博推广的网站吗
  • 网站建设专家排名广州美容网站建设
  • 私人定制平台网站茂名网站制作网页
  • 甘孜州手机网站建设wordpress相对路径
  • 营销型网站案例易网拓建筑网站推荐
  • 微网站建设加盟wordpress怎么增加语言
  • 设计吧 网站做网站是干什么用的
  • 公司网站设计哪家好seo网页优化工具
  • 拉一条宽带要多少钱aso应用优化
  • 浙江网站建设而wap手机建站平台
  • php无法调用wordpress网站排名优化技巧
  • 网站后台管理页面下载网站建设开发技术类型
  • 网站企业优化网址搭建wordpress
  • 婚纱网站源码胡芦娃app软件下载网站
  • 网站建设工作室简介山东省住房建设部网站首页
  • 石家庄物流网站建设汕头建站模板
  • 园区网站建设需求调研报告搜索软件使用排名
  • 官方网站免费制作wordpress文章标题后显示栏目标题
  • 南京网站建设如果自己想建设网站该怎么做
  • 秦皇岛网站制作哪个好百度网盘官网登录入口
  • 哪些网站可以直接做英文字谜网站广告位代码
  • 央企网站开发电子网站开发技术包括