自己建的网站搜不到,品质好的网站制作,aspnet网站开发模板,为代理网站做网站11.1子集收集与评价 属性称为特征 #xff0c;对当前学习任务有用的属性称为相关特征 、没什么用的属性称为无关特 征 . 从给定的特征集合中选择出相关特征于集的过程#xff0c;称为特征选择。 特征选择是一个重要的…11.1子集收集与评价 属性称为特征 对当前学习任务有用的属性称为相关特征 、没什么用的属性称为无关特 征 . 从给定的特征集合中选择出相关特征于集的过程称为特征选择。 特征选择是一个重要的数据预处理 过程。我们要从初始的特征集合中选取一个包含了所有重要信息的特征子集首先是子集搜索给走特征集合 {a1a2 ... ad} 我们可将每个特征看作一个候选子集对这d个候选单特征子集进行评价假定 {a2} 最优于是将 {a2}作为第一轮的选定集;然后在上一轮的选定集中加入一个特征构成包含两个特征的候选子集以此往复操作。其次是子集评价子集的信息增益为 信息熵定义为 信息增益 Gain(A) 越大意味着特征子集 包含的有助于分类的信息越多.于是对每个候选特征子集我们可基于训练数据集来计算其信息增益以此作为评价准则。 常见的特征选择方法大致可分为三类:过滤式 、包裹式 和嵌入式. 11.2过滤式选择 过滤式方法先对数据集进行特征选择然后再训练学习器。 Relief 是一种著名的过滤式特征选择方法该方法设计了一个相关统计量来度量特征的重要性。该统计量是一个向量其每个分量分别对应于一个初始特征而特征子集的重要性则是由子集中每个特征所对应的相关统计量分量之和来决定。 下面是关于Relief算法的过滤式特征选择方法的实验代码及分析和结果 import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
from sklearn.ensemble import RandomForestClassifier
from skfeature.function.statistical import reliefF# 加载数据集
data load_iris()
X data.data
y data.target# 将数据集分为训练集和测试集
X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.3, random_state42)# 计算特征的ReliefF评分
reliefF_scores reliefF.reliefF(X_train, y_train)# 将特征按ReliefF评分排序
ranked_features np.argsort(reliefF_scores)[::-1]# 选择前k个特征
k 2
selected_features ranked_features[:k]# 用选定的特征训练分类器
X_train_selected X_train[:, selected_features]
X_test_selected X_test[:, selected_features]classifier RandomForestClassifier(n_estimators100, random_state42)
classifier.fit(X_train_selected, y_train)# 在测试集上评估分类器
y_pred classifier.predict(X_test_selected)
accuracy accuracy_score(y_test, y_pred)print(Selected features:, selected_features)
print(Accuracy with selected features:, accuracy)分析 ReliefF评分该方法为每个特征计算一个重要性分数反映了该特征对分类结果的影响。高分特征更为重要。特征选择根据ReliefF评分选择排名前k的特征。这里选择了前2个特征。分类性能使用选定的特征训练随机森林分类器并在测试集上评估准确性。最终的分类准确性显示了所选特征的有效性。 结果 11.3包裹式选择 包裹式特征选择直接把最终将要使用的学习器的性能作为特征于集的评价准则.从最终学习器性能来看包裹式特征选择比过滤式特征选择更好但另一方面由于在特征选择过程中需多次训练学习器因此包裹式特征选择的计算开销通常比过滤式特征边择大得多. LVW 是一个典型的包裹式特征选择方法算法描述如下 下面是关于LVW算法的实验代码及分析和结果 import numpy as np
import pandas as pd
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import accuracy_score
from sklearn.preprocessing import StandardScaler# LVW 算法的伪实现
def lvw_algorithm(X_train, y_train, X_test, alpha0.5):LVW算法的伪实现假设权重为特征的均值feature_means np.mean(X_train, axis0)weights np.exp(alpha * feature_means) # 伪权重计算X_train_weighted X_train * weightsX_test_weighted X_test * weights# 用加权特征训练逻辑回归模型model LogisticRegression()model.fit(X_train_weighted, y_train)return model, X_test_weighted# 1. 数据加载
data load_iris()
X data.data
y data.target# 2. 数据预处理
scaler StandardScaler()
X_scaled scaler.fit_transform(X)# 3. 数据划分
X_train, X_test, y_train, y_test train_test_split(X_scaled, y, test_size0.3, random_state42)# 4. 应用 LVW 算法
model, X_test_weighted lvw_algorithm(X_train, y_train, X_test, alpha0.5)# 5. 预测与评估
y_pred model.predict(X_test_weighted)
accuracy accuracy_score(y_test, y_pred)print(fModel accuracy with LVW algorithm: {accuracy:.2f})分析 数据集我们使用了Iris数据集这是一个多分类数据集包含150个样本和4个特征。数据集已经标准化以便于比较。 LVW算法实现在这个伪实现中LVW算法假设特征的均值用于计算权重。具体来说我们将每个特征的均值取指数作为权重并对训练数据和测试数据进行加权。这是一种简单的加权方法实际的LVW算法可能会复杂得多。 模型训练与评估我们使用加权后的训练数据训练逻辑回归模型并在加权后的测试数据上进行预测。最后计算模型的准确性。 结果 11.4嵌入式选择与L1正则化 嵌入式特征选择是将特征选择过程与学习器训练过程融为一体。 给定数据集最简单的线性回归模型以平方误差为损失函数则优化目标为。 当样本特征很多而样本数相对较少时很容易陷入过拟合.为了缓解过拟合问题引入正则化项 L1范数和 L2 范数正则化都有助于降低过拟合风险但前者还会带来一个额外的好处:它比后者更易于获得稀疏 解即它求得的 会有更少的非零分量. L1正则化问题的求 可使用近端梯度下降法PGD 下面是关于近端梯度下降法PGD算法解决L1正则化问题的实验代码及分析和结果 import numpy as np
from sklearn.datasets import make_regression
from sklearn.linear_model import Lasso
from sklearn.metrics import mean_squared_errordef projected_gradient_descent(X, y, lambda_reg, alpha0.01, num_iters1000):m, n X.shapetheta np.zeros(n)for _ in range(num_iters):gradient -2 * X.T (y - X theta) / mtheta - alpha * gradient# Project onto L1 ball (soft thresholding)theta np.sign(theta) * np.maximum(0, np.abs(theta) - alpha * lambda_reg)return theta# 1. 数据生成
X, y make_regression(n_samples100, n_features20, noise0.1, random_state42)# 2. 设置参数
lambda_reg 0.1 # L1正则化强度
alpha 0.01 # 学习率
num_iters 1000 # 迭代次数# 3. 使用PGD算法求解
theta_pgd projected_gradient_descent(X, y, lambda_reg, alpha, num_iters)# 4. 用Lasso模型验证
lasso Lasso(alphalambda_reg)
lasso.fit(X, y)
theta_lasso lasso.coef_# 5. 计算误差
mse_pgd mean_squared_error(y, X theta_pgd)
mse_lasso mean_squared_error(y, X theta_lasso)print(fPGD Mean Squared Error: {mse_pgd:.2f})
print(fLasso Mean Squared Error: {mse_lasso:.2f})分析 数据生成我们使用make_regression函数生成了一个回归数据集。数据集包含100个样本和20个特征带有一定的噪声。 PGD算法实现在projected_gradient_descent函数中我们通过梯度下降法更新参数并在每次迭代后对参数进行L1范数的软阈值投影。这个过程确保参数的L1范数约束被满足即实施了L1正则化。 Lasso模型验证为了验证PGD算法的结果我们还使用了Scikit-learn的Lasso模型它本质上使用了相同的L1正则化技术。 误差计算我们计算了PGD算法和Lasso模型的均方误差MSE以比较它们在数据上的表现。 结果 11.5稀疏表示与字典学习 将样品稀疏表示可以使学习任务的难度可能有所降低?涉及的计算和存储开销会减少 学得模型的可解释性也会提高。字典学习 亦称稀疏编码。是为普通稠密表达的样本找到合适的字典将样本转化为合适的稀疏表示形式从而使学习任务得以简化。 给定数据集字典学习最简单的形式为 其中 为字典矩阵 k 称为字典的词汇量通常由用户指定 是样本 的稀疏表示. 11.6压缩感知 在现实任务中我们常希望根据部分信息来恢复全部信息。通常选择压缩的方法。压缩感知为精确地重构出原信号提供了方法。 在很多应用中均可获得具有稀疏性的 例如图像或声音的数字信 号通常在时域上不具有稀疏性但经过傅里叶变换、余弦变换、小波变换等处 理后却会转化为频域上的稀疏信号.与特征选择、稀疏表示不同压缩感知关注的是如何利用信号本身所具有的稀疏性从部分观测样本中恢复原信号。 限定等距性 RIP是一种用于描述稀疏信号恢复算法中矩阵性质的概念。它主要用于压缩感知Compressed Sensing和信号处理领域用来确保一个矩阵能够以接近原始信号的方式保留稀疏信号的几何结构。 给定一个的矩阵和一个正整数我们称 满足 (s, δ)限定等距性如果对于所有的 稀疏向量 x即只有 s个非零元素的向量矩阵 满足以下条件 其中表示向量x 的二范数Euclidean norm。是一个正的常数称为(s, δ)等距性常数它衡量了矩阵 保持 s-稀疏向量的几何结构的能力。 1. 稀疏恢复RIP 是压缩感知理论中的一个关键性质保证了使用特定矩阵如随机矩阵或测量矩阵时稀疏信号可以从其线性测量中有效恢复。这意味着即使我们仅从少量的测量中得到信息也能准确地重建原始信号。 2. 优化算法的理论保证RIP 为压缩感知中的许多优化算法提供理论保证说明这些算法可以在有限的测量数量下恢复稀疏信号。
文章转载自: http://www.morning.lqzhj.cn.gov.cn.lqzhj.cn http://www.morning.mkyxp.cn.gov.cn.mkyxp.cn http://www.morning.tfpbm.cn.gov.cn.tfpbm.cn http://www.morning.cmrfl.cn.gov.cn.cmrfl.cn http://www.morning.bnxfj.cn.gov.cn.bnxfj.cn http://www.morning.ndmbz.cn.gov.cn.ndmbz.cn http://www.morning.lwgrf.cn.gov.cn.lwgrf.cn http://www.morning.ydtdn.cn.gov.cn.ydtdn.cn http://www.morning.nzlsm.cn.gov.cn.nzlsm.cn http://www.morning.cnqdn.cn.gov.cn.cnqdn.cn http://www.morning.xpzrx.cn.gov.cn.xpzrx.cn http://www.morning.xqtqm.cn.gov.cn.xqtqm.cn http://www.morning.lnbcg.cn.gov.cn.lnbcg.cn http://www.morning.gfprf.cn.gov.cn.gfprf.cn http://www.morning.gydsg.cn.gov.cn.gydsg.cn http://www.morning.rdkqt.cn.gov.cn.rdkqt.cn http://www.morning.3dcb8231.cn.gov.cn.3dcb8231.cn http://www.morning.zcsyz.cn.gov.cn.zcsyz.cn http://www.morning.bwqcx.cn.gov.cn.bwqcx.cn http://www.morning.nxstj.cn.gov.cn.nxstj.cn http://www.morning.dhxnr.cn.gov.cn.dhxnr.cn http://www.morning.rnzjc.cn.gov.cn.rnzjc.cn http://www.morning.dqwkm.cn.gov.cn.dqwkm.cn http://www.morning.sbrjj.cn.gov.cn.sbrjj.cn http://www.morning.qjzgj.cn.gov.cn.qjzgj.cn http://www.morning.btypn.cn.gov.cn.btypn.cn http://www.morning.kjcll.cn.gov.cn.kjcll.cn http://www.morning.mkkcr.cn.gov.cn.mkkcr.cn http://www.morning.grfhd.cn.gov.cn.grfhd.cn http://www.morning.gctgc.cn.gov.cn.gctgc.cn http://www.morning.rpms.cn.gov.cn.rpms.cn http://www.morning.prjty.cn.gov.cn.prjty.cn http://www.morning.mngyb.cn.gov.cn.mngyb.cn http://www.morning.bkjhx.cn.gov.cn.bkjhx.cn http://www.morning.nqbpz.cn.gov.cn.nqbpz.cn http://www.morning.wfttq.cn.gov.cn.wfttq.cn http://www.morning.zztkt.cn.gov.cn.zztkt.cn http://www.morning.ktlxk.cn.gov.cn.ktlxk.cn http://www.morning.nnwmd.cn.gov.cn.nnwmd.cn http://www.morning.ruyuaixuexi.com.gov.cn.ruyuaixuexi.com http://www.morning.tbksk.cn.gov.cn.tbksk.cn http://www.morning.bchgl.cn.gov.cn.bchgl.cn http://www.morning.bttph.cn.gov.cn.bttph.cn http://www.morning.kqpsj.cn.gov.cn.kqpsj.cn http://www.morning.rnzwh.cn.gov.cn.rnzwh.cn http://www.morning.tsnmt.cn.gov.cn.tsnmt.cn http://www.morning.qqxmj.cn.gov.cn.qqxmj.cn http://www.morning.hqbnx.cn.gov.cn.hqbnx.cn http://www.morning.rljr.cn.gov.cn.rljr.cn http://www.morning.zrmxp.cn.gov.cn.zrmxp.cn http://www.morning.ftntr.cn.gov.cn.ftntr.cn http://www.morning.chehb.com.gov.cn.chehb.com http://www.morning.lbggk.cn.gov.cn.lbggk.cn http://www.morning.bpmfz.cn.gov.cn.bpmfz.cn http://www.morning.yxlpj.cn.gov.cn.yxlpj.cn http://www.morning.ftmzy.cn.gov.cn.ftmzy.cn http://www.morning.dhwyl.cn.gov.cn.dhwyl.cn http://www.morning.snrhg.cn.gov.cn.snrhg.cn http://www.morning.rshs.cn.gov.cn.rshs.cn http://www.morning.sskns.cn.gov.cn.sskns.cn http://www.morning.zwpzy.cn.gov.cn.zwpzy.cn http://www.morning.ntyanze.com.gov.cn.ntyanze.com http://www.morning.wdpbq.cn.gov.cn.wdpbq.cn http://www.morning.qsmmq.cn.gov.cn.qsmmq.cn http://www.morning.krwzy.cn.gov.cn.krwzy.cn http://www.morning.qpfmh.cn.gov.cn.qpfmh.cn http://www.morning.dqbpf.cn.gov.cn.dqbpf.cn http://www.morning.hxftm.cn.gov.cn.hxftm.cn http://www.morning.njhyk.cn.gov.cn.njhyk.cn http://www.morning.qbjgw.cn.gov.cn.qbjgw.cn http://www.morning.rxdsq.cn.gov.cn.rxdsq.cn http://www.morning.kzcz.cn.gov.cn.kzcz.cn http://www.morning.lwsct.cn.gov.cn.lwsct.cn http://www.morning.jnvivi.com.gov.cn.jnvivi.com http://www.morning.sxwfx.cn.gov.cn.sxwfx.cn http://www.morning.hsgxj.cn.gov.cn.hsgxj.cn http://www.morning.ftcrt.cn.gov.cn.ftcrt.cn http://www.morning.lhyhx.cn.gov.cn.lhyhx.cn http://www.morning.khntd.cn.gov.cn.khntd.cn http://www.morning.dcdhj.cn.gov.cn.dcdhj.cn