当前位置: 首页 > news >正文

动漫公司网站建设丰镇市网站丰镇高铁在哪个位置建设

动漫公司网站建设,丰镇市网站丰镇高铁在哪个位置建设,宁波外贸公司排名前五十,金华做网站报价前言#xff1a; Hello大家好#xff0c;我是Dream。 今天来学习一下机器学习实战中的案例#xff1a;创建客户细分#xff0c;在此过程中也会补充很多重要的知识点#xff0c;欢迎大家一起前来探讨学习~ 一、导入数据 在此项目中#xff0c;我们使用 UCI 机器学习代码库… 前言 Hello大家好我是Dream。 今天来学习一下机器学习实战中的案例创建客户细分在此过程中也会补充很多重要的知识点欢迎大家一起前来探讨学习~ 一、导入数据 在此项目中我们使用 UCI 机器学习代码库中的数据集。该数据集包含关于来自多种产品类别的各种客户年度消费额货币单位计价的数据。该项目的目标之一是准确地描述与批发商进行交易的不同类型的客户之间的差别。这样可以使分销商清晰地了解如何安排送货服务以便满足每位客户的需求。对于此项目我们将忽略特征 Channel 和 Region重点分析记录的六个客户产品类别。 # Import libraries necessary for this project import numpy as np import pandas as pd from IPython.display import display # Allows the use of display() for DataFrames import visuals as vs %matplotlib inline try:data pd.read_csv(customers.csv)data.drop([Region, Channel], axis 1, inplace True)print(Wholesale customers dataset has {} samples with {} features each..format(*data.shape)) except:print(Dataset could not be loaded. Is the dataset missing?)Wholesale customers dataset has 440 samples with 6 features each. 二、分析数据 我们通过可视化图表和代码开始探索数据并了解每个特征相互之间的关系。观察数据集的统计学描述内容。注意数据集由 6 个重要的产品类别构成“Fresh”、“Milk”、“Grocery”、“Frozen”、“Detergents_Paper”和“Delicatessen”。思考每个类别代表你可以购买的哪些产品。 # Display a description of the dataset display(data.describe())选择样本 为了更好地通过分析了解客户以及他们的数据会如何变化最好的方式是选择几个样本数据点并更详细地分析这些数据点。向 indices 列表中添加三个你所选的索引表示将跟踪的客户。 # TODO: Select three indices of your choice you wish to sample from the dataset indices [60,100,380] samples pd.DataFrame(data.loc[indices], columns data.keys()).reset_index(drop True) print(Chosen samples of wholesale customers dataset:) display(samples)Chosen samples of wholesale customers dataset: benchmark data.mean() ((samples-benchmark) / benchmark).plot.bar()matplotlib.axes._subplots.AxesSubplot at 0x234812d7320 # TODO: Apply PCA by fitting the good data with the same number of dimensions as features from sklearn.decomposition import PCA log_data np.log(samples) log_samples np.log(log_data) pca PCA(n_components6) pca.fit(log_data)pca_samples pca.transform(log_samples)pca_results vs.pca_results(log_data, pca)你所选的每个样本可以代表什么样的客户场所 提示 场所示例包括市场、咖啡厅、熟食店、零售店等地点。避免使用具体的名称例如在将样本客户描述为餐厅时使用“麦当劳”。可以使用参考均值与你的样本进行比较。均值如下所示 Fresh12000.2977Milk5796.2Grocery:7951.28Frozen3071.9Detergents_paper2881.4Delicatessen1524.8 样本0Detergents_Paper在75%Fresh、Milk接近中位数、Grocery接近均值、 Delicatessen和Frozen比较少推断是零售店; 样本1Detergents_Paper、Fresh、Milk、Grocery、 Delicatessen和Frozen所有特征都在均值以上但是没有哪样特别多推断是大型超市; 样本2Fresh超过75%、Frozen为均值附近、其他特征较少推测是新鲜肉菜市场; 特征相关性 一个值得考虑的有趣问题是在六个产品类别中是否有一个或多个类别实际上在了解客户购买情况时相互有关联性。也就是说是否能够判断购买一定量的某个类别产品的客户也一定会购买数量成比例的其他类别的产品我们可以通过以下方式轻松地做出这一判断删除某个特征并用一部分数据训练监督式回归学习器然后对模型评估所删除特征的效果进行评分。 通过使用 DataFrame.drop 函数删除你所选的特征为 new_data 分配一个数据副本。使用 sklearn.cross_validation.train_test_split 将数据集拆分为训练集和测试集。 使用删除的特征作为目标标签。将 test_size 设为 0.25 并设置 random_state。 导入决策树回归器设置 random_state并将学习器拟合到训练数据中。使用回归器 score 函数报告测试集的预测分数。 # TODO: Make a copy of the DataFrame, using the drop function to drop the given feature from sklearn.metrics import accuracy_score from sklearn import tree y data[Detergents_Paper] new_data data.copy()new_data.drop([Detergents_Paper], axis 1, inplace True)from sklearn.model_selection import train_test_split X_train, X_test, y_train, y_test train_test_split(new_data, y,test_size.25,random_state50)regressor tree.DecisionTreeRegressor(random_state10) regressor.fit(X_train,y_train) score regressor.score(X_test,y_test) print(预测分数:,score)预测分数: 0.8017669397135979 1你尝试预测的是哪个特征 回答 Detergents_Paper 2报告的预测分数是多少 回答 0.801766939714 3该特征对确定客户的消费习惯有影响吗 回答 Detergents_Paper0.801拟合性表现很好说明这个特征与其他特征相关性不重要对消费习惯有一定影响但可以用其他特征体现。 确定系数 R^2 的范围是 0 到 11 表示完美拟合。负的 R^2 表示模型无法拟合数据。如果特定特征的分数很低则表明使用其他特征很难预测该特征点因此在考虑相关性时这个特征很重要。 可视化特征分布图 为了更好地理解数据集我们可以为数据中的六个产品特征分别构建一个散布矩阵。如果你发现你在上面尝试预测的特征与识别特定客户有关那么下面的散布矩阵可能会显示该特征与其他特征之间没有任何关系。相反如果你认为该特征与识别特定客户不相关散布矩阵可能会显示该特征与数据中的另一个特征有关系。运行以下代码块以生成散布矩阵。 # Produce a scatter matrix for each pair of features in the data pd.plotting.scatter_matrix(data, alpha 0.3, figsize (14,8), diagonal kde);data.corr()data.cov()将散布矩阵作为参考讨论数据集的分布情况尤其是正态性、离群值、大量接近 0 的数据点等。如果你需要区分某些图表以便进一步阐述你的观点也可以这么做。 Grocery和Detergents_Paper相关性强Grocery和Milk也有一定的相关性。具体可以通过data.corr()显示的数据越接近1的相关性越强 数据的分布不是正态性大部分数据集中在8000以内离群的数据只有一小部分 三、数据预处理 在此部分预处理数据对数据进行缩放并检测离群值或许还会删除离群值以便更好地表示客户数据。预处理数据通常是很关键的步骤可以确保通过分析获得的结果有显著统计意义。 特征缩放 如果数据不是正态分布数据尤其是如果均值和中值差别很大表明非常偏斜通常[比较合适的方法]是应用非线性缩放——尤其是对金融数据来说。实现这种缩放的一种方式是采用[博克斯-卡克斯检定]该检定会计算能缩小偏斜情况的最佳次方转换方式。适合大多数情况的更简单方式是采用自然对数。 通过应用对数缩放将数据副本赋值给 log_data。你可以使用 np.log 函数完成这一步。在应用对数缩放后将样本数据副本赋值给 log_samples。同样使用 np.log。 # TODO: Scale the data using the natural logarithm log_data np.log(data)log_samples np.log(samples)pd.plotting.scatter_matrix(log_data, alpha 0.3, figsize (14,8), diagonal kde);观察 在对数据应用自然对数缩放后每个特征的分布应该看起来很正态了。对于之前可能发现相互有关联的任何特征对在此部分观察这种联系是否依然存在 # Display the log-transformed sample data display(log_samples)检测离群值 对于任何分享的数据预处理步骤来说检测数据中的离群值都极为重要。如果结果考虑了离群值那么这些离群值通常都会使结果出现偏斜。在判断什么样的数据属于离群值时可以采用很多“一般规则”。在此项目中我们将使用 Tukey 方法检测离群值离群值步长等于 1.5 倍四分位距 (IQR)。如果某个数据点的特征超出了该特征的离群值步长范围则该特征属于异常特征。 将给定特征的第 25 百分位值赋值给 Q1。 为此请使用 np.percentile。将给定特征的第 75 百分位值赋值给 Q3。同样使用 np.percentile。将给定特征的离群值步长计算结果赋值给 step。可选步骤通过向 outliers 列表添加索引从数据集中删除某些数据点。 注意 如果你选择删除任何离群值确保样本数据不包含任何此类数据点 实现这一步骤后数据集将存储在变量 good_data 中。 # For each feature find the data points with extreme high or low values for feature in log_data.keys():f_s log_data[feature]Q1 np.percentile(f_s,25)Q3 np.percentile(f_s,75)step 1.5 * (Q3 - Q1)print(Data points considered outliers for the feature {}:.format(feature))display(log_data[~((log_data[feature] Q1 - step) (log_data[feature] Q3 step))])outliers [65,66,75,128,154] good_data log_data.drop(log_data.index[outliers]).reset_index(drop True)Data points considered outliers for the feature ‘Fresh’: Data points considered outliers for the feature ‘Milk’: Data points considered outliers for the feature ‘Grocery’: Data points considered outliers for the feature ‘Frozen’: Data points considered outliers for the feature ‘Detergents_Paper’: Data points considered outliers for the feature ‘Delicatessen’: ## 计算大于等于两次的异常数据 def caltwiceoutliers(row):out 0for feature in log_data.keys():p row[feature]f log_data[feature]Q1 np.percentile(f,25)Q3 np.percentile(f,75)step 1.5*(Q3-Q1)if (p Q1 - step) or (p Q3 step): out 1return out 1 lst [] for i,row in log_data.iterrows():if caltwiceoutliers(row): lst.append(i) display(log_data.loc[lst])[65,66,75,128,154]这几个样本在不同的特征上都超出离群值步长范围表现为异常特征。删除前后对于PCA最大方差的数值并见影响所以可以不删除。 四、特征转换 在此部分利用主成分分析 (PCA) 得出批发客户数据的基本结构。因为对数据集使用 PCA 会计算哪些维度最适合最大化方差我们将发现哪些特征组合最能描述客户。 实现PCA 现在数据已经缩放为更正态的分布并且删除了任何需要删除的离群值现在可以向 good_data 应用 PCA以发现哪些数据维度最适合最大化所涉及的特征的方差。除了发现这些维度之外PCA 还将报告每个维度的可解释方差比——数据中有多少方差可以仅通过该维度进行解释。注意 PCA 的成分维度可以视为空间的新“特征”但是它是数据中存在的原始特征的成分 导入 sklearn.decomposition.PCA 并将对 good_data 进行六维度 PCA 转化的结果赋值给 pca。使用 pca.transform 对 log_samples 应用 PCA 转化并将结果赋值给 pca_samples。 # TODO: Apply PCA by fitting the good data with the same number of dimensions as features from sklearn.decomposition import PCA good_data log_data pca PCA(n_components6) pca.fit(good_data)pca_samples pca.transform(log_samples)pca_results vs.pca_results(good_data, pca)内容补充 由第一个主成分和第二个主成分解释的数据方差* 总量 *是多少 第一个主成分和第二个主成分解释的数据方差总量是0.719 前四个主成分解释的数据方差是多少 前四个主成分解释的数据方差是0.9314 使用上面提供的可视化图表描述每个维度和每个维度解释的累积方程侧重于每个维度最能表示哪些特征包括能解释的正方差和负方差。讨论前四个维度最能表示什么样的客户消费规律。 维度一特征权重高的清洁剂牛奶杂货代表客户为零售商店。 维度二特征权重高的新鲜食品冷冻食品和熟食 代表客户为餐厅。 维度三特征权重高的新鲜食品、熟食 代表客户为快餐店 维度四特征权重高的冷冻食品熟食为主 代表客户为西餐厅 特定维度的正增长对应的是正加权特征的增长以及负加权特征的降低。增长或降低比例由具体的特征权重决定。 观察 运行以下代码看看经过对数转换的样本数据在六维空间里应用 PCA 转换后有何变化 # Display sample log-data after having a PCA transformation applied display(pd.DataFrame(np.round(pca_samples, 4), columns pca_results.index.values))降维 在使用主成分分析时主要目标之一是降低数据维度以便降低问题的复杂度。降维有一定的代价使用的维度越少则解释的总方差就越少。因此为了了解有多少个维度对问题来说是必要维度累积可解释方差比显得极为重要。此外如果大量方差仅通过两个或三个维度进行了解释则缩减的数据可以之后可视化 将对 good_data 进行二维拟合 PCA 转换的结果赋值给 pca。使用 pca.transform 对 good_data 进行 PCA 转换并将结果赋值给 reduced_data。使用 pca.transform 应用 log_samples PCA 转换并将结果赋值给 pca_samples。 # TODO: Apply PCA by fitting the good data with only two dimensions pca PCA(n_components2) pca.fit(good_data) # TODO: Transform the good data using the PCA fit above reduced_data pca.transform(good_data) # TODO: Transform log_samples using the PCA fit above pca_samples pca.transform(log_samples)reduced_data pd.DataFrame(reduced_data, columns [Dimension 1, Dimension 2])观察前两个维度的值与六维空间里的 PCA 转换相比如何没有变化 # Display sample log-data after applying PCA transformation in two dimensions display(pd.DataFrame(np.round(pca_samples, 4), columns [Dimension 1, Dimension 2]))五、可视化双标图 双标图是一种散点图每个数据点由主成分上的分数表示。坐标轴是主成分在此图中是 Dimension 1 和 Dimension 2。此外双标图显示了原始特征沿着成分的投影情况。双标图可以帮助我们解释降维数据并发现主成分与原始特征之间的关系。 以生成降维数据双标图 # Create a biplot vs.biplot(good_data, reduced_data, pca)matplotlib.axes._subplots.AxesSubplot at 0x23480c59898 获得原始特征投影红色部分后更容易解释每个点在散点图中的相对位置。例如图中右下角的点更有可能对应于在 Milk、Grocery 和 Detergents_Paper 上花费很多、但是在其他产品类别上花费不多的客户。 六、聚类 在此部分使用 K 均值聚类算法或高斯混合模型聚类算法发现数据中隐藏的各种客户细分。通过将数据点重新转换成原始维度和范围从聚类中还原具体的数据点以了解它们的显著性。 k-means 算法优的势 是解决聚类问题的一种经典算法简单、快速 对处理大数据集该算法保持可伸缩性和高效性 聚类是密集的且类与类之间区别明显时效果较好。 高斯混合模型聚类算法的优势 类区别划分不是那么明显时 计算快是学习混合模型最快的算法 低偏差不容易欠拟合 由于Kmeans的优势是密集型类与类之间区别明显时效果较好本数据离散值比较多而且有很多相同属性所以采用高斯混合模型聚类算法。 创建聚类 根据具体的问题预计从数据中发现的距离数量可能是已知的数量。如果无法根据先验判断聚类的数量则无法保证给定的聚类数量能够以最佳方式细分数据因为不清楚数据存在什么样的结构。但是我们可以根据每个数据点的轮廓系数量化聚类的“优势” 。数据点的[轮廓系数]会衡量数据点与所分配的聚类之间的相似度程度用 -1不相似到 1相似 表示。计算均值轮廓系数是对给定聚类进评分的简单方法 对 reduced_data 应用聚类算法并将结果赋值给 clusterer。使用 clusterer.predict 预测 reduced_data 中每个数据点的聚类并将它们赋值给 preds。使用算法的相应属性得出聚类中心并将它们赋值给 centers。预测 pca_samples 中每个样本数据点的聚类并将它们赋值给 sample_preds。导入 sklearn.metrics.silhouette_score 并对照 preds计算 reduced_data 的轮廓分数。 将轮廓分数赋值给 score 并输出结果。 # TODO: Apply your clustering algorithm of choice to the reduced data from sklearn.mixture import GaussianMixture from sklearn.metrics import silhouette_score best_score 0 for i in [2, 3, 4, 5, 6, 7, 8]:clusterer GaussianMixture(n_componentsi, random_state0)clusterer.fit(reduced_data)preds clusterer.predict(reduced_data)centers clusterer.means_sample_preds clusterer.predict(pca_samples)#边界系数[-1, 1] 越大越清晰score silhouette_score(reduced_data, preds)print(For clusters , i,The score is :, score)if (score best_score):best_clusterer clustererbest_score scorebest_cluster iprint(For clusters ,best_clusterer.n_components,The score is best!)For clusters 2 The score is : 0.4099683245278784 For clusters 3 The score is : 0.40194571937717044 For clusters 4 The score is : 0.31214203486720543 For clusters 5 The score is : 0.276392991643947 For clusters 6 The score is : 0.30088433392758923 For clusters 7 The score is : 0.22666071211515948 For clusters 8 The score is : 0.26631198668498973 For clusters 2 The score is best! 聚类可视化 使用上述评分指标为你的聚类算法选择最佳聚类数量后可视化结果 # Display the results of the clustering from implementation vs.cluster_results(reduced_data, preds, centers, pca_samples)数据恢复 上述可视化图表中出现的每个聚类都有一个中心点。这些中心或均值并不是来自数据中的特定数据点而是相应聚类预测的所有数据点的平均值。对于创建客户细分这个问题来说聚类的中心点对应的是该细分的平均客户数量。因为数据目前是降维状态并且进行了对数缩放我们可以通过应用逆转换从这些数据点中还原代表性客户支出 使用 pca.inverse_transform 对 centers 应用逆转换并将新的中心点赋值给 log_centers。使用 np.exp 对 log_centers 应用 np.log 的逆函数并将真正的中心点赋值给 true_centers。 # TODO: Inverse transform the centers log_centers pca.inverse_transform(centers)true_centers np.exp(log_centers)segments [Segment {}.format(i) for i in range(0,len(centers))] true_centers pd.DataFrame(np.round(true_centers), columns data.keys()) true_centers.index segments display(true_centers)思考上述代表性数据点的每个产品类别的总购买成本并参考该项目开头的数据集统计学描述具体而言查看各个特征点的均值。每个客户细分可以表示什么样的场所集合 segment0 Fres、Milk、Grocery、Frozen、Detergents_Paper和Delicatessen所有特征的均少于均值应该是小型零售店 segment1 Milk、Detergents_Paper、Grocery 超过均值、其他均低于平均值数应该代表牛奶咖啡厅 看看每个样本点预测属于哪个聚类 # Display the predictions for i, pred in enumerate(sample_preds):print(Sample point, i, predicted to be in Cluster, pred)Sample point 0 predicted to be in Cluster 1 Sample point 1 predicted to be in Cluster 1 Sample point 2 predicted to be in Cluster 0 display(pd.concat([true_centers,samples]))样本0和样本1 在Detergents_papaer,GroceryMilk更接近聚类1的中心点,其他可能更聚类1样本2在FreshDetergents_PaperFrozenGroceryMilk均接近聚类0的中心点更可能属于类别0。每个样本点的预测与此细分保持一致 七、总结 在最后一部分研究可以对聚类数据采用的方式。思考特定的送货方案对不同的客户群即客户细分有何不同影响。以及思考为每个客户设定标签该客户属于哪个细分可以如何提供关于客户数据的额外特征。最后比较客户细分和数据中的隐藏变量看看聚类分析是否发现了特定的关系。 可视化底层分布图 在该项目开始时我们提到我们会从数据集中排除 Channel 和 Region 特征以便在分析过程中侧重于客户产品类别。通过向数据集中重新引入 Channel 特征在考虑之前对原始数据集应用的相同 PCA 降维算法时发现了有趣的结构。 看看每个数据点在降维空间里为何标记成 HoReCa酒店/餐厅/咖啡厅或 Retail。此外将发现样本数据点在图中被圈起来了这样可以标识它们的标签。 # Display the clustering results based on Channel data vs.channel_results(reduced_data, outliers, pca_samples)补充总结 我选择的聚类算法和聚类数量与酒店/餐厅/咖啡厅客户和零售客户分布图相比效果还不错但也还存在一些异常数据。根据Dimension看到划分’零售客户’或者是’酒店/餐厅/咖啡厅客户’分布还不错。这些分类和之前的客户细分定义大体一致。但选择的样本数据点属于异常数据咖啡厅购买的商品类别和其他餐馆不一致而零售商由于没有特别类别的需求和购买量基本上各种商品都比较少且杂因此会处于边界周边。 文末免费送书福利 《机器学习平台架构实战》免费包邮送出3本 内容介绍 《机器学习平台架构实战》详细阐述了与机器学习平台架构相关的基本解决方案主要包括机器学习和机器学习解决方案架构机器学习的业务用例机器学习算法机器学习的数据管理开源机器学习库Kubernetes容器编排基础设施管理开源机器学习平台使用AWS机器学习服务构建数据科学环境使用AWS机器学习服务构建企业机器学习架构高级机器学习工程机器学习治理、偏差、可解释性和隐私使用人工智能服务和机器学习平台构建机器学习解决方案等内容。此外本书还提供了相应的示例、代码以帮助读者进一步理解相关方案的实现过程。 抽奖方式 评论区随机抽取3位小伙伴免费送出 参与方式 关注博主、点赞、收藏、评论区评论“人生苦短我用Python”切记要点赞收藏否则抽奖无效每个人最多评论三次 活动截止时间 2023-12-17 20:00:00 当当 https://product.dangdang.com/29625469.html 京东 https://item.jd.com/13855627.html 名单公布方式 下期活动开始将在评论区和私信一并公布中奖者请三天内提供信息
http://www.tj-hxxt.cn/news/234404.html

相关文章:

  • 上海网站建设开发哪家好用vs2012做网站首页
  • 平面设计资源网站网站制作横幅图片素材
  • 横沥镇做网站网站开发报价 知乎
  • 网站建设客户确认单室内设计网课平台哪个好
  • 网站建设合同中英文模板wordpress 固定链接为中文好吗
  • 网站备案时间有效期如何做一个免费的网站
  • 坑梓做网站公司怎么样网站关键词用什么做
  • 搞个网站需要多少钱wordpress用户页
  • 合肥做网站mdyun溧阳 招网站开发
  • 赣州网站推广公司电话网站优化原理
  • 网站开发的账务处理信誉好的东莞网站推广
  • 网站专做盗版小说 会犯法吗域名做网站出售合法吗
  • 有没有什么专门做兼职的网站吗app开发者需要更新
  • 做交互式的网站怎么做河南省新闻联播视频
  • 莆田联客易外贸网站建设推广深互动平台网站
  • 顺德网站制作案例机构2345网址导航怎么彻底删掉
  • 石家庄高铁站wap微信网站模板
  • 虚拟空间的网站赚钱吗学什么技术挣两三万
  • 当当网网站建设策划书gallery wordpress
  • 东莞php网站开发做网站前端代码
  • 制作网站的方法天长做网站公司
  • 佛山网站的建设检测网站速度
  • wordpress 4.9 多站网站后台如何上传ico图标
  • 最新的网站搭建工具做网站需要交税
  • 自己买域名建设网站wap网站开发框架
  • 怎么查看网站是否被百度惩罚降权或者被k梵克雅宝项链官网价格图片
  • 会议响应式网站开发区块链技术开发
  • 做卖蜂蜜的网站计划书杭州公司注册地址
  • 手机网站开发库互联网保险的优势
  • 服装设计有哪些网站ui下载高清素材的网站有哪些