当前位置: 首页 > news >正文

信德 网站建设关键词排名点击软件推荐

信德 网站建设,关键词排名点击软件推荐,中国制造网怎么样,企业官方网站建设目的决策树是属于有监督机器学习的一种决策树算法实操: from sklearn.tree import DecisionTreeClassifier # 决策树算法 model DecisionTreeClassifier(criterionentropy,max_depthd) model.fit(X_train,y_train)1、决策树概述 决策树是属于有监督机器学习的一种#xff0c;起源… 决策树是属于有监督机器学习的一种决策树算法实操: from sklearn.tree import DecisionTreeClassifier # 决策树算法 model DecisionTreeClassifier(criterionentropy,max_depthd) model.fit(X_train,y_train)1、决策树概述 决策树是属于有监督机器学习的一种起源非常早符合直觉并且非常直观模仿人类做决策的过程早期人工智能模型中有很多应用现在更多的是使用基于决策树的一些集成学习的算法。这一章我们把决策树算法理解透彻了非常有利于后面去学习集成学习。 1.1、示例一 上表根据历史数据记录已有的用户是否可以偿还债务以及相关的信息。通过该数据构建的决策树如下 1.2、决策树算法特点 可以处理 非线性的问题 可解释性强没有方程系数 模型简单模型预测效率高 if else 2、DecisionTreeClassifier使用 2.1、算例介绍 账号是否真实跟属性日志密度、好友密度、是否使用真实头像有关系~ 2.2、构建决策树并可视化 数据创建 import numpy as np import pandas as pd y np.array(list(NYYYYYNYYN)) print(y) X pd.DataFrame({日志密度:list(sslmlmmlms),好友密度:list(slmmmlsmss),真实头像:list(NYYYYNYYYY),真实用户:y}) 数据调整 X[日志密度] X[日志密度].map({s:0,m:1,l:2}) X[好友密度] X[好友密度].map({s:0,m:1,l:2}) X[真实头像] X[真实头像].map({N:0,Y:1}) X[真实用户] X[真实用户].map({N:0,Y:1}) 模型训练可视化 import matplotlib.pyplot as plt from sklearn import tree # 使用信息熵作为分裂标准 model DecisionTreeClassifier(criterionentropy) model.fit(X,y) plt.rcParams[font.family] STKaiti plt.figure(figsize(12,16)) fn X.columns _ tree.plot_tree(model,filled True,feature_namesfn) plt.savefig(./iris.jpg) 2.3、信息熵 构建好一颗树数据变的有顺序了构建前一堆数据杂乱无章构建一颗整整齐齐顺序用什么度量衡表示数据是否有顺序信息熵 。 物理学热力学第二定律熵描述的是封闭系统的混乱程度 。 2.4、信息增益 信息增益是知道了某个条件后事件的不确定性下降的程度。写作 g(X,Y)。它的计算方式为熵减去条件熵如下: ​​ 表示的是知道了某个条件后原来事件不确定性降低的幅度。 2.5、手动计算实现决策树分类 s X[真实用户] p s.value_counts()/s.size (p * np.log2(1/p)).sum() # 0.8812908992306926 x X[日志密度].unique() x.sort() # 如何划分呢分成两部分 for i in range(len(x) - 1):split x[i:i2].mean()cond X[日志密度] split# 概率分布p cond.value_counts()/cond.size# 按照条件划分两边的概率分布情况indexs p.indexentropy 0for index in indexs:user X[cond index][真实用户]p_user user.value_counts()/user.sizeentropy (p_user * np.log2(1/p_user)).sum() * p[index]print(split,entropy) columns [日志密度,好友密度,真实头像] lower_entropy 1 condition {} for col in columns:x X[col].unique()x.sort()print(x)# 如何划分呢分成两部分for i in range(len(x) - 1):split x[i:i2].mean()cond X[col] split# 概率分布p cond.value_counts()/cond.size# 按照条件划分两边的概率分布情况indexs p.indexentropy 0for index in indexs:user X[cond index][真实用户]p_user user.value_counts()/user.sizeentropy (p_user * np.log2(1/p_user)).sum() * p[index]print(col,split,entropy)if entropy lower_entropy:condition.clear()lower_entropy entropycondition[col] split print(最佳列分条件是,condition) 3、决策树分裂指标 常用的分裂条件时 信息增益 Gini系数 信息增益率 MSE回归问题 3.1、信息熵ID3 在信息论里熵叫作信息量即熵是对不确定性的度量。从控制论的角度来看应叫不确定性。信息论的创始人香农在其著作《通信的数学理论》中提出了建立在概率统计模型上的信息度量。 对应公式: 3.2、Gini系数CART 基尼系数是指国际上通用的、用以衡量一个国家或地区居民收入差距的常用指标。 基尼系数最大为“1”最小等于“0”。基尼系数越接近 0 表明收入分配越是趋向平等。国际惯例把 0.2 以下视为收入绝对平均0.2-0.3 视为收入比较平均0.3-0.4 视为收入相对合理0.4-0.5 视为收入差距较大当基尼系数达到 0.5 以上时则表示收入悬殊。 3.3、MSE 用于回归树后面章节具体介绍 4、鸢尾花分类代码实战 4.1、决策树分类鸢尾花数据集 import numpy as np from sklearn.tree import DecisionTreeClassifier from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn import tree import matplotlib.pyplot as pltX,y datasets.load_iris(return_X_yTrue)# 随机拆分 X_train,X_test,y_train,y_test train_test_split(X,y,random_state 256)# max_depth调整树深度剪枝操作 # max_depth默认深度最大延伸到将数据完全划分开为止。 model DecisionTreeClassifier(max_depthNone,criterionentropy) model.fit(X_train,y_train) y_ model.predict(X_test) print(真实类别是,y_test) print(算法预测是,y_) print(准确率是,model.score(X_test,y_test)) # 决策树提供了predict_proba这个方法发现这个方法返回值要么是0要么是1 model.predict_proba(X_test) 4.2、决策树可视化 import graphviz from sklearn import tree from sklearn import datasets # 导出数据 iris datasets.load_iris(return_X_yFalse) dot_data tree.export_graphviz(model,feature_namesfn,class_namesiris[target_names],# 类别名filledTrue, # 填充颜色roundedTrue,) graph graphviz.Source(dot_data) graph.render(iris) 4.3、选择合适的超参数并可视化   import numpy as np from sklearn.tree import DecisionTreeClassifier from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn import tree import matplotlib.pyplot as pltX,y datasets.load_iris(return_X_yTrue)# 随机拆分 X_train,X_test,y_train,y_test train_test_split(X,y,random_state 256) depth np.arange(1,16) err [] for d in depth:model DecisionTreeClassifier(criterionentropy,max_depthd)model.fit(X_train,y_train)score model.score(X_test,y_test)err.append(1 - score)print(错误率为%0.3f%% % (100 * (1 - score))) plt.rcParams[font.family] STKaiti plt.plot(depth,err,ro-) plt.xlabel(决策树深度,fontsize 18) plt.ylabel(错误率,fontsize 18) plt.title(筛选合适决策树深度) plt.grid() plt.savefig(./14-筛选超参数.png,dpi 200)
http://www.tj-hxxt.cn/news/140097.html

相关文章:

  • wordpress建站云盘如何删除网站备案号
  • 湖南长沙网站建设公司电话网站设计建设维护
  • 东莞微网站制作公司做一个公司网站价格
  • 现在还有企业做网站的吗网站关键词排名怎么做
  • 免费快速网站贵州企业网站开发公司
  • wordpress前台显示友链适合seo的建站系统
  • 盘锦网站建设咨询wordpress自定页面
  • 建设网站的网站公司win7怎么建设网站
  • 怎么对网站做seo优化国外网站用什么dns
  • 网站导航页怎么做wordpress theme options
  • 网站设计师职位认识做网站的猫腻
  • 建设创意网站富阳营销型网站建设
  • 哪个网站学习做辅助中企动力科技股份有限公司贵阳分公司
  • dw网站制作怎么做滑动的图片国内小型电商平台有哪些
  • 垂直电子商务网站建设宜昌建设厅网站
  • 赤峰网站建设合肥工程建设云平台
  • 网站开发的风险与风险管理部门网站建设管理经验交流材料
  • .net程序员网站开发工程师公司的网站建设规划书
  • 怎么网站怎么建设框架宝安最好的网站建设
  • 滕州网站建设网站行吗张家港网站建设模板
  • 广安发展建设集团门户网站大家推荐永久免费的服务器
  • 章丘公司做网站网站页面设计制作费
  • 医院网站推广渠道公司电商网站开发
  • 中国工程建设焊接协会网站wordpress 产品相册插件
  • 可以做请柬的网站好玩的网页游戏排名
  • cms网站搭建好了再怎么做大连软件都有哪些公司
  • 网站建设用图片佛山网站建设格式有哪些
  • 北京企业网站制作哪家好郑州企业网站制作怎么做
  • 广东省建设八大员网站addthis wordpress
  • 网页联系我们怎么做seo 网站推广入门