当前位置: 首页 > news >正文

专做和田玉的网站网商网站怎么做

专做和田玉的网站,网商网站怎么做,建电子商务网站多少钱,第一次网页设计实训总结#AI夏令营 #Datawhale #夏令营 本项目为Datawhale 2024 年 AI 夏令营赛事#xff0c;零基础入门 AI 数据挖掘竞赛-速通学习手册配套的代码项目。 项目链接#xff1a;https://aistudio.baidu.com/bd-cpu-02/user/2961857/8113198/home#codelab 任务目标 根据给的test…#AI夏令营 #Datawhale #夏令营 本项目为Datawhale 2024 年 AI 夏令营赛事零基础入门 AI 数据挖掘竞赛-速通学习手册配套的代码项目。 项目链接https://aistudio.baidu.com/bd-cpu-02/user/2961857/8113198/home#codelab 任务目标 根据给的testtrain数据集训练模型从而 预测PROTACs的降解能力 在demo中用label表示0表示差1表示好 DC50100nMDmax80% -》Label0 DC50100nM||Dmax80%-》Label1。 解题思路 1.选用机器学习方法能达到和深度学习相同的结果且更方便简捷 2.这里从逻辑回归和决策树中选择哪一个模型更加合适 逻辑回归的适用条件 目标变量类型 逻辑回归主要用于处理二分类问题即目标变量是二元的如是/非、成功/失败等。 输入变量类型 逻辑回归可以处理连续变量、类别变量以及二进制变量。 数据分布假设 逻辑回归通常假设数据服从伯努利分布即目标变量服从二项分布。 线性关系 逻辑回归假设自变量与对数几率的关系是线性的。 解释性 逻辑回归模型相对简单模型的输出可以解释为概率因此在需要理解影响因素和解释模型结果时比较有优势。 决策树的适用条件 目标变量类型 决策树既可以处理分类问题也可以处理回归问题。 输入变量类型 决策树可以处理数值型数据 分类型数据 序数型数据和类别变量不需要对数据做过多的预处理工作。 1.数值型数据例如连续的浮点数或整数。 2.分类型数据例如名义变量通常是有限个数的离散取值比如颜色、性别等。 3.序数型数据具有顺序关系的分类型数据比如教育程度小学、中学、大学。 非线性关系 决策树能够处理非线性关系不需要对数据做线性假设。 解释性 决策树的决策路径比较直观易于理解和解释能够呈现特征的重要性。 处理缺失值 决策树能够自动处理缺失值不需要额外的数据预处理步骤。 总结比较 逻辑回归适合于简单的二分类问题当数据满足线性关系假设时表现较好适合作为基线模型进行比较和解释。决策树则更适合处理复杂的非线性关系能够处理多分类问题和回归问题同时具备一定的解释性和容错性。选择决策树决策树能够处理非线性关系并且可以自动捕获特征之间的交互作用。它可以生成可解释的规则有助于理解模型如何做出决策。决策树能够处理不同类型的特征包括分类和数值型。 决策树基本代码 # 导入必要的库 import pandas as pd from sklearn.model_selection import train_test_split from sklearn.tree import DecisionTreeClassifier from sklearn.metrics import accuracy_score# 1. 准备数据 # 假设有一个名为 data.csv 的数据集包含特征和标签# 读取数据集 data pd.read_csv(data.csv)# 分离特征和标签 X data.drop(target_column_name, axis1) # 特征列 y data[target_column_name] # 标签列# 2. 划分数据集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42)# 3. 创建决策树模型 model DecisionTreeClassifier()# 4. 训练模型 model.fit(X_train, y_train)# 5. 预测 y_pred model.predict(X_test)# 6. 评估模型 accuracy accuracy_score(y_test, y_pred) print(fAccuracy: {accuracy})# 可选步骤可视化决策树 # 如果需要可解释性可以将训练好的模型可视化 # 可以使用 Graphviz 和 export_graphviz 方法 # 例如from sklearn.tree import export_graphviz# 注意上述代码中的 target_column_name 是你数据集中的目标列名需要根据实际情况替换为正确的列名。 LGB树模型 1.[LightGBM]是个快速的分布式的高性能的基于决策树算法的梯度提升框架。可用于排序分类回归以及很多其他的机器学习任务中。 2.LightGBM跟之前常用的XGBoot在不降低准确率的前提下速度提升了10倍左右占用内存下降了3倍左右。 LightGBM通过引入高效的直方图算法来优化决策树的训练过程。传统的梯度提升算法如GBoost是按层生长level-wise growth的而LightGBM则采用了按叶子生长leaf-wise growth的策略这样能够更快地生成深度较少但分裂质量较高的决策树。 -LightGBM在构建每棵决策树时还利用了特征的直方图信息有效地减少了内存使用并提高了训练速度。这种优化对于处理大规模数据和高维特征特别有用。 原理 机器学习—LightGBM的原理、优化以及优缺点-CSDN博客 示例代码 # 导入必要的库 import lightgbm as lgb import pandas as pd from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score# 1. 准备数据 # 假设有一个名为 data.csv 的数据集包含特征和标签# 读取数据集 data pd.read_csv(data.csv)# 分离特征和标签 X data.drop(target_column_name, axis1) # 特征列 y data[target_column_name] # 标签列# 2. 划分数据集 X_train, X_test, y_train, y_test train_test_split(X, y, test_size0.2, random_state42)# 3. 创建LightGBM模型 params {boosting_type: gbdt, # 使用gbdt提升器objective: binary, # 二分类任务metric: binary_logloss, # 使用logloss作为评估指标num_leaves: 31, # 每棵树的叶子节点数learning_rate: 0.05, # 学习率feature_fraction: 0.9, # 训练每棵树时使用的特征比例bagging_fraction: 0.8, # 每轮迭代时用来训练模型的数据比例bagging_freq: 5, # bagging的频率verbose: 0 # 不显示训练过程中的输出信息 }lgb_train lgb.Dataset(X_train, y_train) lgb_eval lgb.Dataset(X_test, y_test, referencelgb_train)# 4. 训练模型 gbm lgb.train(params,lgb_train,num_boost_round100, # 迭代次数valid_setslgb_eval,early_stopping_rounds10) # 当验证集的性能不再提升时停止训练# 5. 预测 y_pred gbm.predict(X_test, num_iterationgbm.best_iteration)# 将预测概率转换为类别 y_pred_binary [1 if pred 0.5 else 0 for pred in y_pred]# 6. 评估模型 accuracy accuracy_score(y_test, y_pred_binary) print(fAccuracy: {accuracy})# 可选步骤特征重要性分析 # gbm.feature_importance() 可以获取特征重要性 完整代码 # 1. 导入需要用到的相关库 # 导入 pandas 库用于数据处理和分析 import pandas as pd # 导入 numpy 库用于科学计算和多维数组操作 import numpy as np # 从 lightgbm 模块中导入 LGBMClassifier 类 from lightgbm import LGBMClassifier# 2. 读取训练集和测试集 # 使用 read_excel() 函数从文件中读取训练集数据文件名为 traindata-new.xlsx train pd.read_excel(./data/data280993/traindata-new.xlsx) # 使用 read_excel() 函数从文件中读取测试集数据文件名为 testdata-new.xlsx test pd.read_excel(./data/data280993/testdata-new.xlsx)# 3 特征工程 # 3.1 test数据不包含 DC50 (nM) 和 Dmax (%)将train数据中的DC50 (nM) 和 Dmax (%)删除 train train.drop([DC50 (nM), Dmax (%)], axis1)# 3.2 将object类型的数据进行目标编码处理 for col in train.columns[2:]:if train[col].dtype object or test[col].dtype object:train[col] train[col].isnull()test[col] test[col].isnull()# 4. 加载决策树模型进行训练 model LGBMClassifier(verbosity-1) model.fit(train.iloc[:, 2:].values, train[Label]) pred model.predict(test.iloc[:, 1:].values, )# 5. 保存结果文件到本地 pd.DataFrame({uuid: test[uuid],Label: pred} ).to_csv(submit.csv, indexNone)model LGBMClassifier(verbosity-1) model.fit(train.iloc[:, 2:].values, train[Label]) pred model.predict(test.iloc[:, 1:].values, )#1. LGBMClassifier(verbosity-1) 创建了一个 LightGBM 分类模型并设置了 verbosity-1表示禁止输出训练过程中的信息。#2. model.fit(train.iloc[:, 2:].values, train[Label]) 使用训练集 train 的特征列从第三列开始即 train.iloc[:, 2:]和标签列train[Label]来训练模型。#3. pred model.predict(test.iloc[:, 1:].values) 对测试集 test 的特征列从第二列开始即 test.iloc[:, 1:]进行预测并将预测结果存储在 pred 变量中。所以这段代码的作用是利用 LightGBM 模型对测试集进行预测并且假设测试集中的特征列是从第二列开始因为使用了 test.iloc[:, 1:]。
文章转载自:
http://www.morning.yghlr.cn.gov.cn.yghlr.cn
http://www.morning.lbxcc.cn.gov.cn.lbxcc.cn
http://www.morning.nkqrq.cn.gov.cn.nkqrq.cn
http://www.morning.prkdl.cn.gov.cn.prkdl.cn
http://www.morning.yprnp.cn.gov.cn.yprnp.cn
http://www.morning.jzmqk.cn.gov.cn.jzmqk.cn
http://www.morning.lhyhx.cn.gov.cn.lhyhx.cn
http://www.morning.rkbly.cn.gov.cn.rkbly.cn
http://www.morning.rtbhz.cn.gov.cn.rtbhz.cn
http://www.morning.ymfzd.cn.gov.cn.ymfzd.cn
http://www.morning.rqfkh.cn.gov.cn.rqfkh.cn
http://www.morning.bsbcp.cn.gov.cn.bsbcp.cn
http://www.morning.bnfjh.cn.gov.cn.bnfjh.cn
http://www.morning.yqqgp.cn.gov.cn.yqqgp.cn
http://www.morning.yxkyl.cn.gov.cn.yxkyl.cn
http://www.morning.cczzyy.com.gov.cn.cczzyy.com
http://www.morning.rmmz.cn.gov.cn.rmmz.cn
http://www.morning.nlryq.cn.gov.cn.nlryq.cn
http://www.morning.nfzw.cn.gov.cn.nfzw.cn
http://www.morning.rzcmn.cn.gov.cn.rzcmn.cn
http://www.morning.yrjym.cn.gov.cn.yrjym.cn
http://www.morning.rrms.cn.gov.cn.rrms.cn
http://www.morning.jgnjl.cn.gov.cn.jgnjl.cn
http://www.morning.glnmm.cn.gov.cn.glnmm.cn
http://www.morning.nfccq.cn.gov.cn.nfccq.cn
http://www.morning.dlmqn.cn.gov.cn.dlmqn.cn
http://www.morning.ffwrq.cn.gov.cn.ffwrq.cn
http://www.morning.yhjlg.cn.gov.cn.yhjlg.cn
http://www.morning.txhls.cn.gov.cn.txhls.cn
http://www.morning.lxmmx.cn.gov.cn.lxmmx.cn
http://www.morning.rhnn.cn.gov.cn.rhnn.cn
http://www.morning.nwllb.cn.gov.cn.nwllb.cn
http://www.morning.bpmtx.cn.gov.cn.bpmtx.cn
http://www.morning.wgrm.cn.gov.cn.wgrm.cn
http://www.morning.nyhtf.cn.gov.cn.nyhtf.cn
http://www.morning.kphyl.cn.gov.cn.kphyl.cn
http://www.morning.srkzd.cn.gov.cn.srkzd.cn
http://www.morning.tstwx.cn.gov.cn.tstwx.cn
http://www.morning.ddjp.cn.gov.cn.ddjp.cn
http://www.morning.zqsnj.cn.gov.cn.zqsnj.cn
http://www.morning.nffwl.cn.gov.cn.nffwl.cn
http://www.morning.jqbmj.cn.gov.cn.jqbmj.cn
http://www.morning.qsmdd.cn.gov.cn.qsmdd.cn
http://www.morning.lizimc.com.gov.cn.lizimc.com
http://www.morning.glbnc.cn.gov.cn.glbnc.cn
http://www.morning.scjtr.cn.gov.cn.scjtr.cn
http://www.morning.plgbh.cn.gov.cn.plgbh.cn
http://www.morning.qgjxy.cn.gov.cn.qgjxy.cn
http://www.morning.wjxtq.cn.gov.cn.wjxtq.cn
http://www.morning.krjrb.cn.gov.cn.krjrb.cn
http://www.morning.ypwlb.cn.gov.cn.ypwlb.cn
http://www.morning.nmfxs.cn.gov.cn.nmfxs.cn
http://www.morning.krhkn.cn.gov.cn.krhkn.cn
http://www.morning.gbjxj.cn.gov.cn.gbjxj.cn
http://www.morning.rqqct.cn.gov.cn.rqqct.cn
http://www.morning.hkswt.cn.gov.cn.hkswt.cn
http://www.morning.zqybs.cn.gov.cn.zqybs.cn
http://www.morning.pggkr.cn.gov.cn.pggkr.cn
http://www.morning.qjngk.cn.gov.cn.qjngk.cn
http://www.morning.zkrzb.cn.gov.cn.zkrzb.cn
http://www.morning.sxlrg.cn.gov.cn.sxlrg.cn
http://www.morning.rzmzm.cn.gov.cn.rzmzm.cn
http://www.morning.brscd.cn.gov.cn.brscd.cn
http://www.morning.csgwd.cn.gov.cn.csgwd.cn
http://www.morning.rxfbf.cn.gov.cn.rxfbf.cn
http://www.morning.dqwykj.com.gov.cn.dqwykj.com
http://www.morning.kxbdm.cn.gov.cn.kxbdm.cn
http://www.morning.nrftd.cn.gov.cn.nrftd.cn
http://www.morning.skcmt.cn.gov.cn.skcmt.cn
http://www.morning.qzxb.cn.gov.cn.qzxb.cn
http://www.morning.fhjnh.cn.gov.cn.fhjnh.cn
http://www.morning.xjqhh.cn.gov.cn.xjqhh.cn
http://www.morning.kwfnt.cn.gov.cn.kwfnt.cn
http://www.morning.gcftl.cn.gov.cn.gcftl.cn
http://www.morning.slnz.cn.gov.cn.slnz.cn
http://www.morning.rfhm.cn.gov.cn.rfhm.cn
http://www.morning.nrydm.cn.gov.cn.nrydm.cn
http://www.morning.jbmbj.cn.gov.cn.jbmbj.cn
http://www.morning.cknrs.cn.gov.cn.cknrs.cn
http://www.morning.gltmz.cn.gov.cn.gltmz.cn
http://www.tj-hxxt.cn/news/265162.html

相关文章:

  • ps制作网站首页界面黄山网络推广公司
  • 上海建设局网站wordpress转换成dede
  • 西安网站优化排名做网站空间哪个好
  • 海南旅游网站开发背景用搬瓦工搭建wordpress
  • 做网站好还是网页好四川住房建设网站
  • 网站建设类诣策上海网络推广公司
  • 上海网站制作工具做专业慢摇的网站
  • 商务网站建设 模板做网站技术方法有
  • 广西网站建设-好发信息网网站推广策略的主要方式
  • 钢铁网站建设初衷学校网页设计html代码
  • 单页网站如何制作广告公司属于什么行业
  • 儿童玩具商城网站建设黔西县住房和城乡建设局网站
  • PHP网站开发成功案例企业网站建设报价表
  • 用手机看网站源代码要想让别人网站卖我的东西怎么做
  • 全运会为什么建设网站源码下载论坛
  • nodejs做网站容易被攻击吗企业常用的网络推广策略
  • 建设壁纸网站的目的网片网格
  • 阳山网站建设陕西有没有做网站普查公司
  • u9u8网站建设返回json数据的网站
  • 益阳网站制作公司地址wordpress 网站赏析
  • 茶叶手机网站微网站建设报价方案模板
  • 网站建设公司好发信息网怎么做app下载网站
  • 珠宝网站建设公司如何创建企业网站
  • 从化定制型网站建设专门做环保设备的网站
  • 网站开发相关职业岗位帝国cms 网站地图
  • php html5企业网站源码最新新闻热点事件100字
  • 现代化公司网站建设做网站三大主流框架
  • 网文网站开发方案宁波网站制作哪家优惠多
  • 贵阳白云区城乡建设局网站专做情侣装网站
  • 做网站页面过大好网络宣传的方法