当前位置: 首页 > news >正文

66郑州网站建设seoapp推广

66郑州网站建设,seoapp推广,科技感的网站,海外vps一键配置WordPress在原有pdf教程教程上,做一个补充 idea内搭建环境 导入依赖 就直接利用之前的作业工程项目里直接写,所以依赖基本上不用再导入了,如果要导入,看自己依赖的版本号,不要直接复制教程,比如我的: …

在原有pdf教程教程上,做一个补充

idea内搭建环境

导入依赖

就直接利用之前的作业工程项目里直接写,所以依赖基本上不用再导入了,如果要导入,看自己依赖的版本号,不要直接复制教程,比如我的:

        <dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.12</artifactId><version>3.1.1</version></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-sql_2.12</artifactId></dependency><dependency><groupId>org.apache.spark</groupId><artifactId>spark-mllib_2.12</artifactId></dependency>

依赖导入失败

因为之前连热点下载依赖可能网太慢下载出现了问题,出现了下面的问题:

net.sf.opencsv:opencsv:jar:2.3 failed to transfer from https://maven.aliyun.com/repository/public   during a previous attempt. This failure was cached in the local repository and resolution is not reattempted until the update interval of aliyunmaven has elapsed or updates are forced. Original error: Could not transfer artifact net.sf.opencsv:opencsv:jar:2.3 from/to aliyunmaven (https://maven.aliyun.com/repository/public):   transfer failed for

直接去本地仓库的对应路径把文件删掉,然后刷新就可以了

读取数据集

参考:https://blog.csdn.net/heiren_a/article/details/122133564
注意上文中提到,第一行是列名和需要自动推断数据类型的情况
如:

    val training = spark.read.option("header", "true") // 假设文件没有表头.option("inferSchema", "true") // 自动推断列的数据类型.csv(dataPath).toDF("timestamp", "back_x", "back_y", "back_z", "thigh_x", "thigh_y", "thigh_z", "label")

注意:后面组合特征向量的时候,不要把label列放进去了

将时间戳转换为数值型

参考:
https://blog.csdn.net/bowenlaw/article/details/111644932

    // 将时间戳转换为数值型val trainWithTimestamp = training.withColumn("timestamp_numeric", to_timestamp(col("timestamp")))val dataWithNumericFeatures = trainWithTimestamp.withColumn("timestamp_numeric", col("timestamp_numeric").cast("double"))

模型使用,逻辑回归和决策树

https://blog.csdn.net/qq_44665283/article/details/131766504

spark模型评估和选择,准确率,F1-Score

直接调接口,https://blog.csdn.net/weixin_43871785/article/details/132334104
https://blog.csdn.net/yeshang_lady/article/details/127856065

在单个节点上运行多个worker

编辑配置文件:
进入Spark的conf目录,复制spark-env.sh.template文件并重命名为spark-env.sh。
编辑spark-env.sh文件,添加以下配置(根据需要调整):

export SPARK_WORKER_INSTANCES=1  # 在单机上模拟的Worker数量(可以设置为多个,但需要不同端口)
export SPARK_WORKER_CORES=1  # 每个Worker的CPU核心数

参考:https://www.cnblogs.com/xinfang520/p/8038306.html

Spark运行的中间结果查看spark web ui

注意要在运行时进4040端口,参考:
https://www.cnblogs.com/bigdata1024/p/12194298.html

题目附录

数据集说明

  1. 时间戳:记录样本的日期和时间(使用的时候最好将其转换为数值型)
  2. back_x: 单位时间中,背部传感器在 x 方向(下)的加速度
  3. back_y: 单位时间中,背部传感器在 y 方向(左)的加速度
  4. back_z: 单位时间中,背部传感器在z 方向(向前)的加速度
  5. thigh_x: 单位时间中,大腿传感器在 x 方向(下)的加速度
  6. thigh_y: 单位时间中,大腿传感器在 y 方向(右)的加速度
  7. thigh_z: 单位时间中,大腿传感器在 z 方向(向后)的加速度
  8. label:带注释的活动代码
    1:步行 2:运行 3:洗牌 4:楼梯(上升) 5:楼梯(下降) 6:站立 7:坐着 8:撒谎 13: 自行车 (坐着) 14: 自行车 (站着)
http://www.tj-hxxt.cn/news/95937.html

相关文章:

  • 京东网站设计分析免费网站注册免费创建网站
  • 济南建设银行重庆网络seo
  • 页面有哪几个网站可以做兰州网络推广电话
  • 网站建设中小企业广西网站赚钱
  • 网站开发企划书seo整站优化哪家专业
  • 营销型网站设计公司哪里有广告推广网站
  • 做家教在哪个网站温州网站建设开发
  • 海南澄迈网站建设李勇seo博客
  • 外贸多语言网站搜索引擎营销的原理
  • 成都网站网页制作营销推广的主要方法
  • 成都专业手机网站建设服务seo销售好做吗
  • 做养生的网站多吗seo收索引擎优化
  • 企业网站模板编辑软件百度官方网页
  • 微信公众号平台电话搜索引擎营销seo
  • 推书网广州网站seo公司
  • 服装公司网站多少钱上海搜索排名优化公司
  • 国外网站注册软件seo计费系统登录
  • 盐城网站建设制作工作室最新新闻头条
  • 提高网站收录的方法聚合搜索引擎接口
  • 宿迁哪里做网站网络广告人社区
  • 商标设计网站排行百度小程序
  • 一流学科建设专题网站杭州百度公司在哪里
  • 直播网站建设需要什么百度指数怎么看排名
  • 做网站国家大学科技园郑州重庆网络seo公司
  • 深圳建网站技术郑州seo博客
  • 官方网站建设方案图天气预报最新天气预报
  • 制作企业网站的报告许昌seo公司
  • 厦门网页设计学校seo每日工作内容
  • 公司做网站自己可以做常见的关键词
  • 怎样做批发网站全网营销推广靠谱吗