当前位置: 首页 > news >正文

空间商网站腾讯网站建设公司

空间商网站,腾讯网站建设公司,北京外贸推广,做网站你给推广目录 1. 说明 2. 服务器规划 3. 步骤 3.1 要点 3.2 配置文件 3.2 访问Spark Master 4. 使用测试 5. 参考 1. 说明 以docker容器方式实现apache spark计算集群#xff0c;能灵活的增减配置与worker数目。 2. 服务器规划 服务器 (1master, 3workers) ip开放端口备注ce…目录 1. 说明 2. 服务器规划 3. 步骤 3.1 要点 3.2 配置文件 3.2 访问Spark Master 4. 使用测试 5. 参考 1. 说明 以docker容器方式实现apache spark计算集群能灵活的增减配置与worker数目。 2. 服务器规划 服务器 (1master, 3workers) ip开放端口备注center01.dev.sb172.16.20.208080,7077 硬件配置32核64G 软件配置ubuntu22.04 宝塔面板 host001.dev.sb172.16.20.608081,70778核16Ghost002.dev.sb172.16.20.618081,7077...BEN-ZX-GZ-MH172.16.1.106应用服务发任务机器 3. 步骤 3.1 要点 worker节点的网络模式用host不然spark ui页面中获取的路径会是容器ip里面的链接变得不可访问测试前需保证任务发布机与Worker机的运行语言版本一致(如: 同是python10 / python12)否则会报错 Python in worker has different version (3, 12) than that in driver 3.10。确保发任务机器能被Worker节点访问否则会出现诸如:  WARN TaskSchedulerImpl: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources 等莫名其妙的错误观察工作机错误日志 Caused by: java.io.IOException: Failed to connect to BEN-ZX-GZ-MH/unresolved:10027 由于访问不了发任务机器而导致的目前采取的解决方法是在配置里写死映射IP 3.2 配置文件 docker-compose.spark-master.yml services:spark:image: docker.io/bitnami/spark:latestcontainer_name: spark-masterrestart: alwaysenvironment:- SPARK_MODEmaster- SPARK_RPC_AUTHENTICATION_ENABLEDno- SPARK_RPC_ENCRYPTION_ENABLEDno- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLEDno- SPARK_SSL_ENABLEDno- SPARK_USERsparkports:- 8080:8080- 7077:7077 docker-compose.spark-worker.yml services:spark-worker:image: docker.io/bitnami/spark:latestcontainer_name: spark-workerrestart: alwaysenvironment:- SPARK_MODEworker- SPARK_MASTER_URLspark://spark-master:7077- SPARK_WORKER_MEMORY2G- SPARK_WORKER_CORES2- SPARK_RPC_AUTHENTICATION_ENABLEDno- SPARK_RPC_ENCRYPTION_ENABLEDno- SPARK_LOCAL_STORAGE_ENCRYPTION_ENABLEDno- SPARK_SSL_ENABLEDno- SPARK_USERsparkports:- 8081:8081- 7077:7077extra_hosts:- spark-master:172.16.20.20- BEN-ZX-GZ-MH:172.16.1.106network_mode: host 3.2 访问Spark Master 访问Spark Master可见已有两台worker机可供驱使 4. 使用测试 t3.py from pyspark.sql import SparkSessiondef main():# Initialize SparkSessionspark (SparkSession.builder.appName(HelloSpark) # type: ignore.master(spark://center01.dev.sb:7077).config(spark.executor.memory, 512m).config(spark.cores.max, 1)# .config(spark.driver.bindAddress, center01.dev.sb).getOrCreate())# Create an RDD containing numbers from 1 to 10numbers_rdd spark.sparkContext.parallelize(range(1, 11))# Count the elements in the RDDcount numbers_rdd.count()print(fCount of numbers from 1 to 10 is: {count})# Stop the SparkSessionspark.stop()if __name__ __main__:main()运行监控  结果 5. 参考 - containers/bitnami/spark at main · bitnami/containers · GitHub
http://www.tj-hxxt.cn/news/134208.html

相关文章:

  • 珠海做公司网站如何做简易的网站
  • 河北省建设工程造价管理协会网站微门户网站建设
  • 公司网站网页制作建议海北网站建设
  • 如何进行网页设计和网站制作网站建设这个职业是什么意思
  • 怀化建设公司网站各大网址收录查询
  • 2017网站建设报价方案做网站的好公司有哪些
  • 宁波北仑做网站阿里云 发布网站 教程
  • 湖南网站开发哪家好深圳高端网站制作费用
  • 网站做程序外贸网站模板源码
  • 网站制作的主要流程网站建设 技术支持
  • 在百度做网站多少钱网站建设服务商城
  • 河南省建设教育协会网站php网站后台上传不了图片
  • 网站建设需要具备哪些做网站分pc端和移动端的吗
  • wordpress设置安全湛江百度seo公司
  • 上海青浦房地产网站建设简历设计网官网
  • 用插件做网站建站公司外贸
  • 现在做一个网站多少钱合肥寒假兼职工网站建设
  • 网站维护源码自适应58同城找工作招聘官网
  • 济南做网站公司哪家好网上虚拟银行注册网站
  • 界面官方网站专业格泰建站
  • 苏州企业网站建设网站域名审核时间
  • 用cn作网站行么海外网站空间
  • 网站监控的软件怎么做响应式网站 尺寸
  • 上海电商网站开发公司一般的网站是由什么语言做的
  • 利用高权重网站做关键词个人接app推广单去哪里接
  • 更改网站主题小程序api开发
  • 金坛网站建设报价网站开发岗位群
  • 西安网站建设网站推广个性定制网站有哪些
  • 池州家居网站建设怎么样滨州网站建设腾度
  • 手机看电视剧网站大全仓库网站开发