当前位置: 首页 > news >正文

萍乡手机网站建设上海专业建网站公司

萍乡手机网站建设,上海专业建网站公司,做排版的网站,网站开发专业能力Flink支持多种安装部署方式 StandaloneON YARNMesos、Kubernetes、AWS… 这些安装方式我们主要讲一下standalone和on yarn。 如果是一个独立环境的话#xff0c;可能会用到standalone集群模式。 在生产环境下一般还是用on yarn 这种模式比较多#xff0c;因为这样可以综合利…Flink支持多种安装部署方式 StandaloneON YARNMesos、Kubernetes、AWS… 这些安装方式我们主要讲一下standalone和on yarn。 如果是一个独立环境的话可能会用到standalone集群模式。 在生产环境下一般还是用on yarn 这种模式比较多因为这样可以综合利用集群资源。和我们之前讲的 spark on yarn是一样的效果这个时候我们的Hadoop集群上面既可以运行MapReduce任务Spark任务还可以运行Flink任务一举三得。 一、Standalone 1. 集群规划 依赖环境 jdk1.8及以上【配置JAVA_HOME环境变量】 ssh免密码登录 在这我们使用bigdata01、02、03这三台机器这几台机器的基础环境都是ok的可以直接使用。 集群规划如下 masterbigdata01 slavebigdata02、bigdata03 2. 下载flink安装包 注意由于目前Flink各个版本之间差异比较大属于快速迭代阶段所以在这我们就使用最新版本了使用Flink1.11.1版本。 3. 安装步骤 1.安装包下载好以后上传到bigdata01的/data/soft目录中 [rootbigdata01 soft]# ll flink-1.11.1-bin-scala_2.12.tgz -rw-r--r--. 1 root root 312224884 Aug 5 2026 flink-1.11.1-bin-scala_2.12. tgz 2. 解压 [rootbigdata01 soft]# tar -zxvf flink-1.11.1-bin-scala_2.12.tgz 3.修改配置 [rootbigdata01 soft]# cd flink-1.11.1 [rootbigdata01 flink-1.11.1]# cd conf/ [rootbigdata01 conf]# vi flink-conf.yaml ...... jobmanager.rpc.address: bigdata01 ...... [rootbigdata01 conf]# vi masters bigdata01:8081 [rootbigdata01 conf]# vi workers bigdata02 bigdata03 3将修改完配置的flink目录拷贝到其它两个从节点 [rootbigdata01 soft]# scp -rq flink-1.11.1 bigdata02:/data/soft/ [rootbigdata01 soft]# scp -rq flink-1.11.1 bigdata03:/data/soft/ 4启动Flink集群 [rootbigdata01 soft]# cd flink-1.11.1 [rootbigdata01 flink-1.11.1]# bin/start-cluster.sh Starting cluster. Starting standalonesession daemon on host bigdata01. Starting taskexecutor daemon on host bigdata02. Starting taskexecutor daemon on host bigdata03. 5验证一下进程 在bigdata01上执行jps [rootbigdata01 flink-1.11.1]# jps 3986 StandaloneSessionClusterEntrypoint 在bigdata02上执行jps [rootbigdata02 ~]# jps 2149 TaskManagerRunner 在bigdata03上执行jps [rootbigdata03 ~]# jps 2150 TaskManagerRunner 6访问Flink的web界面         http://bigdata01:8081 7停止集群在主节点上执行停止集群脚本 [rootbigdata01 flink-1.11.1]# bin/stop-cluster.sh Stopping taskexecutor daemon (pid: 2149) on host bigdata02. Stopping taskexecutor daemon (pid: 2150) on host bigdata03. Stopping standalonesession daemon (pid: 3986) on host bigdata01. 4. Standalone集群核心参数 5. slot vs parallelism 1slot是静态的概念是指taskmanager具有的并发执行能力 2parallelism是动态的概念是指程序运行时实际使用的并发能力 3设置合适的parallelism能提高程序计算效率太多了和太少了都不好 二、Flink ON YARN Flink ON YARN模式就是使用客户端的方式直接向Hadoop集群提交任务即可。不需要单独启动Flink进程。 注意 1Flink ON YARN 模式依赖Hadoop 2.4.1及以上版本 2Flink ON YARN支持两种使用方式 1. Flink ON YARN第一种方式 下面来看一下第一种方式 第一步在集群中初始化一个长时间运行的Flink集群 使用yarn-session.sh脚本 第二步使用flink run命令向Flink集群中提交任务 注意使用flink on yarn需要确保hadoop集群已经启动成功 1. 首先在bigdata04机器上安装一个Flink客户端其实就是把Flink的安装包上传上去解压即可不需要启动 [rootbigdata04 soft]# tar -zxvf flink-1.11.1-bin-scala_2.12.tgz 2. 接下来在执行 yarn-session.sh 脚本之前我们需要先设置 HADOOP_CLASSPATH 这个环境变量否则执行yarn-session.sh 是会报错的提示找不到hadoop的一些依赖。 [rootbigdata01 flink-1.11.1]# bin/yarn-session.sh -jm 1024m -tm 1024m -d Error: A JNI error has occurred, please check your installation and try again Exception in thread main java.lang.NoClassDefFoundError: org/apache/hadoop/yarn/exceptions/YarnExceptionat java.lang.Class.getDeclaredMethods0(Native Method)at java.lang.Class.privateGetDeclaredMethods(Class.java:2701)at java.lang.Class.privateGetMethodRecursive(Class.java:3048)at java.lang.Class.getMethod0(Class.java:3018)at java.lang.Class.getMethod(Class.java:1784)at sun.launcher.LauncherHelper.validateMainClass(LauncherHelper.java:544)at sun.launcher.LauncherHelper.checkAndLoadMain(LauncherHelper.java:526) Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.yarn.exceptions.YarnExceptionat java.net.URLClassLoader.findClass(URLClassLoader.java:382)at java.lang.ClassLoader.loadClass(ClassLoader.java:424)at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:349)at java.lang.ClassLoader.loadClass(ClassLoader.java:357)... 7 more 在 /etc/profile 中配置 HADOOP_CLASSPATH [rootbigdata04 flink-1.11.1]# vi /etc/profile export JAVA_HOME/data/soft/jdk1.8 export HADOOP_HOME/data/soft/hadoop-3.2.0 export HIVE_HOME/data/soft/apache-hive-3.1.2-bin export SPARK_HOME/data/soft/spark-2.4.3-bin-hadoop2.7 export SQOOP_HOME/data/soft/sqoop-1.4.7.bin__hadoop-2.6.0 export HADOOP_CLASSPATH${HADOOP_HOME}/bin/hadoop classpath export PATH.:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$SPARK_HO ME/bin:$SQOOP_HOME/bin:$PATH 刷新配置 [rootbigdata01 flink-1.11.1]# source /etc/profile 3. 接下来使用 yarn-session.s h在YARN中创建一个长时间运行的Flink集群 [rootbigdata04 flink-1.11.1]# bin/yarn-session.sh -jm 1024m -tm 1024m -d 这个表示创建一个Flink集群 -jm 是指定主节点的内存 -tm 是指定从节点的内存 -d 是表示把这个进程放到后台去执行。启动之后会看到类似这样的日志信息这里面会显示flink web界面的地址以及这个flink集群在yarn中对应的applicationid。 此时到YARN的web界面中确实可以看到这个flink集群。 可以使用屏幕中显示的flink的web地址或者yarn中这个链接都是可以进入这个flink的web界面的 4. 接下来向这个Flink集群中提交任务此时使用Flink中的内置案例 [rootbigdata04 flink-1.11.1]# bin/flink run ./examples/batch/WordCount.jar 注意这个时候我们使用flink run的时候它会默认找这个文件然后根据这个文件找到刚才我们 创建的那个永久的Flink集群这个文件里面保存的就是刚才启动的那个Flink集群在YARN中对应 的applicationid。 2023-02-19 02:11:19,306 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - Found Yarn properties file under /tmp/.yarn-properties-root. 2023-02-19 02:11:19,306 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - Found Yarn properties file under /tmp/.yarn-properties-root.[rootbigdata04 flink-1.11.1]# more /tmp/.yarn-properties-root #Generated YARN properties file #Tue Jan 20 22:50:06 CST 2026 dynamicPropertiesString applicationIDapplication_1768906309581_0005 5.任务提交上去执行完成之后再来看flink的web界面发现这里面有一个已经执行结束的任务了。 注意这个任务在执行的时候会动态申请一些资源执行任务任务执行完毕之后对应的资源会自动释放掉。 6. 最后把这个Flink集群停掉使用yarn的kill命令 [rootbigdata04 flink-1.11.1]# yarn application -kill application_1768906309581_0005 7. 针对 yarn-session 命令它后面还支持一些其它参数可以在后面传一个 -help 参数 [rootbigdata04 flink-1.11.1]# bin/yarn-session.sh -help Usage: Optional -at,--applicationType arg Set a custom application type for the application on YARN -D propertyvalue use value for given property -d,--detached If present, runs the job in detached m ode -h,--help Help for the Yarn session CLI. -id,--applicationId arg Attach to running YARN session -j,--jar arg Path to Flink jar file -jm,--jobManagerMemory arg Memory for JobManager Container with o ptional unit (default: MB) -m,--jobmanager arg Address of the JobManager to which to connect. Use this flag to connect to a different JobManager than the one sp ecified in the configuration. -nl,--nodeLabel arg Specify YARN node label for the YARN a pplication -nm,--name arg Set a custom name for the application on YARN -q,--query Display available YARN resources (memo ry, cores) -qu,--queue arg Specify YARN queue. -s,--slots arg Number of slots per TaskManager -t,--ship arg Ship files in the specified directory (t for transfer) -tm,--taskManagerMemory arg Memory per TaskManager Container with optional unit (default: MB) -yd,--yarndetached If present, runs the job in detached m ode (deprecated; use non-YARN specific option instead) -z,--zookeeperNamespace arg Namespace to create the Zookeeper sub- paths for high availability mode 在这我对一些常见的命令进行了整理添加了中文注释 注意这里的-j 是指定Flink任务的jar包此参数可以省略不写也可以 2. Flink ON YARN第二种方式 flink run -m yarn-cluster (创建Flink集群提交任务) 使用flink run直接创建一个临时的Flink集群并且提交任务 此时这里面的参数前面加上了一个 y 参数  [rootbigdata04 flink-1.11.1]# bin/flink run -m yarn-cluster -yjm 1024 -ytm 1024 ./examples/batch/WordCount.jar 提交上去之后会先创建一个Flink集群然后在这个Flink集群中执行任务。 针对Flink命令的一些用法汇总: 三、Flink ON YARN的好处 1提高大数据集群机器的利用率 2一套集群可以执行MR任务Spark任务Flink任务等 四、向集群中提交Flink任务 接下来我们希望把前面我们自己开发的Flink任务提交到集群上面在这我就使用flink on yarn的第二种方式来向集群提交一个Flink任务。 1. 在pom.xml中添加打包配置   buildplugins!-- 编译插件 --plugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-compiler-plugin/artifactIdversion3.6.0/versionconfigurationsource1.8/sourcetarget1.8/targetencodingUTF-8/encoding/configuration/plugin!-- scala编译插件 --plugingroupIdnet.alchim31.maven/groupIdartifactIdscala-maven-plugin/artifactIdversion3.1.6/versionconfigurationscalaCompatVersion2.12/scalaCompatVersionscalaVersion2.12.11/scalaVersionencodingUTF-8/encoding/configurationexecutionsexecutionidcompile-scala/idphasecompile/phasegoalsgoaladd-source/goalgoalcompile/goal/goals/executionexecutionidtest-compile-scala/idphasetest-compile/phasegoalsgoaladd-source/goalgoaltestCompile/goal/goals/execution/executions/plugin!-- 打jar包插件(会包含所有依赖) --plugingroupIdorg.apache.maven.plugins/groupIdartifactIdmaven-assembly-plugin/artifactIdversion2.6/versionconfigurationdescriptorRefsdescriptorRefjar-with-dependencies/descriptorRef/descriptorRefsarchivemanifest!-- 可以设置jar包的入口类(可选) --mainClass/mainClass/manifest/archive/configurationexecutionsexecutionidmake-assembly/idphasepackage/phasegoalsgoalsingle/goal/goals/execution/executions/plugin/plugins/build 2. 打包代码 mvn clean package -DskipTests 3. 将 db_flink-1.0-SNAPSHOT-jar-with-dependencies.jar 上传到bigdata04机器上 的 /data/soft/flink-1.11.1 目录中(上传到哪个目录都可以) 4. 提交Flink任务 注意提交任务之前先开启socket [rootbigdata04 ~]# nc -l 9001 [rootbigdata04 flink-1.11.1]#bin/flink run -m yarn-cluster -c com.imooc.scala.stream.SocketWindowWordCountScala -yjm 1024 -ytm 1024 db_flink-1.0-SNAPSHOT-jar-with-dependencies.jar 6. 此时到yarn上面可以看到确实新增了一个任务点击进去可以看到flink的web界面 通过socket输入一串内容 然后到flink的web界面查看日志 7. 接下来我们希望把这个任务停掉因为这个任务是一个流处理的任务提交成功之后它会一直运行。 注意此时如果我们使用ctrlc关掉之前提交任务的那个进程这里的flink任务是不会有任何影响的可以一直运行因为flink任务已经提交到hadoop集群里面了。 此时如果想要停止Flink任务有两种方式 方式一停止yarn中任务 [rootbigdata04 flink-1.11.1]# yarn application -kill application_1768962956138_0001 方式二停止flink任务。可以在界面上点击这个按钮或者在命令行中执行flink cancel停止都可以 或者 [rootbigdata04 flink-1.11.1]# bin/flink cancel -yid application_1768962956138_0001 7b99bfb261a92f84a89d87bcca3a3e23 这个flink任务停止之后对应的那个yarn-sessionFlink集群也就停止了。 五、开启Flink的HistoryServer 注意此时flink任务停止之后就无法再查看flink的web界面了如果想看查看历史任务的执行信息就看不了了怎么办呢 咱们之前在学习spark的时候其实也遇到过这种问题当时是通过启动spark的historyserver进程解决的。flink也有historyserver进程也是可以解决这个问题的。historyserver进程可以在任意一台机器上启动在这我们选择在bigdata04机器上启动在启动historyserver进程之前需要先修改bigdata04中的flink-conf.yaml配置文件。 [rootbigdata04 flink-1.11.1]# vi conf/flink-conf.yaml jobmanager.archive.fs.dir: hdfs://bigdata01:9000/completed-jobs/ historyserver.web.address: 192.168.182.103 historyserver.web.port: 8082 historyserver.archive.fs.dir: hdfs://bigdata01:9000/completed-jobs/ historyserver.archive.fs.refresh-interval: 10000 然后启动flink的historyserver进程 [rootbigdata04 flink-1.11.1]# bin/historyserver.sh start 注意hadoop集群中的historyserver进程也需要启动 此时Flink任务停止之后也是可以访问flink的web界面的。
http://www.tj-hxxt.cn/news/220096.html

相关文章:

  • 鹰潭房产网站建设定襄网站建设
  • 有哪些ui的设计网站省建设厅网站二建考试
  • 企业做营销型网站网页设计作品及代码
  • 丽江做网站互联网营销策划
  • 智能建站公司工作室网站建设
  • 计算机机应用网站建设与维护抚宁区建设局网站
  • 跨境网站有哪些平台重庆市公共资源交易中心网
  • 外贸网站源码怎么建黑龙江城乡和住房建设信息网
  • 网站建设前期需要做出的准备网站设计建设公司排行
  • 专业网站制作公司名称保定企业网站的建设
  • 电商网站模块介绍开一家网站建设公司
  • 网站开发人员 把网站注销wordpress4.9多个主题
  • 做网站二级域名随便用吗深圳网站改版公司
  • 给城市建设提议献策的网站北京手机网站设计价格
  • 精品课程网站建设的国内外现状自己如何做网站关键词排名
  • 韩版做哪个网站好网页设计模板html代码 div
  • 如何做菠菜网站代理北京王府井房价多少钱一平
  • 电子商务网站建设阶段做电商在什么网站吗
  • 初中做数学题的网站培训机构排名前十
  • 芜湖做网站找哪家好网页设计重庆
  • 淄博 网站建设摄影网站规划设计书
  • 网站设计行业吃香么品牌全案公司
  • 提供低价网站建设河南郑州解封最新消息
  • seo网站是什么如何建立一个公众号
  • 市场调研报告模板pptseo平台优化
  • 有个网站可以学做ppt做两个阿里网站
  • 织梦图片网站一个网站多大空间
  • php注册网站源码带数据库建设银行陕西省分行网站
  • 打广告网站六安网
  • 简易制作网站wordpress柒主题