当前位置: 首页 > news >正文

企业培训考试系统做博客的seo技巧

企业培训考试系统,做博客的seo技巧,建筑案例分析网站,做建材网站【写在前面】 飞腾开发者平台是基于飞腾自身强大的技术基础和开放能力#xff0c;聚合行业内优秀资源而打造的。该平台覆盖了操作系统、算法、数据库、安全、平台工具、虚拟化、存储、网络、固件等多个前沿技术领域#xff0c;包含了应用使能套件、软件仓库、软件支持、软件适…【写在前面】 飞腾开发者平台是基于飞腾自身强大的技术基础和开放能力聚合行业内优秀资源而打造的。该平台覆盖了操作系统、算法、数据库、安全、平台工具、虚拟化、存储、网络、固件等多个前沿技术领域包含了应用使能套件、软件仓库、软件支持、软件适配认证四大板块旨在共享尖端技术为开发者提供一个涵盖多领域的开发平台和工具套件。 点击这里开始你的技术升级之旅吧 ​​​ 本文分享至飞腾开发者平台《飞腾平台Hive3.1.2安装手册》 1 介绍 Hive是一个数据仓库基础工具在Hadoop中用来处理结构化数据。它架构在Hadoop之上总归为大数据并使得查询和分析方便。并提供简单的sql查询功能可以将sql语句转换为MapReduce任务进行运行。 最初Hive是由Facebook开发后来由Apache软件基金会开发并作为进一步将它作为名义下Apache Hive为一个开源项目。Hive 没有专门的数据格式。 Hive 可以很好的工作在 Thrift 之上控制分隔符也允许用户指定数据格式。Hive不适用于在线事务处理。它最适用于传统的数据仓库任务。Hive 构建在基于静态批处理的Hadoop 之上Hadoop 通常都有较高的延迟并且在作业提交和调度的时候需要大量的开销。因此Hive并不能够在大规模数据集上实现低延迟快速的查询例如Hive 在几百MB的数据集上执行查询一般有分钟级的时间延迟。因此Hive并不适合那些需要低延迟的应用例如联机事务处理OLTP。Hive查询操作过程严格遵守Hadoop MapReduce 的作业执行模型Hive 将用户的HiveQL语句通过解释器转换为MapReduce 作业提交到Hadoop 集群上Hadoop监控作业执行过程然后返回作业执行结果给用户。Hive并非为联机事务处理而设计Hive 并不提供实时的查询和基于行级的数据更新操作 本文主要介绍移植适配后的Hive.3.1.2在飞腾平台的安装与部署过程。 2 环境要求 2.1 硬件要求 硬件要求如下表所示。 项目说明CPUFT-2000/64服务器网络无要求存储无要求内存无要求 2.2 操作系统要求 操作系统要求如下表所示。 项目说明CentOS8Kernel4.18.0-193.el8.aarch64 2.3 软件要求 软件要求如下表所示。 项目说明Java1.8.0_281MySQL5.7Hadoop3.3.0 3 安装与部署 3.1 程序部署 步骤一 下载apache-Hive wget https://mirrors.bfsu.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz mv apache-hive-3.1.2-bin.tar.gz /opt cd /opt/ tar -zxvf apache-hive-3.1.2-bin.tar.gz mv apache-hive-3.1.2-bin.tar.gz hive-3.1.2 步骤二 创建mysql数据库与账号 CREATE DATABASE hive DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci; create user bigdata\% identified by bigdata; grant all privileges on \*.\* to bigdata\% identified by bigdata ; FLUSH PRIVILEGES; 3.2 程序配置 步骤一 配置环境变量 1编辑 /etc/profile 文件添加以下内容: export HIVE_HOME/opt /hive-3.1.2export PATH\$PATH:\$HIVE_HOME/bin 2配置程序环境变量, 拷贝 hive-env.sh.template 为hive-env.sh添加以下内容: HADOOP_HOME/opt/hadoop-3.3.0export HIVE_CONF_DIR/opt/hive-3.1.2/confexport HIVE_AUX_JARS_PATH/opt/hive-3.1.2/auxlibexport JAVA_HOME/opt/jdk1.8.0_281 步骤二 配置日志信息 mv hive-log4j2.properties.template hive-log4j2.propertiesmv beeline-log4j2.properties.template beeline-log4j2.propertiesmv hive-exec-log4j2.properties.template hive-exec-log4j2.properties 步骤三 进入$ HIVE_HOME目录并新建 conf/hive-site.xml 文件添加以下配置 configurationpropertynamejavax.jdo.option.ConnectionURL/namevaluejdbc:mysql://localhost:3306/hive?createDatabaseIfNotExisttrue/value/propertypropertynamejavax.jdo.option.ConnectionDriverName/namevaluecom.mysql.jdbc.Driver/value/propertypropertynamejavax.jdo.option.ConnectionUserName/namevaluebigdata/value/propertypropertynamejavax.jdo.option.ConnectionPassword/namevaluebigdata/value/propertypropertynamehive.metastore.warehouse.dir/namevalue/user/hive/warehouse/value/propertypropertynamehive.exec.scratchdir/namevalue/user/hive/tmp/valuedescriptionHDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir:${hive.exec.scratchdir}/lt;usernamegt; is created, with ${hive.scratch.dir.permission}./description/propertypropertynamehive.querylog.location/namevalue/user/hive/log/valuedescriptionLocation of Hive run time structured log file/description/property/configuration 步骤四 上传Mysql驱动包到hive的lib目录 cp mysql-connector-java.jar /opt/hive-3.1.2/lib/ 步骤五 初始化Hive元数据库配置 [hadoopengine hive-3.1.2]$ schematool -dbType mysql -initSchema SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/hive-3.1.2/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/hadoop-3.3.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html\#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Metastore connection URL: jdbc:mysql://172.16.32.200:3306/apache_hive_db?createDatabaseIfNotExisttrue Metastore Connection Driver : com.mysql.jdbc.Driver Metastore connection User: bigdata Starting metastore schema initialization to 2.3.0 Initialization script hive-schema-2.3.0.mysql.sql Initialization script completed schemaTool completed 步骤六 在HDFS上创建目录 ${HADOOP_HOME}/bin/hdfs dfs -mkdir -p /user/hive/warehouse ${HADOOP_HOME}/bin/hdfs dfs -mkdir -p /user/hive/tmp ${HADOOP_HOME}/bin/hdfs dfs -mkdir -p /user/hive/log ${HADOOP_HOME}/bin/hdfs dfs -chmod -R 777 /user/hive/warehouse ${HADOOP_HOME}/bin/hdfs dfs -chmod -R 777 /user/hive/tmp ${HADOOP_HOME}/bin/hdfs dfs -chmod -R 777 /user/hive/log 3.3 启动服务 步骤一 启动Hadoop集群安装过程参见hadoop集群安装手册 步骤二 启动hiveserver2 cd /opt/hive-3.1.2/bin nohup ./hiveserver2 \_run.log 步骤三 检查hiveserver2进程 # ps -elf\|grep hiveserver 如果显示 [hadoopmaster hive-3.1.2]$ ps -elf|grep hiveserver 0 S hadoop 1083884 1 0 80 0 - 35891 futex_ 09:02 pts/0 00:01:59 /opt/jdk1.8.0_281/bin/java -Dproc_jar -Dproc_hiveserver2 -Dlog4j.configurationFilehive-log4j2.properties -Djava.util.logging.config.file/opt/hive-3.1.2/conf/parquet-logging.properties -Djline.terminaljline.UnsupportedTerminal -Dyarn.log.dir/opt/hadoop-3.3.0/logs -Dyarn.log.filehadoop.log -Dyarn.home.dir/opt/hadoop-3.3.0 -Dyarn.root.loggerINFO,console -Djava.library.path/opt/hadoop-3.3.0/lib/native -Xmx256m -Dhadoop.log.dir/opt/hadoop-3.3.0/logs -Dhadoop.log.filehadoop.log -Dhadoop.home.dir/opt/hadoop-3.3.0 -Dhadoop.id.strhadoop -Dhadoop.root.loggerINFO,console -Dhadoop.policy.filehadoop-policy.xml -Dhadoop.security.loggerINFO,NullAppender org.apache.hadoop.util.RunJar /opt/hive-3.1.2/lib/hive-service-3.1.2.jar org.apache.hive.service.server.HiveServer2 如果出现以上进程表示Hiveserver启动成功 4 功能测试 4.1 Hive命令测试 步骤一 运行hive终端命令 $HIVE_HOME/bin/hive 启动过程日志如下 [hadoopmaster hive-3.1.2]$ $HIVE_HOME/bin/hive which: no hbase in (/home/hadoop/.local/bin:/home/hadoop/bin:/opt/apache-maven 3.3.9/bin:/home/phytium/.local/bin:/home/phytium/bin:/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/usr/local/mysql/bin:/opt/jdk1.8.0_281/bin:/usr/local/lib:/usr/local/bin:/usr/local/bin:/opt/hadoop-3.3.0/sbin:/opt/hadoop-3.3.0/bin:/usr/local/mysql/bin:/opt/hive-3.1.2/bin:/root/bin) SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/hadoop-3.3.0/share/hadoop/common/lib/slf4j-log4j12 1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html\#multiple_bindings for an explanation. SLF4J: Actual binding is of type[org.apache.logging.slf4j.Log4jLoggerFactory] Hive Session ID 5b09fa6f-638c-4363-bd45-31d07e773a41Logging initialized using configuration in file:/opt/hive-3.1.2/conf/hive-log4j2.properties Async: true Hive Session ID 7025b4a7-0c70-4274-bb1b-66989b813198 Hive-on-MR is deprecated in Hive 2 and may not be available in the future versions. Consider using a different execution engine (i.e. spark, tez) or using Hive 1.X releases. hive\ 表示进入到hive终端 步骤二 测试hive SQL hive show databases; OK default Time taken: 1.59 seconds, Fetched: 1 row(s) hive hive SQL可以成功运行 4.2 Beeline方式连接 步骤一 启动beeline连接到hiveserver2 $HIVE_HOME/bin/beeline -u jdbc:hive2://localhost:10000 -n hadoop 启动过程日志如下 [hadoopmaster bin]$ beeline -u jdbc:hive2://localhost:10000 -n hadoop SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/hive-3.1.2/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/hadoop-3.3.0/share/hadoop/common/lib/slf4j-log4j12 1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html\#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Connecting to jdbc:hive2://localhost:10000 Connected to: Apache Hive (version 3.1.2) Driver: Hive JDBC (version 3.1.2) Transaction isolation: TRANSACTION_REPEATABLE_READ Beeline version 3.1.2 by Apache Hive 0: jdbc:hive2://localhost:10000 表示连接到hiveserver成功 步骤二 测试hive SQL 0: jdbc:hive2://localhost:10000 show databases; INFO : Compiling command(queryIdhadoop_20210721153935_ef385520-032c-4de9-98c0-b01dadbb3b4c): show databases INFO : Concurrency mode is disabled, not creating a lock manager INFO : Semantic Analysis Completed (retrial false) INFO : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:database_name, type:string,comment:from deserializer)], properties:null) INFO : Completed compiling command(queryIdhadoop_20210721153935_ef385520-032c-4de9-98c0-b01dadbb3b4c); Time taken: 0.028 seconds INFO : Concurrency mode is disabled, not creating a lock manager INFO : Executing command(queryIdhadoop_20210721153935_ef385520-032c-4de9-98c0-b01dadbb3b4c): show databases INFO : Starting task [Stage-0:DDL] in serial mode INFO : Completed executing command(queryIdhadoop_20210721153935_ef385520-032c-4de9-98c0-b01dadbb3b4c);Time taken: 0.016 seconds INFO : OK INFO : Concurrency mode is disabled, not creating a lock manager ---------------- | database_name | ---------------- | default | ---------------- 1 row selected (0.179 seconds) 0: jdbc:hive2://localhost:10000 结果表明hive运行Hive SQL程序运行结果正确符合预期飞腾平台下的Hive功能正常。 推荐阅读 基于飞腾平台的Hbase的安装配置基于飞腾平台的Hadoop的安装配置 欢迎广大开发者来飞腾开发者平台获取更多前沿技术文档及资料 如开发者在使用飞腾产品有任何问题可通过在线工单联系我们 版权所有。飞腾信息技术有限公司 2023。保留所有权利。 未经本公司同意任何单位、公司或个人不得擅自复制翻译摘抄本文档内容的部分或全部不得以任何方式或途径进行传播和宣传。 商标声明 Phytium和其他飞腾商标均为飞腾信息技术有限公司的商标。 本文档提及的其他所有商标或注册商标由各自的所有人拥有。 注意 本文档的内容视为飞腾的保密信息您应当严格遵守保密任务未经飞腾事先书面同意您不得向任何第三方披露本文档内容或提供给任何第三方使用。 由于产品版本升级或其他原因本文档内容会不定期进行更新。除非另有约定本文档仅作为使用指导飞腾在现有技术的基础上尽最大努力提供相应的介绍及操作指引但飞腾在此明确声明对本文档内容的准确性、完整性、适用性、可靠性的等不作任何明示或暗示的保证。 本文档中所有内容包括但不限于图片、架构设计、页面布局、文字描述均由飞腾和/或其关联公司依法拥有其知识产权包括但不限于商标权、专利权、著作权等。非经飞腾和/或其关联公司书面同意任何人不得擅自使用、修改复制上述内容。
http://www.tj-hxxt.cn/news/220746.html

相关文章:

  • 自己设置免费网站设计平台网站制作流程是什么
  • 公司优化网站的案例如何判断网站是否被k
  • 甜品网站模板代码秦皇岛市做公司网站的
  • 网站建设公司做销售好不好上海仓储公司
  • 克隆网站首页做单页站几个文件夹网站服务器租用注意事项
  • 织梦做的网站怎么上传视频教程视频网站用什么做的好
  • 网站空间购买费用西安建设工程信息网网上招投标业务平台
  • 昆明网站设计制造wordpress cdn系统
  • 网站怎么做查询系统如何推广店铺呢
  • 怎么做电影网站app网站轮播图片特效
  • 贺州网站推广在线智能识图
  • 合肥建网站公司地址网站开发 自我评价
  • 小榄网站建设网上哪些网站可以做兼职
  • 淳安网站建设制作取大气聚财的公司名字
  • 廊坊做网站优化的公司网站稳定期的推广
  • 网站开发给网站设置图标在什么文件中写代码wordpress mysql 分表
  • 网站设计 网站开发 西安wordpress wp_update_post
  • 胶州网站建设培训网页浏览器入口
  • 网站的ftp地址是什么石狮建设银行网站
  • 沈阳网站建设找思路课程网站建设规划
  • 手机创建网站的软件站长统计app软件
  • 做ps的素材哪个网站无锡网站营销公司简介
  • 可以发广告的100个网站物流公司图片
  • 网站开发部门结构如何判断网站程序使用asp还是php
  • 怎么做金融营销网站汕头市城市建设开发总公司
  • 企业内部网站建设网站seo门户网价格是多少钱
  • 江西新农村建设权威网站郴州网站建设方案策划
  • 网站的建设公司网站后台管理入口
  • 做网站前端深圳物流公司联系电话
  • 杭州手机网站制作公司珠江新城越秀金融大厦