网站seo方案策划书,同一个域名可以做几个网站吗,石家庄个人建站模板,如何把音乐导入wordpress首先jdk安装完毕 jdk安装文档参考#xff1a; Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博客 准备好hadoop的安装包
我的下载地址如下#xff1a;
We Transfer Gratuit. Envoi scuris de gros fichiers.
将hadoop包上传到随… 首先jdk安装完毕 jdk安装文档参考 Linux 环境下安装JDK1.8并配置环境变量_linux安装jdk1.8并配置环境变量_Xi-Yuan的博客-CSDN博客 准备好hadoop的安装包
我的下载地址如下
We Transfer Gratuit. Envoi sécurisé de gros fichiers.
将hadoop包上传到随便一个目录但是解压缩到/opt/ 目录下
tar -zvxf /home/hadoop-3.1.3.tar.gz -C /opt/ cd /opt/hadoop-2.9.2/etc/hadoop vi hadoop-env.sh #修JAVA_HOME export JAVA_HOME/usr/opt/java/jdk1.8.0_339 cd /opt/hadoop-2.9.2/etc/hadoop/ vi core-site.xml #要添加的配置内容 property namefs.default.name/name valuehdfs://192.168.137.15:9000/value /property property namefs.defaultFS/name valuehdfs://192.168.137.15:9000/value /property property namehadoop.tmp.dir/name value/home/hadooptmp/value /property 配置hdfs-site.xml制定hdfs保存数据的副本数量伪分布式只有一个节点所以填写1 property namedfs.replication/name value1/value /property property namedfs.name.dir/name value/home/hadoopname/value /property property namedfs.data.dir/name value/home/hadoopdata/value /property 配置mapred-site.xml原本hadoop文件下没有这个文件我们copy一个出来 cp mapred-site.xml.template mapred-site.xml vi mapred-site.xml #添加以下内容 property namemapreduce.framework.name/name valueyarn/value /property vi yarn-site.xml 添加两个属性第一个告诉nodemanager获取数据的方式为shuffle property nameyarn.nodemanager.aux-service/name valuemapreduce_shuffle/value /property property nameyarn.resourcemanager.hostname/name valuehadoop/value /property 添加hadoop的路径 vi /etc/profile export HADOOP_HOME/opt/hadoop-2.9.2 export PATH$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH 然后生效 source /etc/profile 域名hosts绑定 vi /etc/hosts #添加本机ip与hosts的绑定 192.168.137.15 hadoop 配置主机的免密登录 cd /root/ # 如果本机没有登录过其它机器时本地是没有/root/.ssh文件夹的只需要 ssh hadoop 登录一次就会自动创建了 cd .ssh ssh-keygen -t rsa cat id_rsa.pub authorized_keys #测试免输入密码 ssh hadoop 开始初始化和启动hadoop 初始化 先格式化 cd /opt/hadoop-2.9.2/etc/hadoop/ hadoop namenode -format 启动 cd /opt/hadoop-2.9.2/sbin ./start-all.sh jps命令查看已经启动的进程 测试hdfs命令 查看根目录下是否有东西如果没有则自己新建两个看下哦效果 cd /opt/hadoop-2.9.2/bin hadoop fs -ls / hadoop fs -mkdir /test hadoop fs -mkdir /rt 再次查看 #浏览器测试输入地址http://192.168.137.15:50070/ ip地址为hadoop虚拟机的ip