高校校园网站建设培训班,做网站的都是直男癌吗,精准客户电话号码购买,静态网站挂马前言
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下#xff0c;开发分布式程序。充分利用集群的威力进行高速运算和存储。 说白了就是实现一个任务可以在多个电脑上计算的过程。
一#xff1a;准备工具
1.1 VMware 1.2L…前言
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下开发分布式程序。充分利用集群的威力进行高速运算和存储。 说白了就是实现一个任务可以在多个电脑上计算的过程。
一准备工具
1.1 VMware 1.2Linux服务器两台创建一个克隆一个即可 1.3 hadoop-2.7.3.tarHadoop的安装文件 1.4 jdk-8u65-linux-x64.t.gzhadoop是基于java的要有java的jdk 1.5.SSH服务远程连接工具 1.6Xshell或者 winSCP远程传输工具
VMware的安装下载和Linux服务器的创建请参考这篇文章 虚拟机开启SSH服务以及Xshell连接服务器请参考这篇文章。 两个安装文件大家可以在网盘自行获取 通过网盘分享的文件jdk及Hadoop 链接: https://pan.baidu.com/s/1tnHohO3GHNFAuWZqiq51lg?pwd2rxu 提取码: 2rxu 二Linux服务器的配置
最好是一开始就切换到管理员模式输入su回车后输入登录密码便于后续对文件的操作。 目前是两台服务器你需要确定一台为主节点另一台为子节点。这个待会我们会修改主机名称来区分两个节点我这里一台命名为hadoop01一台是hadoop02这些是创建主机时设置的名字随时都可以重命名。
2.1 服务器IP的查看
刚创建的服务器的IP分配一般都是DHCP模式这时可以查看到网卡中的IP信息每个人的IP地址是不同的你需要根据自己的IP地址进行配置。 在命令行输入
ifconfig接下来需要进行静态IP的配置并检查两台服务器是否可以上网可以和本地机通信。最好是都配置成静态IP防止重启时IP变化出现无法连接的情况。
2.2静态IP的配置
刚才我们查看了IP地址网关查看步骤点击VMware工作台左上角编辑“——》虚拟网络编辑器——》NET设置——》网关IP每个人的网关也不同 根据自己的IP和网关可以提前在记事本上写上以下配置信息 #Hadoop01 IPADDR192.168.132.128 NETMASK255.255.255.0 GATEWAY192.168.132.2网关可以在虚拟网络上设置上查看一般都是xxx.xxx.xxx.2 DNS18.8.8.8 #和hadoop01一样我们配置hadoop02的网卡信息 Hadoop02 IPADDR192.168.132.129 NETMASK255.255.255.0 GATEWAY192.168.132.2 DNS18.8.8.8 然后进入一个文件夹然后查看当前目录下是否有你的网卡文件我们要进入网卡中修改IP地址信息
cd /etc/sysconfig/network-scripts我这边的网卡文件是ifcfg-ens160进入这个文件中
vi ifcfg-ens160我们看到原始的信息接下来在需要修改我标注的地方进入该文件中需要按“i”键盘进入编辑模式修改完成后按“ Esc”键退出编辑模式然后输入“ :wq”保存并退出。 同样的操作我们也把hadoop02的静态IP配置好。 修改完成后reboot重启两台都要重启当然你也可以按照接下来的步骤修改完主机映射后再重启。 为了保证我们的主机都能上网需要再在本地机的控制面板中修改VMnet8中配置IP地址和网关控制面板——》网络和共享中心——》更改适配器设置——》双击VMnet8——》属性——》找到TCP/ipv4——》使用下面的IP地址。 更改完成后确定。 然后测试两台主机能否上网直接ping百度。如果有问题的话可以参考这篇文章希望能有所帮助。 2.3Xshell连接服务器接下来的操作均在Xshell上完成
为了便于后续传输文件给服务器我们使用远程传输工具Xshell这个你可以自行选择winSCP也可以连接两台服务器。 2.4修改主机名
我这里时hadoop01为主节点hadoop02是子节点。名字的修改是为了区分这两个节点
hostnamectl set-hostname空格主机名2.5修改主机名称以及主机映射
由于后面的步骤我们会多次使用到IP地址因此这里修改IP地址和主机名的映射会方便我们后续的操作。
vi /etc/hostsi键进入编辑模式输入以下信息后保存退出。 192.168.132.128 hadoop01 192.168.132.129 hadoop02 同样的hadoop02也是这样的操作
操作完成之后重启主机
reboot那么重启之后我们会发现主机名称已经完成更改了此时我们就可以直接ping 主机名就可以测试通信了。
你也可以用本地机直接ping虚拟机服务器名
2.6配置免密登录
首先关闭防火墙
systemctl stop firewalld.service回到根目录
cd /生成公钥和私钥前提是你的主机已经安装了ssh服务并且已经开此服务。如果没有安装ssh请参考这篇文章 执行命令生成公钥私钥
ssh-keygen -t rsa一直回车即可 拷贝密钥到主节点
ssh-copy-id hadoop01复制分发放置公钥的文件给其他虚拟机hadoop02
scp /root/.ssh/authorized_keys hadoop02:/root/.ssh目前主机的配置工作就完成了接下来我们就需要往主机上传一些安装包。
三上传并配置jdk
以下是两台主机都需要操作有需要一台主机的我会标注。在上传安装包之前我们先在两台主机上创建几个文件夹用来存放我们解压出的数据
3.1创建文件夹
Hadoop01和hadoop02都要创建 放置数据
mkdir -p /export/data软件安装目录
mkdir -p /export/servers放置软件包
mkdir -p /export/software3.2 下载一个rz的插件我们待会上传文件时需要用到
前提是你已经安装了yum源才可以通过yum来下载安装rz插件
yum install lrzszcd -y如果输入命令后报错应该就是没有安装yum可以参考以下操作。
yum的安装
直接使用wget下载前提是你的虚拟机上中的服务器是可以正常联网的
#进入系统YUM源的目录查看该目录下有多少yum源
cd /etc/yum.repos.d
我的只有一个之前安装过的yum源但是很多软件都无法安装了因此下载一个新的yum源
本文我们用的是阿里源阿里源的网址是https://mirrors.aliyun.com/repo/你可以找到适合自己的版本进行下载以下是下载命令你只需要将后面的版本改成自己的而即可。
wget -O /etc/yum.repos.d/CentOS-Base.repo https://mirrors.aliyun.com/repo/Centos-vault-8.5.2111.repo安装完成以后你可以查看当前目录下yum的个数
然后你就可以使用yum安装工具啦
比如你可以下载lrzsz插件实现本地文件通过Xshell上传到虚拟机。
yum install lrzsz 你在Xshell中输入rz即可打开你的本地文件夹你可以选取需要上传到服务器的文件。 3.3 查看主机上是否安装有jdk
java -version搜索目前的jdk
rpm -qa | grep jdk没有的话就不需要再卸载了 如果有的话需要进行卸载
rpm -e –nodeps 搜索得到的jdk名注意这个是需要一条一条的卸载的。卸载完成可以执行搜索命令查看下有没有没卸载的。
3.4 安装jdk以下操作主节点hadoop01配置即可
先切换到我们刚才创建的software目录下
cd /export/software然后输入rz命令通过Xshell将jdk包传入 点击关闭即可
3.5解压jdk
解压到我们创建好的servers文件夹中
tar -zxvf jdk-8u65-linux-x64.t.gz -C /export/servers/切换路径
cd /export/servers/重命名为jdk
mv jdk1.8.0_65 jdk3.6配置jdk变量
vi /etc/profile添加以下内容,写的是你的jdk路径(注意等号的前后不要有空格否则无法识别)
export JAVA_HOME/export/servers/jdk
export PATH$PATH:$JAVA_HOME/bin
export CLASSPATH.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 保存退出后我们重新加载一下环境变量
source /etc/profile然后检查下Java版本
java -version如果是提示权限不够可以输入以下命令增加权限
chmod -R x /export/servers/jdk/bin/java3.7将主节点hadoop01配置完成的jdk文件分发给hadoop02节点
在当前目录下输入ll查看jdk的路径以及名称 然后切换到jdk目录
cd jdk然后输入命令查看当前完整路径
pwd然后切换到/export/servers/
cd /export/servers/再将jdk文件给hadoop02节点
scp -r /export/servers/jdk hadoop02:$PWD回车执行后可能需要输入密码输入即可 3.8分发环境变量配置
hadoop01
scp /etc/profile roothadoop02:/etc/profile将hadoop02切换到创建好的software目录结合hadoop02加载环境变量再用java -version验证是否成功 hadoop02
source /etc/profile到此为止两台主机的jdk文件及其环境变量配置完成接下来安装Hadoop文件并完成对其的文件和环境变量的配置。
四Hadoop的安装和配置
4.1上传Hadoop安装包以下操作主节点hadoop01配置即可
进入下列目录
cd /export/software然后rz上传Hadoop安装包
对安装包进行解压安装解压路径为创建的servers目录
tar -zxvf hadoop-2.7.3.tar.gz -C /export/servers/解压完成之后切换目录
cd /export/servers/给Hadoopjdk文件重命名
mv hadoop-2.7.3 hadoop4.2配置Hadoop的系统环境变量
进入编辑模式
vi /etc/profile添加以下内容
export HADOOP_HOME/export/servers/hadoop
export PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH保存退出后加载环境变量
source /etc/profile检查是否安装成功
hadoop version安装成功
4.3 修改Hadoop配置文件
1hadoop-env.sh文件
切换目录
cd /export/servers/hadoop/etc/hadoop/进入编辑模式
vi hadoop-env.sh修改内容如下将jdk的路径修改成自己的
export JAVA_HOME/export/servers/jdk保存退出
2修改core-site.xml文件
进入编辑模式
vi core-site.xml添加内容为
propertynamefs.defaultFS/name#写成你的主节点主机名valuehdfs://hadoop01:9000/value
/property
propertynamehadoop.tmp.dir/name#代表后面我们格式化文件的路径如果是格式化多次需要将该目录删掉value/export/servers/hadoop/tmp/value
/property 保存退出
3修改hdfs-site.xml 文件
进入编辑模式
vi hdfs-site.xml添加以下内容
propertynamedfs.replication/name#代表你的子节点个数也就是我这里的hadoop02value1/value
/property
propertynamedfs.namenode.secondary.http.address/name#子节点的主机名valuehadoop02:50090/value
/property保存退出
4修改mapred-site.xml文件
修改之前需要先拷贝一下mapred-site.xml.template文件命名为mapred-site.xml
输入命令
cp mapred-site.xml.template mapred-site.xml进入编辑
vi mapred-site.xml输入以下命令
propertynamemapreduce.framework.name/namevalueyarn/value
/property5修改yarn-site.xml文件
进入编辑模式
vi yarn-site.xml添加以下命令
#将含端口的value标签中的节点名改成你自己的主节点名字
propertynameyarn.resourcemanager.address/namevaluehadoop01:8032/value
/property
propertynameyarn.resourcemanager.scheduler.address/namevaluehadoop01:8030/value
/property
propertynameyarn.resourcemanager.resource-tracker.address/namevaluehadoop01:8031/value
/property
propertynameyarn.resourcemanager.admin.address/namevaluehadoop01:8033/value
/property
propertynameyarn.resourcemanager.webapp.address/namevaluehadoop01:8088/value
/property
propertynameyarn.nodemanager.aux-services/namevaluemapreduce_shuffle/value
/property
propertynameyarn.nodemanager.aux-services.mapreduce.shuffle.class/namevalueorg.apache.hadoop.mapred.ShuffleHandler/value
/property6修改 slaves文件
该文件十分重要因为启动Hadoop 的时候系统总是根据当前 slaves 文件中 slave 节点名称列表启动集群不在列表中的slave节点便不会被视为计算节点。 进入编辑模式
vi slaves修改内容为两台虚拟机的主机名也就是你的主节点和子节点的名字 保存退出
4.4将配置好的环境分发给另一台主机
scp /etc/profile hadoop02:/etc/profile
scp -r /export/ hadoop02:/由于hadoop中配置的文件较多因此分发时比较慢
4.5 在hadoop02上重新加载下环境
source /etc/profile4.6格式化集群hadoop01主节点完成
本次格式化只需要第一次启动集群时进行 使用命令
hdfs namenode -format4.7开启集群服务hadoop01主节点完成
先关闭防火墙(两台都要关闭)
systemctl stop firewalld关闭防火墙开机自启
systemctl disable firewalld开启集群服务
start-dfs.sh 或 stop-dfs.sh
#一键开启集群服务
start-all.sh 或 stop-all.sh查看jps可以先将权限设为777
chmod 777 /export/servers/jdk/bin/jps可以看到目前主节点显示的是五个进程 4.8查看子节点进程
子节点hadoop02的进程
你也可以查看集群报告
hdfs dfsadmin -report停止集群报告
stop-all.sh到此为止Hadoop的集群环境已经配置完毕接下来检测下能否在浏览器中正常访问端口。
五验证Hadoop是否配置成功
本地浏览器输入
hadoop01:50070出现以下图片就说明你的Hadoop集群环境搭建成功啦
你也可以访问8088端口
hadoop01:8088以上就是Hadoop环境的搭建步骤如有不足感谢补充。
六参考
从零开始Hadoop安装和配置图文手把手教你定位错误已部署成功 视频参考