Hadoop运行环境搭建

2021/9/17 23:05:44

本文主要是介绍Hadoop运行环境搭建,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

1、模板虚拟机的环境准备

1)ip地址192.168.112.100、主机名称hadoop100、内存2G、硬盘50G

2)安装epel-release

[root@hadoop100 ~]# yum install -y epel-release

注:Extra Packages for Enterprise Linux是为“红帽系”的操作系统提供额外的软件包,适用于RHEL、CentOS和Scientific Linux。相当于是一个软件仓库,大多数rpm包在官方 repository 中是找不到的)

注意:如果Linux安装的是最小系统版,还需要安装如下工具;如果安装的是Linux桌面标准版,不需要执行如下操作

  • net-tool:工具包集合,包含ifconfig等命令
[root@hadoop100 ~]# yum install -y net-tools 
  • vim:编辑器
[root@hadoop100 ~]# yum install -y vim

3)配置网络 打开ifcfg-ens33文件

[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

添加以下内容

IPADDR=192.168.112.100
GATEWAY=192.168.112.2
DNS1=192.168.112.2

4)添加hostname

[root@hadoop100 ~]# vim /etc/hostname

输入以下内容

hadoop100

5)配置Linux克隆机主机名称映射hosts文件,打开/etc/hosts

[root@hadoop100 ~]# vim /etc/hosts

添加以下内容

192.168.112.100 hadoop100
192.168.112.101 hadoop101
192.168.112.102 hadoop102
192.168.112.103 hadoop103
192.168.112.104 hadoop104
192.168.112.105 hadoop105
192.168.112.106 hadoop106
192.168.112.107 hadoop107
192.168.112.108 hadoop108

6)修改windows的主机映射文件(hosts文件)

添加以下内容

192.168.112.100 hadoop100
192.168.112.101 hadoop101
192.168.112.102 hadoop102
192.168.112.103 hadoop103
192.168.112.104 hadoop104
192.168.112.105 hadoop105
192.168.112.106 hadoop106
192.168.112.107 hadoop107
192.168.112.108 hadoop108

7)查看Linux虚拟机的虚拟网络编辑器,编辑->虚拟网络编辑器->VMnet8

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hSOoSzqg-1631890140061)(C:\Users\VULCAN\Desktop\md\hadoop\img\3.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4DP9JTOj-1631890140065)(C:\Users\VULCAN\Desktop\md\hadoop\img\6.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qsjFAkUL-1631890140066)(C:\Users\VULCAN\Desktop\md\hadoop\img\4.png)]

8)查看Windows系统适配器VMware Network Adapter VMnet8的IP地址

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qry7NSrj-1631890140068)(C:\Users\VULCAN\Desktop\md\hadoop\img\5.png)]

2、关闭防火墙,关闭防火墙开机自启

[root@hadoop100 ~]# systemctl stop firewalld
[root@hadoop100 ~]# systemctl disable firewalld.service

注意:在企业开发时,通常单个服务器的防火墙时关闭的。公司整体对外会设置非常安全的防火墙

3、创建ramelon用户,并修改ramelon用户的密码

[root@hadoop100 ~]# useradd ramelon
[root@hadoop100 ~]# passwd ramelon

4、配置atguigu用户具有root权限,方便后期加sudo执行root权限的命令

[root@hadoop100 ~]# vim /etc/sudoers

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6hbispg2-1631890140068)(C:\Users\VULCAN\Desktop\md\hadoop\img\1.png)]

注意:ramelon这一行不要直接放到root行下面,因为所有用户都属于wheel组,你先配置了ramelon具有免密功能,但是程序执行到%wheel行时,该功能又被覆盖回需要密码。所以ramelon要放到%wheel这行下面。

5、在/opt目录下创建文件夹,并修改所属主和所属组

1、在/opt目录下创建module、software文件夹

[root@hadoop100 ~]# mkdir /opt/module
[root@hadoop100 ~]# mkdir /opt/software

2、修改module、software文件夹的所有者和所属组均为atguigu用户

[root@hadoop100 ~]# chown ramelon:ramelon /opt/module 
[root@hadoop100 ~]# chown ramelon:ramelon /opt/software

3、查看module、software文件夹的所有者和所属组

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-UV89gGfj-1631890140069)(C:\Users\VULCAN\Desktop\md\hadoop\img\2.png)]

6、卸载虚拟机自带的JDK

注意:如果你的虚拟机是最小化安装不需要执行这一步。

[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e --nodeps 

Ø

  • rpm -qa:查询所安装的所有rpm软件包
  • grep -i:忽略大小写
  • xargs -n1:表示每次只传递一个参数
  • rpm -e –nodeps:强制卸载软件

7、重启虚拟机

[root@hadoop100 ~]# reboot

8、克隆虚拟机

利用模板机hadoop100,克隆三台虚拟机:hadoop102 hadoop103 hadoop104

注意:克隆时,要先关闭hadoop100

9、安装JDK

注意:安装JDK前,一定确保提前删除了虚拟机自带的JDK。

1)用XShell传输工具将JDK导入到opt目录下面的software文件夹下面

2)进入到software目录下

[ramelon@hadoop102 ~]$ cd /opt/software/

3)解压JDK到/opt/module目录下

[ramelon@hadoop102 software]$ tar -zxvf jdk-8u301-linux-x64.tar.gz -C /opt/module/

4)记得查看是否解压成功

[ramelon@hadoop102 software]$ cd /opt/module/

5)配置JDK环境变量

[ramelon@hadoop102 /]$ sudo vim /etc/profile.d/my_env.sh

添加以下内容

#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_301
export PATH=$PATH:$JAVA_HOME/bin

6)source一下/etc/profile文件,让新的环境变量PATH生效

[ramelon@hadoop102 ~]$ source /etc/profile

7)测试是否安装成功

[ramelon@hadoop102 ~]$ java -version

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uhQtX11j-1631890140070)(C:\Users\VULCAN\Desktop\md\hadoop\img\7.png)]

注意:重启(如果java -version可以用就不用重启)

[ramelon@hadoop102 ~]$ sudo reboot

10、安装Hadoop

Hadoop下载地址:

https://archive.apache.org/dist/hadoop/common/hadoop-3.1.3/

https://archive.apache.org/dist/hadoop/common/hadoop-2.7.2/

1)用XShell文件传输工具将hadoop-3.1.3.tar.gz导入到opt目录下面的software文件夹下面

2)进入到software目录下

[ramelon@hadoop102 ~]$ cd /opt/software/

3)解压安装文件到/opt/module下面

[ramelon@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

4)记得查看是否解压成功

[ramelon@hadoop102 software]$ cd /opt/module/

5)将Hadoop添加到环境变量

[ramelon@hadoop102 /]$ sudo vim /etc/profile.d/my_env.sh

添加以下内容在my_env.sh文件末尾添加如下内容:(shift+g)

#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin

6)source一下/etc/profile文件,让新的环境变量PATH生效

[ramelon@hadoop102 ~]$ source /etc/profile

7)测试是否安装成功

[ramelon@hadoop102 ~]$ hadoop -version

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-BT9l5BZD-1631890140071)(C:\Users\VULCAN\Desktop\md\hadoop\img\8.png)]

重启(如果Hadoop命令不能用再重启虚拟机)

[ramelon@hadoop102 ~]$ sudo reboot


这篇关于Hadoop运行环境搭建的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程