Hadoophdfs搭棚
一、介绍Linux
Linux是一款开源免费的操作系统。Linux是一套免费使用和自由传播的类Unix操作系统,是一个基于POSIX和UNIX的多用户、多任务、支持多线程和多CPU的操作系统。Linux继承了Unix以网络为核心的设计思想,是一个性能稳定的多用户网络操作系统。目前市面上较知名的发行版有:Ubuntu、RedHat、CentOS、Debain、Fedora、SuSE、OpenSUSE。
二、VMwareWorkstation 虚拟机安装
这里推荐https://www.jb51.net/article/169669.htm的安装教程,就不再多赘述了。
三、为虚拟机安装Centos操作系统
这里推荐https://blog.csdn.net/guo_ridgepole/article/details/78973763的安装教程,就不再多赘述了。
四、网络连接模式(个人选择的桥接模式)
五、虚拟机环境准备
1.克隆虚拟机并修改静态ip,这里搭建集群需要三台或者多台(但必须是单数的)https://blog.csdn.net/qq_42774325/article/details/81189033
2.修改主机名vim /etc/hostanme
向其中加入自己想要取的主机名master
,另外两台分别为slaver01
和slaver02
,修改之后重启一下。
3.添加主机映射vim /etc/hosts
192.168.3.22 master192.168.3.23 slaver01
192.168.3.24 slaver02
4.关闭防火墙systemctl service firewall
5.设置ssh免密登录
ssh免密登录
ssh-keygen -t rsassh-copy-id master
ssh-copy-id slaver01
ssh-copy-id slaver02
另外两台机子重复类似操作。
六、安装JDK
1.卸载原有的jdkrpm -qa |grep java |xargs prm -e --nodeps
2.解压(这里的包是已经在opt目录下的,我在opt目录下创建的module文件夹,专门存放大数据集群或组件的安装目录)tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/
3.改名mv jdk1.8.0_231/ /opt/module/java
4/添加配置 vim /etc/profile
#JAVA_HOMEexport JAVA_HOME=/opt/module/java
export PATH=$PATH:$JAVA_HOME/bin
使环境变量生效:source /etc/profile
5.测试是否安装成功java -version
七、安装Hadoop
1解压tar -zxvf /opt/hadoop-2.7.5.tar.gz -C /opt/module
2改名mv hadoop-2.7.5/ /opt/module/hadoop
3修改配置 vim /etc/profile
##HADOOP_HOMEexport HADOOP_HOME=/opt/module/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
生效:source /etc/profile
4测试hadoop version
八、修改Hadoop配置
1.配置core-site.xmlvim core-site.xml
<!-- 指定HDFS中NameNode的地址 --><property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/module/hadoop/data/tmp</value>
</property>
2.配置hadoop-env.sh,添加jdk路径。vim hadoop-env.sh
export JAVA_HOME=/opt/module/java
3.配置hdfs-site.xmlvim hdfs-site.xml
<property><name>dfs.replication</name>
<value>3</value>
</property>
<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slaver02:50090</value>
</property>
4.配置yarn-env.sh,添加jdk路径vim yarn-env.sh
export JAVA_HOME=/opt/module/java
5.配置yarn-site.xmlvim yarn-site.xml
在该文件中增加如下配置
<!-- reducer获取数据的方式 --><property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!-- 指定YARN的ResourceManager的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>slaver01</value>
</property>
6配置mapred-env.sh,添加jdk路径。vim mapred-env.sh
export JAVA_HOME=/opt/module/java
7配置mapred-site.xmlcp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
在该文件中增加如下配置
<!-- 指定mr运行在yarn上 --><property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
九、分发集群
scp -r /opt/module root@slaver01:/opt/modulescp -r /opt/module root@slaver02:/opt/module
在每个从节点使环境变量生效:source /etc/profile
十、启动hadoop集群
1.首先格式化hadoop集群hadoop namenode -format
2.启东hadoop,进入sbin目录下./start-all.sh
3.检查服务jps
以上是 Hadoophdfs搭棚 的全部内容, 来源链接: utcz.com/a/64809.html