暂无图片
暂无图片
暂无图片
暂无图片
暂无图片
4.HDFS DN 节点扩容.pdf
293
5页
1次
2022-02-19
5墨值下载
1 .规划
部署前要求:新扩容的 DN 机器需要与当前 HDFS 集群机器时间同步。
2. 新增扩容机器准备磁盘和创建目录
一键部署主控机中:
新增 DN 机器上:
当前 NNnamenode)节点:
10.99.0.6 node01
10.99.0.14 node02
扩容 DNdatanode)节点:
10.99.0.31 node04
查看部署包中 tdsql_full_install_ansible/group_vars/all 文件 HDFS 目录
# vim /data/tdsql_full_install_ansible/group_vars/all
1
2
3
4
5
6
1
2
3. 新增 DN 机器设置主机名和配置环境变量
新增 DN 机器:
在新增 DN 机器上创建好目录,注意只是创建/data1 目录,不是创建/data1/hdfs
# mkdir –p /data1
首先用 lsblk 查看磁盘信息
# lsblk
格式化为 xfs 文件系统(这里以 sdg 盘为例)
# mkfs.xfs -f /dev/sdg
修改/etc/fstab 文件,设置自动挂载到指定路径
/dev/sdg /data1 xfs defaults 0 0
挂载磁盘
# mount -a
df -hT 命令可以看到挂载成功
# df –hT
创建目录:
# mkdir –p /data1/hdfs
# chown -R tdsql:users /data1/hdfs
# hostnamectl set-hostname node04
所有的 HDFS 机器 修改/etc/hosts
# vim /etc/hosts
添加如下内容:
# BEGIN hdfs1 local host
10.99.0.6 node01
# END hdfs1 local host
# BEGIN hdfs2 local host
10.99.0.14 node02
# END hdfs2 local host
# BEGIN hdfs3 local host
10.99.0.16 node03
# END hdfs3 local host
# BEGIN hdfs4 local host
10.99.0.31 node04
# END hdfs4 local host
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
标红的地方是新增 DN 机器的 IP 地址,原有的 HDFS 集群机器有的内容最后添加标红内
容,新增的 DN 机器直接复制以上内容到 hosts 文件。
新增 DN 机器:
4. jdk 包和 hadoop 安装包
新增的 DN 机器:
/etc/profile 文件最后加上一键部署主控机/tdsql_full_install_ansible/roles/hdfs/f
容:
# vim /etc/profile
# BEGIN hadoop_env
export JAVA_HOME=/data/home/tdsql/jdk1.8.0_51
export CLASS_PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export HADOOP_HOME=/data/home/tdsql/hadoop-3.0.3
export HADOOP_PID_DIR=/data/hadoop/pids
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# END hadoop_env
使其生效
# source /etc/profile
创建目录:
# mkdir -p /data/home/tdsql
传包:
# rsync -avP /data/home/tdsql/jdk1.8.0_51 10.99.0.31:/data/home/tdsql/
# rsync -avP /data/home/tdsql/hadoop-3.0.3 10.99.0.31:/data/home/tdsql/
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
1
2
3
4
5
6
7
of 5
5墨值下载
【版权声明】本文为墨天轮用户原创内容,转载时必须标注文档的来源(墨天轮),文档链接,文档作者等基本信息,否则作者和墨天轮有权追究责任。如果您发现墨天轮中有涉嫌抄袭或者侵权的内容,欢迎发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。