暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

Hadoop保姆级部署手册-4-集群可用性验证

闵栋 2022-12-03
534

引言

Hadoop保姆级部署手册-1-安装前准备工作

Hadoop保姆级部署手册-2-安装前准备工作


Hadoop保姆级部署手册-3-部署hadoop集群


公众号回复关键字“hadoop”获取最新hadoop保姆级部署手册,一起从头开始操练起来



4、集群可用性验证

4.1、hdfs验证

4.1.1、上传文件

#上传小文件

hadoop fs -mkdir input

hadoop fs -put data/jpsall  input

备注:将本地路径/data/jpsall文件上传到hdfs的/input文件夹

#上传大文件

hadoop fs -put /data/jdk-8u333-linux-x64.tar.gz  /input

备注:将本地路径/data/jdk-8u333-linux-x64.tar.gz文件上传到hdfs的/input文件夹下

4.1.2、上传文件后查看文件存放在什么位置

4.1.2.1、hdfs命令查看本地文件是否上传成功

通过hadoop fs -ls /input 命令查看:

4.1.2.2、网页查看HDFS文件存储路径

通过http://hadoop101:9870/explorer.html#/input页面可以查看jpsall是否上传成功

4.1.2.3、本地查看HDFS文件存储路径 

本地查看HDFS文件存储路径,在路径/opt/module/hadoop-3.3.3/data/dfs/data/current下面逐层寻找,

大致路径如:

/opt/module/hadoop-3.3.3/data/dfs/data/current/BP-1205521820-192.168.10.128-1667128447029/current/finalized/subdir0/subdir0

备注: 文件路径中斜体和上图中Block Pool ID一致。

4.1.3、下载文件

#下载jpsall到本地/opt/software文件夹下

hadoop fs -get /input/jpsall /opt/software/

#下载jdk-8u333-linux-x64.tar.gz到到本地/opt/software文件夹下

hadoop fs -get  /input/jdk-8u333-linux-x64.tar.gz   /opt/software/

如下图:

4.1.4、删除文件

#删除hdfs上jpsall文件

hadoop fs -rm -r /input/jpsall

4.1.5、执行mapreduce任务-wordcount程序

#hadoop安装路径下执行wordcount程序

cd /opt/module/hadoop-3.3.3

hadoop jar  share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.3.jar wordcount /input  /output

4.1.6、hdfs常用命令  

1、查看帮助

hadoop  fs -help

2、查看目录信息

hadoop  fs  -ls /hdfs路径

3、上传文件到hdfs上

hadoop  fs -put  /本地路径/文件名/hdfs路径

4、上传文件夹到hdfs上

hadoop  fs -put  /本地路径/文件夹名/hdfs路径

5、从hdfs上删除文件

hadoop fs  -rm -r /hdfs路径/文件名

6、从hdfs上删除文件夹

hadoop fs  -rm -r /hdfs路径/文件夹名

1、剪切文件

hadoop fs -moveFromLocal a.txt  /aa.txt

2、下载文件到本地

hadoop fs -get /hdfs路径/文件名  /本地路径

3、合并下载

hadoop  fs -getmerge /hdfs路径文件夹 /合并后的文件

10、创建文件夹

    hadoop fs  -mkdir /hello

11、创建多级文件夹

    hadoop fs  -mkdir -p /hello/world

12、移动hdfs文件

    hadoop fs  -mv /hdfs路径 /hdfs路径

13、复制hdfs文件

    hadoop fs  -cp /hdfs路径 /hdfs路径 

14、查看hdfs中的文件

    hadoop fs  -cat / hdfs路径/文件

    hadoop fs  -tail -f / hdfs路径/文件

15、查看文件夹中有多少个文件

    hadoop fs  -count / hdfs路径/文件夹  

16、查看hdfs的总空间

    hadoop fs  -df /

    hadoop fs  -df -h /

17、修改副本数   

    hadoop fs  -setrep 1 / hdfs路径/a.txt

 

4.2、mapreduce验证

4.2.1、上传大文本文件到hdfs路径下  

#上传大文本文件ges_logon_ctrl.txt到hadoop101服务器上,使用下面命令统计文件

wc ges_logon_ctrl.txt

行数为209064

单词个数为:209064

文件大小为:58349527 bytes

#上传改文件到hdfs 的/input路径下

4.2.2、执行mapreduce程序验证  

执行下面命令

hadoop jar  /opt/module/hadoop-3.3.3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.3.jar  wordcount   /input  /output/20221102



4.2.3、执行结果分析

#文件系统信息:

#任务配置信息  

1个map任务,1个reduce任务

备注:map个数是由文件大小而定,即为分片的个数,reduce个数配置文件中为1个。

修改reduce配置的个数,配置文件为mapred-sit.xml,其中的配置项为 mapred.reduce.tasks

#Map-Reduce的一个整体描述

在reduce输出的记录数为209064,即为209064个不同的单词

4.3、yarn验证

参考章节 3.4.2.5和3.4.2.6

Hadoop101机器上执行下面命令:

yarn application -list -appStates ACCEPTED

yarn application -list

yarn classpath

进一步验证参考网络相关网页 


文章转载自闵栋,如果涉嫌侵权,请发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论