暂无图片
暂无图片
暂无图片
暂无图片
暂无图片

hadoop伪分布安装

原创 漫天落叶 2024-02-29
135

@font-face{ font-family:"Times New Roman"; } @font-face{ font-family:"宋体"; } @font-face{ font-family:"Calibri"; } p.MsoNormal{ mso-style-name:正文; mso-style-parent:""; margin:0pt; margin-bottom:.0001pt; mso-pagination:none; text-align:justify; text-justify:inter-ideograph; font-family:Calibri; mso-fareast-font-family:宋体; mso-bidi-font-family:'Times New Roman'; font-size:10.5000pt; mso-font-kerning:1.0000pt; } p.MsoToc1{ mso-style-name:"目录 1"; mso-style-next:正文; margin:0pt; margin-bottom:.0001pt; mso-pagination:none; text-align:justify; text-justify:inter-ideograph; line-height:150%; font-family:Calibri; mso-fareast-font-family:宋体; mso-bidi-font-family:'Times New Roman'; font-size:12.0000pt; mso-font-kerning:1.0000pt; } p.MsoHeader{ mso-style-name:页眉; margin:0pt; margin-bottom:.0001pt; border-top:none; mso-border-top-alt:none; border-right:none; mso-border-right-alt:none; border-bottom:none; mso-border-bottom-alt:none; border-left:none; mso-border-left-alt:none; padding:1pt 4pt 1pt 4pt ; layout-grid-mode:char; mso-pagination:none; text-align:justify; text-justify:inter-ideograph; font-family:Calibri; mso-fareast-font-family:宋体; mso-bidi-font-family:'Times New Roman'; font-size:9.0000pt; mso-font-kerning:1.0000pt; } span.msoIns{ mso-style-type:export-only; mso-style-name:""; text-decoration:underline; text-underline:single; color:blue; } span.msoDel{ mso-style-type:export-only; mso-style-name:""; text-decoration:line-through; color:red; } @page{mso-page-border-surround-header:no; mso-page-border-surround-footer:no;}@page Section0{ margin-top:72.0000pt; margin-bottom:72.0000pt; margin-left:90.0000pt; margin-right:90.0000pt; size:595.3000pt 841.9000pt; layout-grid:15.6000pt; mso-header-margin:42.5500pt; mso-footer-margin:49.6000pt; } div.Section0{page:Section0;}

  

一、hadoop伪分布安装

(一)jdk安装

(二)配置SSH免密

(三)hadoop安装准备

(四)配置文件

(五)启动Hadoop

 

hadoop伪分布安装

 

(一)安装jdk

 

1.切换为root用户,将jdk文件复制到/usr/local目录下

2.移动到/usr/local,解压jdk文件,输入

tar -zxvf jdk-8uxxxx.tar.gz

3.将解压后的文件更名为jdk,方便环境配置,输入

mv jdk-1.8.x  jdk

4.切换为root用户,添加环境变量,输入

vim /etc/profile

在末尾添加

export JAVA_HOME=/usr/local/jdk

export PATH=.:$PATH:$JAVA_HOME/bin

 

5.切换为普通用户,更新环境变量,输入

su hadoop

source /etc/profile

 

6.检查jdk安装是否成功,输入

java -version

显示出java版本和位数即为成功

补:(rpm -qa|grep jdk

yum -y remove java jdk........................卸载)

 

(二)配置SSH免密

 

1.切换到root用户 修改/etc/sysconfig/network

将HOSTNAME=hadoop01

修改之后 ,点击reboot 重启系统

 

2.切换到root用户编辑hosts文件

vim /etc/hosts 文件

末尾一行添加

自己的ip  hadoop01  hadoop01

 

3.切换为普通用户(hadoop)

su hadoop

ssh-keygen -t rsa

敲击3次回车

 

4.查看私钥(id_rsa)和公钥(id_rsa.pub)

 

cd ~/.ssh

cat id_rsa

cat id_rsa.pub

 

5.配置免密

 

cp id_rsa.pub authorized_keys

 

6.查看是否配置好SSH免密

 

ssh hadoop@hadoop01

 

输入yes之后 显示日期时间即为配置成功

 

(三)hadoop安装准备

 

我们已经安装好了jdk并且配置好了SSH免密。现在进行hadoop的安装,hadoop下载地址如上,我选择的是hadoop-2.6.0.tar.gz版本,现在通过安装教程为大家演示一遍,hadoop的安装过程,

首先我们在~目录下创建一个bdp文件夹(注意这里要使用普通用户),然后我们通过在cp命令将hadoop拷贝到bdp目录下,使用tar -zxvf命令解压hadoop-2.6.0.tar.gz压缩包,删除安装包,将hadoop解压文件更名为hadoop,切换为root用户。

 

修改/etc/profile环境变量文件,向文件末尾一行追加

export HADOOP_HOME=/home/hadoop/bdp/hadoop

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"

export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

将hadoop 的环境追加到环境变量中,追加之后切换为普通用户

source  /etc/profile

 

接下来的就是最为重要的修改配置文件

 

(四)配置文件

 

一共有八个

配置文件的目录在 ~/bdp/hadoop/etc/hadoop/ 下

 

那我们来修改第一个配置文件

1.hadoop.env.sh

vim hadoop.env.sh

找的 export JAVA_HOME

修改为 export JAVA_HOME=/usr/local/jdk

 

2.yarn-env.sh

vim yarn-env.sh

找的 #export JAVA_HOME

由于添加的 #注释我们不能很快的找

去掉注释 并修改为

export JAVA_HOME=/usr/local/jdk

 

3.mapred-env.sh

vim mapred-env.sh

同样找#注释的export JAVA_HOME

去掉注释 并修改为

export JAVA_HOME=/usr/local/jdk

 

4.slaves

vim slaves

将localhost修改为hadoop01 ,因为我们搭建的是伪分布式

 

5.创建目录

mkdir -p /home/hadoop/bdp/hadoop/tmp

mkdir -p /home/hadoop/bdp/hadoop/name

mkdir -p /home/hadoop/bdp/hadoop/data

 

6.core-site.xml

vim core-site.xml

找到 <configuration></configuration>标签

向标签内添加

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop01:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/home/hadoop/bdp/hadoop/tmp</value>

</property>

 

7.hdfs-site.xml

同样向标签内添加

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hadoop/bdp/hadoop/name</value>

</property> <property> <name>dfs.datanode.data.dir</name>

<value>file:/home/hadoop/bdp/hadoop/data</value>

</property> <property> <name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

 

8.mapred-site.xml

此时我们发现并没有这个文件 只有一个与其类似的 mapre-site.xml.template文件

我们通过cp mapre-site.xml.template mapre-site.xml

获得mapre-site.xml文件

vim mapre-site.xml

添加

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

 

9.yarn-site.xml

vim yarn-site.xml

添加

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop01</value>

</property>

 

修改yarn-site.xml还要添加

<property>

<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

<value>org.apache.hadoop.mapred.ShuffleHandler</value>

</property>

不然运行MapReduce会出现错误

 

(五)启动Hadoop

 

1.

cd /home/hadoop/bdp/hadoop/bin

hdfs namenode -format

 

这里系统提示我们HADOOP环境配置出错

 

我们通过root用户

将空格去掉

更新环境  source /etc/profile

 

再 hdfs namenode -format 格式化 hdfs

 

cd /home/hadoop/bdp/hadoop/sbin

输入 start-all.sh

启动hadoop

确定输入yes

 

2.关闭防火墙

service iptables stop (root用户下)关闭防火墙重启失效

chkconfig iptables off(root用户下)开机不启动防火墙

 

3.登陆hadoop网页控制

在linux打开火狐浏览器

输入 http://localhost:50070/

就可以看到上述查看hadoop状况网页

 

4.游客登陆

在本机linux无法通过 http://localhost:8088/登陆

 

退出linux界面,点开电脑浏览器

输入 http://linux 的当前ip :8088/ 就可以访问到hadoop游客网站

「喜欢这篇文章,您的关注和赞赏是给作者最好的鼓励」
关注作者
【版权声明】本文为墨天轮用户原创内容,转载时必须标注文章的来源(墨天轮),文章链接,文章作者等基本信息,否则作者和墨天轮有权追究责任。如果您发现墨天轮中有涉嫌抄袭或者侵权的内容,欢迎发送邮件至:contact@modb.pro进行举报,并提供相关证据,一经查实,墨天轮将立刻删除相关内容。

评论