@font-face{ font-family:"Times New Roman"; } @font-face{ font-family:"宋体"; } @font-face{ font-family:"Calibri"; } p.MsoNormal{ mso-style-name:正文; mso-style-parent:""; margin:0pt; margin-bottom:.0001pt; mso-pagination:none; text-align:justify; text-justify:inter-ideograph; font-family:Calibri; mso-fareast-font-family:宋体; mso-bidi-font-family:'Times New Roman'; font-size:10.5000pt; mso-font-kerning:1.0000pt; } p.MsoToc1{ mso-style-name:"目录 1"; mso-style-next:正文; margin:0pt; margin-bottom:.0001pt; mso-pagination:none; text-align:justify; text-justify:inter-ideograph; line-height:150%; font-family:Calibri; mso-fareast-font-family:宋体; mso-bidi-font-family:'Times New Roman'; font-size:12.0000pt; mso-font-kerning:1.0000pt; } p.MsoHeader{ mso-style-name:页眉; margin:0pt; margin-bottom:.0001pt; border-top:none; mso-border-top-alt:none; border-right:none; mso-border-right-alt:none; border-bottom:none; mso-border-bottom-alt:none; border-left:none; mso-border-left-alt:none; padding:1pt 4pt 1pt 4pt ; layout-grid-mode:char; mso-pagination:none; text-align:justify; text-justify:inter-ideograph; font-family:Calibri; mso-fareast-font-family:宋体; mso-bidi-font-family:'Times New Roman'; font-size:9.0000pt; mso-font-kerning:1.0000pt; } span.msoIns{ mso-style-type:export-only; mso-style-name:""; text-decoration:underline; text-underline:single; color:blue; } span.msoDel{ mso-style-type:export-only; mso-style-name:""; text-decoration:line-through; color:red; } @page{mso-page-border-surround-header:no; mso-page-border-surround-footer:no;}@page Section0{ margin-top:72.0000pt; margin-bottom:72.0000pt; margin-left:90.0000pt; margin-right:90.0000pt; size:595.3000pt 841.9000pt; layout-grid:15.6000pt; mso-header-margin:42.5500pt; mso-footer-margin:49.6000pt; } div.Section0{page:Section0;}
目 录
一、hadoop伪分布安装
(一)jdk安装
(二)配置SSH免密
(三)hadoop安装准备
(四)配置文件
(五)启动Hadoop
hadoop伪分布安装
(一)安装jdk
1.切换为root用户,将jdk文件复制到/usr/local目录下
2.移动到/usr/local,解压jdk文件,输入
tar -zxvf jdk-8uxxxx.tar.gz
3.将解压后的文件更名为jdk,方便环境配置,输入
mv jdk-1.8.x jdk
4.切换为root用户,添加环境变量,输入
vim /etc/profile
在末尾添加
export JAVA_HOME=/usr/local/jdk
export PATH=.:$PATH:$JAVA_HOME/bin
5.切换为普通用户,更新环境变量,输入
su hadoop
source /etc/profile
6.检查jdk安装是否成功,输入
java -version
显示出java版本和位数即为成功
补:(rpm -qa|grep jdk
yum -y remove java jdk........................卸载)
(二)配置SSH免密
1.切换到root用户 修改/etc/sysconfig/network
将HOSTNAME=hadoop01
修改之后 ,点击reboot 重启系统
2.切换到root用户编辑hosts文件
vim /etc/hosts 文件
末尾一行添加
自己的ip hadoop01 hadoop01
3.切换为普通用户(hadoop)
su hadoop
ssh-keygen -t rsa
敲击3次回车
4.查看私钥(id_rsa)和公钥(id_rsa.pub)
cd ~/.ssh
cat id_rsa
cat id_rsa.pub
5.配置免密
cp id_rsa.pub authorized_keys
6.查看是否配置好SSH免密
ssh hadoop@hadoop01
输入yes之后 显示日期时间即为配置成功
(三)hadoop安装准备
我们已经安装好了jdk并且配置好了SSH免密。现在进行hadoop的安装,hadoop下载地址如上,我选择的是hadoop-2.6.0.tar.gz版本,现在通过安装教程为大家演示一遍,hadoop的安装过程,
首先我们在~目录下创建一个bdp文件夹(注意这里要使用普通用户),然后我们通过在cp命令将hadoop拷贝到bdp目录下,使用tar -zxvf命令解压hadoop-2.6.0.tar.gz压缩包,删除安装包,将hadoop解压文件更名为hadoop,切换为root用户。
修改/etc/profile环境变量文件,向文件末尾一行追加
export HADOOP_HOME=/home/hadoop/bdp/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
export PATH=.:$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
将hadoop 的环境追加到环境变量中,追加之后切换为普通用户
source /etc/profile
接下来的就是最为重要的修改配置文件
(四)配置文件
一共有八个
配置文件的目录在 ~/bdp/hadoop/etc/hadoop/ 下
那我们来修改第一个配置文件
1.hadoop.env.sh
vim hadoop.env.sh
找的 export JAVA_HOME
修改为 export JAVA_HOME=/usr/local/jdk
2.yarn-env.sh
vim yarn-env.sh
找的 #export JAVA_HOME
由于添加的 #注释我们不能很快的找
去掉注释 并修改为
export JAVA_HOME=/usr/local/jdk
3.mapred-env.sh
vim mapred-env.sh
同样找#注释的export JAVA_HOME
去掉注释 并修改为
export JAVA_HOME=/usr/local/jdk
4.slaves
vim slaves
将localhost修改为hadoop01 ,因为我们搭建的是伪分布式
5.创建目录
mkdir -p /home/hadoop/bdp/hadoop/tmp
mkdir -p /home/hadoop/bdp/hadoop/name
mkdir -p /home/hadoop/bdp/hadoop/data
6.core-site.xml
vim core-site.xml
找到 <configuration></configuration>标签
向标签内添加
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/hadoop/bdp/hadoop/tmp</value>
</property>
7.hdfs-site.xml
同样向标签内添加
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/bdp/hadoop/name</value>
</property> <property> <name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/bdp/hadoop/data</value>
</property> <property> <name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
8.mapred-site.xml
此时我们发现并没有这个文件 只有一个与其类似的 mapre-site.xml.template文件
我们通过cp mapre-site.xml.template mapre-site.xml
获得mapre-site.xml文件
vim mapre-site.xml
添加
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
9.yarn-site.xml
vim yarn-site.xml
添加
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop01</value>
</property>
修改yarn-site.xml还要添加
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
不然运行MapReduce会出现错误
(五)启动Hadoop
1.
cd /home/hadoop/bdp/hadoop/bin
hdfs namenode -format
这里系统提示我们HADOOP环境配置出错
我们通过root用户
将空格去掉
更新环境 source /etc/profile
再 hdfs namenode -format 格式化 hdfs
cd /home/hadoop/bdp/hadoop/sbin
输入 start-all.sh
启动hadoop
确定输入yes
2.关闭防火墙
service iptables stop (root用户下)关闭防火墙重启失效
chkconfig iptables off(root用户下)开机不启动防火墙
3.登陆hadoop网页控制
在linux打开火狐浏览器
输入 http://localhost:50070/
就可以看到上述查看hadoop状况网页
4.游客登陆
在本机linux无法通过 http://localhost:8088/登陆
退出linux界面,点开电脑浏览器
输入 http://linux 的当前ip :8088/ 就可以访问到hadoop游客网站




