码迷,mamicode.com
首页 > 其他好文 > 详细

hadoop(1.2) 分布式部署

时间:2014-11-26 06:50:52      阅读:261      评论:0      收藏:0      [点我收藏+]

标签:hadoop

1. 部署环境

系统:  CentOS 6.3

需要安装jdk.

JDK的RPM下载地址: http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html

hadoop手册地址: http://hadoop.apache.org/docs/r1.2.1/index.html

关闭iptables和selinux

/etc/init.d/iptables stop
chkconfig iptables off
sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/‘ /etc/selinux/config
setenforce 0

 

2. SSH配置

useradd hadoop
echo 123456 | passwd --stdin hadoop
su - hadoop

ssh-keygen -t rsa                                      #生成密钥对
ssh-copy-id user@ip                                    #将ssh公钥copy到指定的主机

cd .ssh #每台服务器本机也需要配置ssh免密码登录
cat id_rsa.pub  >> authorized_keys

 

3. 部署hadoop

官网: http://hadoop.apache.org/

下载: http://mirror.bit.edu.cn/apache/hadoop/common/

wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
tar xf hadoop-1.2.1.tar.gz

 

修改配置

     1.    conf/hadoop-env.sh

这是一个脚本文件,主要是用来初始化hadoop环境的.

修改JAVA_HOME变量, 告诉在那里可以找到java ,  这里安装的是oracle jre的rpm,如下配置..

vi hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_67

 

    2.    conf/core-site.xml

<configuration>
  <property>
    <name>fs.default.name</name>                      #指定名称节点在哪里...
    <value>hdfs://hadoop1:9000</value>                #名称节点是hadoop1, 也可以写成ip地址.
  </property>

  <property> 
    <name>hadoop.tmp.dir</name>                       #指定hadoop的临时文件目录,如果不指定会使用/tmp
    <value>/home/hadoop/hadoop-1.2.1/tmp</value>      #要记得创建目录 mkdir /home/hadoop-1.2.1/tmp
  </property>

  <property>
   <name>fs.trash.interval</name>                     #指定回收站的清空间隔
   <value>21600</value>                               #单位是分钟
   <description>
     Number of minutes between trashcheckpoints. If zero, the trash feature is disabled
   </description>
  </property>
</configuration>

 

     3.  conf/hdfs-site.xml

<configuration>
  <property>
    <name>dfs.replication</name>                          #定义hdfs的复制因子,保存多少副本数
    <value>2</value>                                      #如果是1的话,不复制..
  </property>

  <property>
    <name>dfs.block.size</name>
    <value>67108864</value>
    <description>The default block size for new files.</description>
  </property>
</configuration>

 

    4. conf/mapred-site.xml

<configuration>
  <property>
    <name>mapred.job.tracker</name>                       #指定jobtracker的地址和监听端口
    <value>hadoop1:9001</value>
  </property>
</configuration>

 

     5.  conf/masters

hadoop1                                               #在文件中指定充当master的主机名称

 

     6.  conf/slaves

hadoop2                                               #在文件中指定充当salve的主机名称
hadoop3

 

    7.  修改hosts

vi /etc/hosts
192.168.188.210 hadoop1
192.168.188.220 hadoop2
192.168.188.230 hadoop3

 

    8. 将hadoop目录scp到其他的设备上

所有的hadoop的内容都是一样的,直接scp -r过去就可以了

cd /home/hadoop
scp -r hadoop-1.2.1 ip:/home/hadoop

 

    9. 格式化名称节点

cd hadoop-1.2.1
./bin/hadoop namenode -format

如果最后面的信息有下面这样的表示成功...
14/08/30 11:37:05 INFO common.Storage: Storage directory /home/hadoop/hadoop-1.2.1/tmp/dfs/name has been successfully formatted.

 

4.  启动hadoop

./bin/start-all.sh

 

如果第一次启动不成功,可以运行jps命令查看进程

如果安装的是oracle jdk 的rpm

/usr/java/jdk1.7.0_67/bin/jps  如果有hadoop的进程,可以运行kill命令将其杀掉,然后在启动..

启动后的日志在logs目录中

jobtracker  namenode  secondarynamenode 日志默认都在master上...

tasktracker  datanode    在所有slave的logs中.

 

5.  启动后的检查

通过jps命令查看,    java的进程统计列表

/usr/java/jdk1.7.0_67/bin/jps

 

 

总结:

1. 配置hosts文件

2. 建立hadoop运行账号

3. 配置ssh免密码登录

4. 下载并解压hadoop安装包

5. 配置namenode, 修改site文件

6. 配置hadoop-env.sh

7. 配置masters和slaves文件

8. 向各节点复制hadoop

9. 格式化namenode

10. 启动hadoop

11. 用jps检验各后台进程是否成功启动


本文出自 “晓风残月” 博客,请务必保留此出处http://kinda22.blog.51cto.com/2969503/1582552

hadoop(1.2) 分布式部署

标签:hadoop

原文地址:http://kinda22.blog.51cto.com/2969503/1582552

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!