码迷,mamicode.com
首页 > 其他好文 > 详细

hadoop搭建

时间:2018-08-25 18:47:58      阅读:117      评论:0      收藏:0      [点我收藏+]

标签:ESS   ado   通过   prope   数据信息   jar包   star   etc   安装   

1.安装jdk

2.下载:hadoop.apache.org 解压缩hadoop-x.x.x 程序jar包:share/hadoop

3.配置文件:cd etc -> hadoop-env.sh : export JAVA_HOME

  3.1 core-site.xml   

<confiration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://(hdp-01 主机名):9000/</value>
    </property>
</confiration>

  3.2 hdfs-site.xml

<confiration>
    <property>
        <name>dfs.namenode.name.dir</name> 存放namenode元数据的目录
        <value></value> 自定义一个目录
    </property>
<property>
        <name>dfs.datanode.data.dir</name> 存放namenode元数据的目录
        <value></value> 自定义一个目录与namenode的不一致
    </property>
</confiration>

4、分发hadoop 到其他节点 

scp -r hadoop-2.8.1/ hdp-02:/路径 

5、namenode初始化 元数据

配置PATH  HADOOP_HOME=XXX

命令:hadoop namenode -format

6、启动hadoop  (jps jdk的命令 只能看到java进程)

hadoop-damon.sh start namenode   9000端口(hdfs客户端和namanode的交互) 和50070端口namenode web服务器 http协议

各个节点:hadoop-damon.sh start datanode datanode通过hadoop配置文件9000端口获取元数据信息。

修改hadoop中slaves(把需要启动datanode的节点列入)

7、配置secondaryname  hdfs-site.xml

<property>
        <name>dfs.namenode.secondary.http-address</name> 
        <value>hdp-02:50090</value> 和namenode不要在同一个节点
    </property>

8、先免密登录配置 多个节点开启命令 start-dfs.sh stop-dfs.sh 

 

hadoop搭建

标签:ESS   ado   通过   prope   数据信息   jar包   star   etc   安装   

原文地址:https://www.cnblogs.com/zlz-bigdata/p/9534610.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!