码迷,mamicode.com
首页 > 其他好文 > 详细

hdfs的部署

时间:2019-02-19 21:17:52      阅读:228      评论:0      收藏:0      [点我收藏+]

标签:ddr   bash   pwd   key   ref   hdfs   apach   点击   log   

1.hdfs三个进程分别为namenode、datanode、secondarynamenode   hdfs是hadoop的一个组件,hadoop一共有3个组件分别为hdfs,yarn,mapreduce,这三个组件的功能分别为存储,调度,计算

hdfs三个进程要以hadoop002启动需要配置文件,步骤如下:

etc/hadoop
conf

[hadoop@hadoop001 hadoop]$ pwd
/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop

[hadoop@hadoop002 hadoop]$ ll
total 140
-rw-r--r-- 1 hadoop hadoop 884 Feb 13 22:34 core-site.xml
                                                                                                核心的配置文件把hdfs mapreduce yarn 一些核心的共有的提供出来
-rw-r--r-- 1 hadoop hadoop 4294 Feb 13 22:30 hadoop-env.sh    JDK目录 hadoop家目录

-rw-r--r-- 1 hadoop hadoop 867 Feb 13 22:34 hdfs-site.xml

-rw-r--r-- 1 hadoop hadoop 11291 Mar 24 2016 log4j.properties

-rw-r--r-- 1 hadoop hadoop 758 Mar 24 2016 mapred-site.xml.template
-rw-r--r-- 1 hadoop hadoop 10 Mar 24 2016 slaves

-rw-r--r-- 1 hadoop hadoop 690 Mar 24 2016 yarn-site.xml

后缀为cmd的文件是window部署此处已经删除
[hadoop@hadoop002 hadoop]$

hadoop的三个组件分别为 hdfs mapreduce yarn

生产 学习: 不用ip部署,统一机器名称hostname部署
只需要/etc/hosts 修改即可(第一行 第二行不要删除)
因为一旦网段地址发生改变重新部署很麻烦,如果用机器名称部署,
只需要在hosts文件里做好ip和机器名称的映射即可


namenode进程:
[hadoop@hadoop002 hadoop]$ vi core-site.xml

<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop002:9000</value>   此处红色字体是指机器名称
</property>
</configuration>

datanode进程:
[hadoop@hadoop002 hadoop]$ vi slaves   slaves里的内容是启动datanode的机器名称  后边还可以有很多歌机器名称用逗号隔开,如红色字体
hadoop002,hadoop001,hadoop003

secondarynamenode进程:

[hadoop@hadoop001 hadoop]$ vi hdfs-site.xml
<property>
<name>dfs.namenode.secondary.http-address</name> 这里的红色字体是从官网上查看的http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/hdfs-                                                                                                                                                                default.xml  (在浏览器中输入hadoop.apache.org,在最左侧一栏找到hdfs-default.xml

                                                                                                                                                 点击进去搜索secondary  对应着名称就找到了)
<value>hadoop002:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>hadoop002:50091</value>
</property>


[hadoop@hadoop002 hadoop-2.6.0-cdh5.7.0]$
[hadoop@hadoop002 hadoop-2.6.0-cdh5.7.0]$ cd
[hadoop@hadoop002 ~]$
[hadoop@hadoop002 ~]$
[hadoop@hadoop002 ~]$
[hadoop@hadoop002 ~]$ ll
total 8
drwxrwxr-x 3 hadoop hadoop 4096 Feb 13 22:21 app
drwxrwxr-x 8 hadoop hadoop 4096 Feb 13 20:46 d5
[hadoop@hadoop002 ~]$ ll -a
total 68
drwx------ 7 hadoop hadoop 4096 Feb 16 20:25 .
drwxr-xr-x. 5 root root 4096 Oct 22 10:45 ..
drwxrwxr-x 3 hadoop hadoop 4096 Feb 13 22:21 app
-rw------- 1 hadoop hadoop 15167 Feb 13 23:29 .bash_history
-rw-r--r-- 1 hadoop hadoop 18 Mar 23 2017 .bash_logout
-rw-r--r-- 1 hadoop hadoop 293 Sep 19 23:22 .bash_profile
-rw-r--r-- 1 hadoop hadoop 124 Mar 23 2017 .bashrc
drwxrwxr-x 8 hadoop hadoop 4096 Feb 13 20:46 d5
drwxrw---- 3 hadoop hadoop 4096 Sep 19 17:01 .pki
drwx------ 2 hadoop hadoop 4096 Feb 13 22:39 .ssh
drwxr-xr-x 2 hadoop hadoop 4096 Oct 14 20:57 .vim
-rw------- 1 hadoop hadoop 8995 Feb 16 20:25 .viminfo
[hadoop@hadoop002 ~]$ ll .ssh
total 16
-rw------- 1 hadoop hadoop 398 Feb 13 22:37 authorized_keys
-rw------- 1 hadoop hadoop 1675 Feb 13 22:36 id_rsa
-rw-r--r-- 1 hadoop hadoop 398 Feb 13 22:36 id_rsa.pub
-rw-r--r-- 1 hadoop hadoop 780 Feb 13 22:49 known_hosts

hdfs的部署

标签:ddr   bash   pwd   key   ref   hdfs   apach   点击   log   

原文地址:https://www.cnblogs.com/xuziyu/p/10403353.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!