码迷,mamicode.com
首页 > 数据库 > 详细

hadoop两个namenode都是standby问题

时间:2020-06-05 13:12:31      阅读:111      评论:0      收藏:0      [点我收藏+]

标签:没有   直接   删除   检查   node   配置   格式   keep   启动   

1、修改配置文件后重启hdfs集群,出现了两个namenode都是standby的问题。

经过不断地排查,发现在自己进行关闭和重启namenode的组件的时候,没有通过pip文件正常关闭,只能挨个关闭,这个也不是重点。

经过修改pip文件的路径,解决了这个批量关闭启动的问题,原因是/tmpe目录系统会定期清理,导致进程号对不上了。

批量启动的时候发现zkfc一直启动不了,手动启动,还是没解决问题。

尝试重新格式化zookeeper上的namenode信息。关闭再启动hdfs集群,注意zkfc的启动状态,这样成功了。

2、hbase上的一个表获取hdfs上的数据块失败,主要也是由于自己新增了datanode,有两个没启动,手动启动一下,问题还是没解决。

执行hbase检查命令,还是那个表的region找不到。直接强制删除表,这样zookeeper上的meat信息都会删掉,再重新建表,问题解决。

hadoop两个namenode都是standby问题

标签:没有   直接   删除   检查   node   配置   格式   keep   启动   

原文地址:https://www.cnblogs.com/guoyu1/p/13048851.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!