码迷,mamicode.com
首页 > 其他好文 > 详细

大数据集群中各个服务的启动与关闭

时间:2021-02-20 11:58:57      阅读:0      评论:0      收藏:0      [点我收藏+]

标签:nohup   name   大数据   kafka   top   ast   客户端   日志   开启   

tomcat

三个节点都安装了tomcat
启动tomcat

cd /usr/tomcat/apache-tomcat-7.0.57/bin/
./startup.sh

停止tomcat

./shutdown.sh

查看tomcat日志信息

tail -200f /usr/tomcat/apache-tomcat-7.0.57/logs/catalina.out

nginx

hadoop01节点启动并访问nginx

# 1. 进入到nginx 安装目录
cd /usr/local/nginx/
# 2. 进入到 sbin目录,执行 nginx 命令
cd sbin/
./nginx 启动
./nginx -s stop 关闭
./nginx -s reload 重启
./nginx -s reload 重新加载配置文件
ps aux | grep nginx 查看进程

hadoop

非高可用集群

hadoop01节点启动hdfs,启动命令如下:

# 配置了环境变量
# 启动命令
start-dfs.sh
# 关闭命令
stop-dfs.sh

hadoop03启动yarn,启动命令如下:

# 配置了环境变量
# 启动命令
start-yarn.sh
# 关闭命令
stop-yarn.sh

启动历史服务器

mr-jobhistory-daemon.sh start historyserver

mysql

mysql安装在hadoop03节点,是开机自动启动的。如果需要手动启动,命令如下:

# 查看mysql服务状态
systemctl status mysqld
# 启动mysql
systemctl start mysqld
# 关闭mysql
systemctl staop mysqld

用户名和密码

hive 12345678
root 12345678

hive

hive的log默认存放在 /tmp/root 目录下

hadoop03节点开启元数据服务,命令如下:

nohup hive --service metastore &

然后在hadoop02节点启动hive客户端,命令如下:

# 配置了环境变量
hive

flume

启动命令

flume-ng agent --conf conf --conf-file /home/hadoop/app/flume/conf/test_intereptor_01  --name a1 -Dflume.root.logger=INFO,console
# --conf:配置文件所在位置
# --conf-file:定义source,channel,sink的agent配置文件所在位置
# --name:定义的agent名字

zookeeper

hadoop01节点的/root/shells/目录下执行脚本,群起zookeeper集群,命令如下:

# 启动zookeeper
sh zk.sh start 
# 查看zookeeper状态
sh zk.sh status
# 关闭zookeeper
sh zk.sh stop

进入shell客户端

进入到zookeeper安装目录,cd /opt/lagou/servers/zookeeper-3.4.14/bin,执行命令./zkCli.sh

数据存放目录:dataDir=/opt/lagou/servers/zookeeper-3.4.14/data

hbase

主节点是hadoop01和hadoop02节点

hadoop01节点执行启动命令,命令如下:

# 配置了环境变量
# 启动命令
start-hbase.sh
# 关闭命令
stop-hbase.sh

azkaban

hadoop01和hadoop03节点先启动exec-server,命令如下:

# /opt/lagou/servers/azkaban/azkaban-exec-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-exec.sh
# 关闭
bin/shutdown-exec.sh

hadoop02节点再启动web-server,命令如下:

# /opt/lagou/servers/azkaban/azkaban-web-server-0.1.0-SNAPSHOT目录下
# 启动
bin/start-web.sh
# 关闭
bin/shutdown-web.sh

redis

hadoop01节点启动,启动命令如下:

# /usr/redis/bin 目录下
# 后台启动
./redis-server redis.conf
# 后台关闭
./redis-cli shutdown

打开客户端

./redis-cli

kafka

单机kafka

hadoop01节点启动,进入kafka安装目录/opt/lagou/servers/kafka_2.12-1.0.2/,启动命令如下:

# 配置了环境变量
kafka-server-start.sh ./config/server.properties

kafka日志存放目录

/var/lagou/kafka/kafka-logs

大数据集群中各个服务的启动与关闭

标签:nohup   name   大数据   kafka   top   ast   客户端   日志   开启   

原文地址:https://www.cnblogs.com/kyle-blog/p/14414428.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!