码迷,mamicode.com
首页 >  
搜索关键字:jps    ( 565个结果
Java性能调优工具
1、JDK命令行工具 1.1、jps命令 jps用于列出Java的进程,jps可以增加参数,-m用于输出传递给Java进程的参数,-l用于输出主函数的完整路径,-v可以用于显示传递给jvm的参数。jps -l -m -v3142...
分类:编程语言   时间:2014-11-13 08:19:39    阅读次数:209
jps命令使用
jps工具jps(Java Virtual Machine Process Status Tool)是JDK 1.5提供的一个显示当前全部java进程pid的命令,简单有用,很适合在linux/unix平台上简单察看当前java进程的一些简单情况。jps(Java Virtual Machine P...
分类:其他好文   时间:2014-11-11 15:44:38    阅读次数:123
JDK 自带工具试用(一)
简述:运维监控会用到JDK的小工具说明:1. jps用来查看当前运行的Java进程我在eclipse中起了一个web 应用或者用jps -l 可以查看的更清楚一点jps -v看到10376之后用taskkill指令关闭2. jstat虚拟机统计信息监视工具先用jps查看当前启动的应用于是使用[pla...
分类:其他好文   时间:2014-11-10 17:04:36    阅读次数:172
namenode 无法启动之每次开机需要重新格式化-tmp
最近遇到了一个问题,执行start-all.sh的时候发现JPS一下namenode没有启动 每次开机都得重新格式化一下namenode才可以 其实问题就出在tmp文件,默认的tmp文件每次重新开机会被清空,与此同时namenode的格式化信息就会丢失 于是我们得重新配置一个tmp...
分类:其他好文   时间:2014-10-30 13:06:01    阅读次数:211
Hadoop集群启动之后,datanode节点未正常启动的问题
Hadoop集群启动之后,用JPS命令查看进程发现datanode节点上,只有TaskTracker进程.如下图所示master的进程:两个slave的节点进程发现salve节点上竟然没有datanode进程.查看了日志,发现有这样一句话:这句话的意思是:datanode上的data目录权限是765...
分类:其他好文   时间:2014-10-28 02:02:29    阅读次数:634
JVM无法启动,jps无法运行,提示内存不足
原因:系统设置中有设置了不允许over commitso,无法分配足够内存/etc/sysctl.conf vm.overcommit_memory=1 或者sysctl vm.overcommit_memory=1 或者 echo 1 > /proc/sys/vm/overcommit_mem.....
分类:其他好文   时间:2014-10-23 11:58:18    阅读次数:251
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(5)
从控制台我们可以看见有两个DataNode,此时我们点击“Live Nodes”查看一下其信息: 从控制台中看到了我们的两个Datanode节点SparkWorker1和SparkWorker2,这正是我们预期中的! 第三步:启动yarn集群 使用jps命令...
分类:其他好文   时间:2014-10-21 10:32:36    阅读次数:169
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(5)
从控制台我们可以看见有两个DataNode,此时我们点击“LiveNodes”查看一下其信息:从控制台中看到了我们的两个Datanode节点SparkWorker1和SparkWorker2,这正是我们预期中的!第三步:启动yarn集群使用jps命令可以发现SparkMaster机器上启动了ResourceManager进程:而在SparkWo..
分类:其他好文   时间:2014-10-21 10:27:47    阅读次数:163
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(5)
从控制台我们可以看见有两个DataNode,此时我们点击“Live Nodes”查看一下其信息: 从控制台中看到了我们的两个Datanode节点SparkWorker1和SparkWorker2,这正是我们预期中的! 第三步:启动yarn集群 使用jps命令可以发现SparkMaster机器上启动了ResourceManager进程: 而在Spa...
分类:其他好文   时间:2014-10-21 10:24:25    阅读次数:230
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第五步)(5)
从控制台我们可以看见有两个DataNode,此时我们点击“Live Nodes”查看一下其信息:从控制台中看到了我们的两个Datanode节点SparkWorker1和SparkWorker2,这正是我们预期中的!第三步:启动yarn集群使用jps命令可以发现SparkMaster机器上启动了Res...
分类:其他好文   时间:2014-10-21 10:16:02    阅读次数:221
565条   上一页 1 ... 52 53 54 55 56 57 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!