环境:CentOS6.564bit在一台客户端机上执行mount命令挂载nfs,结果报如下错误:mount:wrongfstype,badoption,badsuperblockon192.168.0.10:/bak,
missingcodepageorhelperprogram,orothererror
(forseveralfilesystems(e.g.nfs,cifs)youmight
needa/sbin/mount.<type>hel..
分类:
其他好文 时间:
2014-11-20 15:37:46
阅读次数:
169
通过virshconsole链接到KVM虚拟机出现下图所示的这种情况,一直卡在这个界面无法做任何操作。可通过以下方法来解决。1、修改/etc/securetty到最后添加ttyS0echottyS0>>/etc/securetty2、修改/etc/inittab到最后添加S0:12345:respawn:/sbin/agetty/ttyS0115200echo"S0:123..
分类:
其他好文 时间:
2014-11-20 15:32:23
阅读次数:
254
Ubuntu调整mysql数据库存放路径步骤#mkdir/home/mysql/#cp-rv/var/lib/mysql/mysql/home/mysql/#chown-Rmysql/home/mysql#vi/etc/apparmor.d/usr.sbin.mysqld按a或i进入编辑模式#/var/lib/mysql/r,(即注释掉该行)改为/home/mysql/r,#/var/lib/mysql/**rwk,(即注释掉该行)改为/h..
分类:
数据库 时间:
2014-11-20 12:14:52
阅读次数:
189
从配置菜单关闭防火墙是不起作用的,索性在安装的时候就不要装防火墙查看防火墙状态:/etc/init.d/iptablesstatus暂时关闭防火墙:/etc/init.d/iptablesstop禁止防火墙在系统启动时启动/sbin/chkconfig--level2345iptablesoff重启...
分类:
系统相关 时间:
2014-11-20 11:56:44
阅读次数:
283
/bin/ ,/sbin/,/usr/bin/,/usr/sbin/ 这四个目录都是和命令相关的目录,Liunx下命令就是一个可执行的二进制文件,这四个目录都有一个bin,binary的简写 二进制的意识。linux下绝大多数的命令都在这四个目录下/bin/ 存放系统命令的目录,普通用户和超级用户都...
分类:
系统相关 时间:
2014-11-20 01:25:42
阅读次数:
269
[Spark@Master hadoop]$ sbin/start-dfs.sh14/11/19 18:07:49 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using ...
分类:
其他好文 时间:
2014-11-19 20:12:24
阅读次数:
365
yum install openssl openssl-develgroupadd mysqluseradd -g mysql -s /sbin/nologin -M mysqlchown -R mysql:mysql /usr/local/mysql./configure --prefix=/us...
分类:
数据库 时间:
2014-11-19 18:25:42
阅读次数:
192
演示效果:1、一级菜单2、二级菜单3、执行操作脚本参考:#!/bin/bash
#authorlic(oldboylinuxstudent)
#date1304
DISK_NO="/dev/sda1"
NGINX_DIR="/usr/local/tdoa/nginx/sbin/nginx"
MYSQL_DIR="/usr/local/tdoa/mysql/bin/mysqld_safe"
SERVER1="WEB"
SERVER2="MYSQL"
SERVER..
分类:
系统相关 时间:
2014-11-18 01:51:01
阅读次数:
370
在SparkWorker1?和SparkWorker2上使用jps会看到如下进程信息: 第二步:启动Spark集群 在Hadoop集群成功启动的基础上,启动Spark集群需要使用Spark的sbin目录下“start-all.sh”: 此时的SparkWorker1和SparkWo...
分类:
其他好文 时间:
2014-11-17 21:23:05
阅读次数:
184
在SparkWorker1和SparkWorker2上使用jps会看到如下进程信息:第二步:启动Spark集群在Hadoop集群成功启动的基础上,启动Spark集群需要使用Spark的sbin目录下“start-all.sh”:此时的SparkWorker1和SparkWorker2会出现新的进程“...
分类:
其他好文 时间:
2014-11-17 21:01:04
阅读次数:
182