??
#号提示是root用户的标志,而ubuntu默认的是普通用户,此时提示是$,并且并不能通过su切换用户命令进行切换,通常来说使用sudo即可完成对应的工作,但是如果在某些情况下希望使用带#的提示符,可以打开一个带超级用户权限的shell
alloy@ubuntu:~$ sudo -s
[sudo] password for alloy:
root@ubuntu:~#...
分类:
其他好文 时间:
2014-07-22 23:06:12
阅读次数:
281
Hive是一个基于hadoop的数据仓库工具。Hive的查询语言是hive ql。一种类似sql的语言。
Hive支持的数据类型有
1整形:
Tinyint 1字节整型
Smallint 2字节整型
Bigint 8字节整型
2.布尔型
Boolean
3浮点型
Float
Double
4字符串类型
String
5.符合类型
...
分类:
其他好文 时间:
2014-07-22 23:03:34
阅读次数:
393
在AWS里用Elastic Map Reduce 开一个Cluster然后登陆master node并编译以下程序:import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
...
分类:
其他好文 时间:
2014-07-22 23:01:32
阅读次数:
405
Vi编辑器修改文件.bash_profile可解决backspace出现乱码问题
使用SecureCRT或是pietty_ch连接到一台安装有Oracle DB 10g的RHEL4.2的机器,linux使用的shell是默认的bash。
在bash提示符下,使用Del键或者Backspace键...
分类:
其他好文 时间:
2014-07-22 23:01:14
阅读次数:
344
*************************** list.txt : 目录
********************************1. variable.sh2. condition.sh3. control.sh4.
AndOr.sh5. statementBlock.sh6. ...
分类:
系统相关 时间:
2014-07-22 23:00:55
阅读次数:
382
本文以康哥的博客为基础进行修改和补充,详见:http://kangfoo.github.io/article/2014/01/hadoop1.x-wordcount-fen-xi/hadoop
mapreduce 过程粗略的分为两个阶段: 1.map; 2.redurce(copy, sor...
分类:
其他好文 时间:
2014-05-02 00:06:57
阅读次数:
553
Requirement-Driven Linux Shell
ProgrammingRequirement-Driven Linux Shell ProgrammingTable of Contents1. Where
can I find the basic Material about Linu...
分类:
系统相关 时间:
2014-05-01 20:40:05
阅读次数:
678
读研几年主要做的是控制领域的开发研究,做的硬件以及底层开发比较多。现在毕业了,开始发力软件领域,那么就让我从最简单基础的shell编程开始吧争取打扎实基础。
从程序员的角度来看,Shell本身是一种用C语言编写的程序,从用户的角度来看,Shell是用户与Linux操作系统沟通的桥梁。用户既可以...
分类:
其他好文 时间:
2014-05-01 19:58:41
阅读次数:
357
javaScript 关于Windows
1 Windows 对象
所有浏览器都支持 window 对象。它表示浏览器窗口。
所有 JavaScript 全局对象、函数以及变量均自动成为 window 对象的成员。
全局变量是 window 对象的属性。
全局函数是 window 对象的方法。
window.document.getElementById("header");
2...
分类:
编程语言 时间:
2014-04-30 22:27:39
阅读次数:
499
很早以前有个Pig Spork分支,尝试把Pig迁移到Spark上,但是代码很久没有更新了。目前Pig on Spark应该是在Twitter内部进行着。
flare-spork是基于Spork对Pig和Spark的衔接,把Spark部分的代码迁移到了Pig 0.12.0上,并且升级了依赖和版本,升级为Scala 2.10.3,Spark 0.9.1,且兼容Hadoop 2.2.0。
目前项目在Github上,地址。打算参考Spork已经做的一些东西,继续Pig on Spark的开发。
Github...
分类:
其他好文 时间:
2014-04-30 22:15:39
阅读次数:
360