1:启动MongoDB2014-07-25T11:00:48.634+0800 warning: Failed to connect to 127.0.0.1:27017, reason: errno:10061 由于目标计算机积极拒绝,无法连接。2:添加一配置文件##数据文件dbpath=E:\r...
分类:
数据库 时间:
2014-07-25 14:06:41
阅读次数:
330
1.查询v$database获得
由于DBID在控制文件和数据文件中都存在记录,所以如果能够mount数据库就可以查询v$database视图获得.
SQL> alter database mount;
Database altered.
SQL> select dbid from v$database;
DBID
----...
分类:
数据库 时间:
2014-07-25 11:20:41
阅读次数:
332
今天在linux中打开Weka时,打开基因数据文件的时候出现如题所示的错误,说内存不足,需要设定一个更大的内存空间,只要执行以下命令sudo java -Xmx1024m -jar /usr/lib/R/library/RWekajars/java/weka.jar后,问题就解决了。不过这个命令分....
分类:
其他好文 时间:
2014-07-25 10:54:41
阅读次数:
268
1、PROC IMPROT的特点默认情况下,PROC IMPORT扫描数据文件的前20行,并据此为变量分配变量类型(数值型or字符型);自动为字符型变量分配长度,为数值型变量分配格式为BEST32(自己总结,不一定对);将连续的两个分隔符看作是缺失值;读入某一行数据时,若该行数据不足以分配给变量,则...
分类:
其他好文 时间:
2014-07-24 14:46:05
阅读次数:
401
2014-07-24 BaoXinjian一、摘要我们知道oarcle数据库真正存放数据的是数据文件(data files);Oarcle表空间(tablespaces)实际上是一个逻辑的概念,他在物理上是并不存在的,那么把一组data files 捻在一起就成为一个表空间;在ORACLE数据库中,...
分类:
数据库 时间:
2014-07-24 14:34:58
阅读次数:
404
假设SQL Server 2008中有个数据库test,现在要将其改名为zhy步骤:(1) 分离数据库:打开management studio,找到test数据库-->右键-->任务-->分离(2) 改名:然后到数据库物理路径(例如C:/Program Files/Microsoft SQL Ser...
分类:
数据库 时间:
2014-07-24 10:03:03
阅读次数:
222
本来是想汉化eclipse那个新建java类,本来想通过swt的方式获取子控件修改名字。
结果跟着源代码就看到了它的属性文件。所以做法就是直接更改里面的英文。再扔到jar包里。
复制一点着文件的内容:
###############################################################################
# Copyright (c) ...
分类:
系统相关 时间:
2014-07-23 22:35:07
阅读次数:
264
北京红樱枫软件有限公司是一家日本企业在中国投资设立的独资软件开发公司。是目前国内数据文件格式转换领域的领先提供商。主要开发各种数据文件格式转换器、多媒体浏览器、纯文本抽出通用程序库、PDF文件生成程序库、PDF文件读取程序库、PDF文件转换器、HTML文件转换程序库等软件产品。另外我公司在XML技术领域方面也做了大量的研发工作。经过几年的努力,同日本总公司共同成功的开发了XML编辑器、XMLParser以及XSL Formatter等产品,在对XML和XSL规范的实现上是目前世界上最好的产品。目前,公司软件...
分类:
其他好文 时间:
2014-07-23 17:00:31
阅读次数:
387
一、概念表空间是数据库的逻辑组成部分。从物理上讲,数据库数据存放在数据文件中;从逻辑上讲,数据库数据则是存放在表空间中,表空间由一个或多个数据文件组成。二、数据库的逻辑结构oracle中逻辑结构包括表空间、段、区和块。说明一下数据库由表空间构成,而表空间又是由段构成,而段又是由区构成,而区又是由or...
分类:
数据库 时间:
2014-07-23 16:54:01
阅读次数:
364
代码测试环境:Hadoop2.4应用场景:当需要处理很多小数据文件的时候,可以应用此技巧来达到高效处理数据的目的。原理:应用CombineFileInputFormat,可以把多个小数据文件在进行分片的时候合并。由于每个分片会产生一个Mapper,当一个Mapper处理的数据比较小的时候,其效率较低。而一般使用Hadoop处理数据时,即默认方式,会把一个输入数据文件当做一个分片,这样当输入文件较小...
分类:
其他好文 时间:
2014-07-23 13:09:36
阅读次数:
281