UNIX下执行文件的减肥工具 strip
UNIX下文件压缩命令compress大家都比较熟悉了,它的压缩率比较高, 和tar命令结合使用来做数据备份是最合适不过了。但compress压缩也有缺点,就是被压缩后的文件需要用命令uncompress解压后才能正常使用。而用strip命令就没有这个问题,它能清除执行文件中不必要的标示符及调试信息,可减小文件大小而不影响正常使用。但与compres...
分类:
其他好文 时间:
2015-01-09 15:38:48
阅读次数:
146
这个是算法导论的第三版完整版,找了很多地方都是不完整的,这个真的是完整版的,因为csdn资源限制了大小,文件无法上传,所以只能上传到第三方了,文件大小是99M,在网上找了很长时间才找到的,是完整版哦,之前下载的都是不全的,这个是完整的...
分类:
编程语言 时间:
2015-01-08 11:20:16
阅读次数:
207
这个是算法导论的第三版完整版,找了很多地方都是不完整的,这个真的是完整版的,因为csdn资源限制了大小,文件无法上传,所以只能上传到第三方了,文件大小是99M,在网上找了很长时间才找到的,是完整版哦,之前下载的都是不全的,这个是完整的...
分类:
编程语言 时间:
2015-01-08 11:18:34
阅读次数:
206
HDFS简介
HDFS(Hadoop Distributed File System)默认的最基本的存储单位是64M的数据块。
和普通文件系统相同的是,HDFS中的文件是被分成64M一块的数据块存储的。
不同于普通文件系统的是,HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间。
为什么hadoop不适合存储小文件
...
分类:
其他好文 时间:
2014-12-30 17:09:27
阅读次数:
262
敬请参见独立博客页面:http://1.oliverwang.sinaapp.com/?p=40/*The MIT License (MIT)Copyright (c) Permission is hereby granted, free of charge, to any person obta....
分类:
Web程序 时间:
2014-12-29 11:46:58
阅读次数:
197
上一篇博客主要是针对小文件直接导入WW中显示,然而当文件特别大时,这种方式就不太可行。因此要将大文件切片,生成本地缓存,WW可以加载本地缓存文件,保障浏览场景时的流畅性。
1、使用Global Mapper生成WW缓存切片
使用Global Mapper生成WW缓存切片的步骤已上传至使用GlobalMapper生成WW缓存切片,这里不再赘述。生成后的切片可以放在任意文件夹下,目前参考了WWJ自...
分类:
编程语言 时间:
2014-12-20 20:57:29
阅读次数:
342
1.Hive中合并小文件的map only JOB,此JOB只会有一个或很少的几个map。2.输入文件格式为压缩的Text File,因为压缩的文本格式不知道如何拆分,所以也只能用一个map
分类:
其他好文 时间:
2014-12-16 18:52:50
阅读次数:
180
Hadoop 命令手册
1、 用户命令
1.1 archive
1.1.1 什么是Hadooparchives
Hadoop的归档文件,每个文件以块方式存储,块的元数据存储在名称节点的内存里,此时存储一些小的文件,HDFS会较低效。因此,大量的小文件会耗尽名称节点的大部分内存。(注意,相较于存储文件原始内容所需要的磁盘空间,小文件所需要的空间不会更多...
分类:
其他好文 时间:
2014-12-16 15:08:12
阅读次数:
376
小文件拷贝
var fs = require('fs'); function copy(src, dst) {//接受源文件地址和目的文件地址 fs.writeFileSync(dst, fs.readFileSync(src));//从源路径中读取文件内容,然后写入目标路径 } function main(argv) { copy(ar...