单位的电子邮件最大只能发5MB的附件,因此在发送文件的时候,经常会使用压缩软件把附件进行压缩分卷,一个大的附件经常会分成十几甚至几十个小文件。在压缩的时候想起了很久以前思考的一个问题:
数据能不能被无限压缩?
在小学六年级电脑课教使用压缩软件的时候,老师说对已经压缩过的文件再压缩是没有效果的。实际生活中直觉告诉我们也是这样的:像程序代码之类的文本文件,压缩率很高,几十MB的文件经过压缩...
分类:
其他好文 时间:
2015-02-19 10:47:06
阅读次数:
229
对于PHP,一个小小让我不敢置信的事情很多,包括引用变量哪么迟钝,普通变量哪么牛B我己经很意外,甚至现在竟然出现了BOM头的BUG。 在PHP中,会引用很多小文件,include或require,哪么比如你require了一个源文件有BOM,哪么输出结果都会有BOM。这很不理智,我觉得应该第一...
分类:
Web程序 时间:
2015-02-11 18:12:55
阅读次数:
137
linux split 命令 功能说明:切割文件。 语 法:split [--help][--version][-][-b ][-C ][-l ][要切割的文件][输出文件名] 补充说明:split可将文件切成较小的文件,预设每1000行会切成一个小文件。 参 数: -或-l 指定每...
分类:
系统相关 时间:
2015-02-10 13:07:35
阅读次数:
158
使用Python 获取文件的MD5 值是一件很简单的事情,Python 提供了md5 和 hashlib 两个模块,都可以获取到文件的md5值。
代码如下:
#获取文件的MD5值,适用于小文件
def getFileMD5(self,filepath):
if self.isFile(filepath):
f = open(filepath,'r...
分类:
编程语言 时间:
2015-02-10 09:15:53
阅读次数:
176
工作中遇到要上传下载的功能,而中间接收的服务器最大只能接收200M的文件,对于大文件无法满足,所以只能在上传的时候对大于100M的文件进行分割,分割成的小文件为原大文件名+.temp+i。在下载端,下载完成后再对其进行合并。 思路:文件的分割与合并就是将文件先转换成流再对其进行操作。 /// ...
HDFS分布式文件系统:优点:支持超大文件存储、流式访问、一次写入多次读取。缺点:不适应大量小文件、不适应低时延的数据访问、不适应多用户访问任意修改文件。1.hadoop用于大数据处理,在数据量较小时,并不适用于实时性强的任务,并不是所有的job放到hadoop上,性能都会提升。2.大量小文件的情况...
分类:
其他好文 时间:
2015-01-30 21:00:06
阅读次数:
358
#假设目录下全部都是普通文件,如果目录下还有子目录请#参考文章"读取文件夹下所有文件返回路径",#http://blog.csdn.net/dulixin/archive/2008/02/29/2133840.aspx##此脚本的方法主要应用于处理大批量中小文件##主要使用命令:open、strin...
分类:
其他好文 时间:
2015-01-29 09:16:41
阅读次数:
135
A.文件上传思路:发送文件数据给服务器使用post请求必须手动设置请求头: 内容大小Content-Length & 内容类型 Content-Type请求体:文件数据文件上传的格式要求十分严格,必须严格遵守由于是一次性加载文件到内存上传,所以只能用于小文件上传B.实现1.设置POST请求(1)使用...
分类:
移动开发 时间:
2015-01-29 01:18:20
阅读次数:
338
http://blog.csdn.net/pipisorryPDF文件图文并茂,十分耐看。但是这些美观的PDF文件往往很大,即使是用最好的电子邮件服务也要花费很长时间才能够发送成功。但如果遇到这种情况,你也可以采取各种办法来减小文件的大小。请继续阅读。方法 1: 使用PDF转换器 1下载PDF转换器...
分类:
其他好文 时间:
2015-01-27 18:08:35
阅读次数:
262
介绍HDFS和HBase是Hadoop中两种主要的存储文件系统,两者适用的场景不同,HDFS适用于大文件存储,HBASE适用于大量小文件存储。本文主要讲解HDFS文件系统中客户端是如何从Hadoop集群中读取和写入数据的,也可以说是block策略。正文一写入数据当没有配置机架信息时,所有的机器ha..
分类:
其他好文 时间:
2015-01-26 19:31:22
阅读次数:
172