开始以为是core文件太大,设置ulimit -c unlimited 以后,再次访问,显示./a.out Segmentation fault (core dumped)但是却找不到这个文件的地方,最后sysctl kernel.core_patternkernel.core_pattern = ...
分类:
其他好文 时间:
2014-06-26 17:21:12
阅读次数:
188
在我们日常的数据库运行中,一般数据库文件才几十M ,但ldf 的日志文件就占到了 几个G的空间,所以 有时需要清理一下。下面是运行脚本的语句:declare @db nvarchar(20)set @db='你的数据库文件名'dump transaction @db with no_logbacku...
分类:
数据库 时间:
2014-06-25 17:21:52
阅读次数:
278
原地址:http://blog.csdn.net/feidewu/article/details/8395864使用VS的人一方面享受着它功能的强大,一方面又十分痛恨他生成的文件占用的空间太大了,硬盘吃不消啊! 一个helloworld程序,用DEV ++也就那么几K,但是用VS就要占到几十M,主要...
分类:
其他好文 时间:
2014-06-18 20:42:23
阅读次数:
168
一般我们在linux上读取文件,是用vi工具,如果是写shell 脚本时,一般式通过cat 再
使用管道来达到流的处理。但如果文件太大,单纯的cat 可能会使用过多的内存,而且实现上还需要后续的加工,不大可取。下面我分享两个方法来读取部分文件。方法一sed
-n "10,20p" /opt/chen...
分类:
系统相关 时间:
2014-06-16 07:23:20
阅读次数:
308
如果你有文件太大,导致一些携带式装置无法复制的问题,嘿嘿!找 split 就对了!
他可以帮你将一个大文件,依据文件大小或行数来分割,就可以将大文件分割成为小文件了! 快速又有效啊!真心不错~[root@www ~]# split [-bl]
file PREFIX选项与参数:-b :后面可接...
分类:
系统相关 时间:
2014-05-14 07:26:00
阅读次数:
446
又是给女朋友做的……没有需求就没有动力这真的是一个合格的程序员么喂。
因为是在Windows下用,不能用bash也不能写Python,只好写成VBS。
第一次用VBS,这货比起Python真是难用得要命,微软太不争气了。不过也算是学了一门新技能吧。
其实这脚本一点也不健壮,文件数量过多时会堆栈溢出,文件名太长会报错,文件太大倒是没测过,想必也有问题。
她已经用完了,咱也没动力改了。...
分类:
其他好文 时间:
2014-05-11 02:02:27
阅读次数:
372
从外网把数据库中的表结构以及数据用”导出脚本“的方式导出来(1.628G的样子),但是在本机执行sql脚本的时候,直接就是out of memory。
之前执行60M的脚本没出过这种问题,直接双击打开.sql脚本文件,然后执行就完了。现在主要是这文件太大了,就报错了,后面不停的google...
分类:
数据库 时间:
2014-05-04 11:19:22
阅读次数:
351