码迷,mamicode.com
首页 > 编程语言 > 详细

head first c<12>初探线程

时间:2014-05-24 18:35:03      阅读:410      评论:0      收藏:0      [点我收藏+]

标签:neo4j   内存溢出   nosql   大数据   

CPU: I3 2.4Ghz 4,内存8G

  • 方式一:采用其原生接口操作

JVM-Xms1024m -Xmx1024m -Xmn512m-XX:PermSize=128m -XX:MaxPermSize=256m

4000节点(50个属性),4000关系:1,其间cpu使用率25%761M

8000节点(50个属性),8000关系:2,其间cpu使用率25%829M

16000节点(50个属性),16000关系:5,其间cpu使用率25983M

24000节点(50个属性),24000关系:9,其间cpu使用率25%1079M

32000节点(50个属性),32000关系:14,其间cpu使用率25%1187M

40000节点(50个属性),40000关系:执行1多分钟以后直接报outOfMemery: java heap space

 

内存使用:

 bubuko.com,布布扣


结论:插入时用事务插入接口的话,在JVM 1G内存的配置下最后能够插入3万多个节点和关系,再多就内存溢出。

 

  • 方式二:采用BatchInserter接口

JVM:采用JVM默认设置

40000节点(50个属性),40000关系:6秒,其间CPU使用率25%,内存288M

80000节点(50个属性),80000关系:17秒,其间CPU使用率25%,内存288M

120000节点(50个属性),120000关系:31秒,其间CPU使用率25%内存289M

200000节点(50个属性),200000关系:56秒,其间CPU使用率25%内存288M

 

分析

        根据官方文档,当少量数据(根据测试观察5000条以下)插入时,建议使用事务型插入接口(即通常NEO4J的数据操作接口),速度还是可以的;当数据量比较大时,建议采用专用的BatchInserters接口,这个接口在插入时不创建事务,估计内存占用很少,基本上在不同数据量的操作期间内存无太大变化。由此可见,在向NEO4J导入大量数据时,可以有以下两种方法实现快速插入:

  1. 化大为小法

此法是将大量的数据集合分成5000条或者更少集合,使用事务型插入接口插入数据,这样整体的插入时间按照以上的测试结果,100000条数据可以在30秒内插入完毕。缺点是需要分拆数据集合为小的集合;优点是当用户已经在运行一组NEO4J的数据库时,只需改造相关的代码即可,也不需要在导入期间暂停数据库。

  1. 批量插入法

此法不管数据量多大,都可以实现快速插入,实现速度和内存的平衡,适合在初始化数据库时(或者需要大量导入数据时)一次性导入大量的数据;缺点是导入数据时要暂停数据库,采用BatchInserters接口导入,不能实现业务无中断运行。

 

建议:

      采用化大为小法,当插入(导入)数据量大于1000个时,采用分批插入的方法,可以达到快速插入数据的目的,也能保证内存占用量不会有太大的变化而导致OOM



head first c<12>初探线程,布布扣,bubuko.com

head first c<12>初探线程

标签:neo4j   内存溢出   nosql   大数据   

原文地址:http://blog.csdn.net/wangxiaobupt/article/details/26691959

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!