码迷,mamicode.com
首页 >  
搜索关键字:spark history    ( 9960个结果
每日一句(2014-9-18)
Better not to ignore the past but learn form it instead,Otherwise history has a way of repeating itself最好不要忽略过去,而是从中得到些教训,否则,历史会不断重复上演Better not to ig...
分类:其他好文   时间:2014-09-18 13:02:33    阅读次数:196
window 对象
1、在页面中载入新页面:location.assgin(""); location.replace();后者会删除以前的页面记录location.reload();//重新载入当前页面location="#middle";//滚动到文档的相应位置2、window的history history.b....
分类:Windows程序   时间:2014-09-18 08:33:53    阅读次数:190
安全运维之:Linux系统账户和登录安全
一、合理使用Shell历史命令记录功能在Linux下可通过history命令查看用户所有的历史操作记录,同时shell命令操作记录默认保存在用户目录下 的.bash_history文件中,通过这个文件可以查询shell命令的执行历史,有助于运维人员进行系统审计和问题排查,同时,在服务器遭受黑客攻 击...
分类:系统相关   时间:2014-09-18 00:31:13    阅读次数:395
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第四步)(2)
第二步:使用Spark的cache机制观察一下效率的提升基于上面的内容,我们在执行一下以下语句:发现同样计算结果是15.此时我们在进入Web控制台:发现控制台中清晰展示我们执行了两次“count”操作。现在我们把“sparks”这个变量执行一下“cache”操作:此时在执行count操作,查看..
分类:其他好文   时间:2014-09-17 15:35:23    阅读次数:232
spark1.1.0 snappy依赖高版本gcc
最近更新了spark到1.1.0版本。跑任务出错。 Caused by: java.lang.UnsatisfiedLinkError: /tmp/snappy-1.0.5.3-6ceb7982-8940-431c-95a8-25b3684fa0be-libsnappyjava.so: /usr/lib64 ? ? /libstdc++.so.6: ver...
分类:移动开发   时间:2014-09-17 13:45:02    阅读次数:410
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第四步)(2)
第二步:使用Spark的cache机制观察一下效率的提升 ? 基于上面的内容,我们在执行一下以下语句: 发现同样计算结果是15. 此时我们在进入Web控制台: 发现控制台中清晰展示我们执行了两次“count”操作。 现在我们...
分类:其他好文   时间:2014-09-17 12:17:22    阅读次数:246
关于mongodb在Linux下的定时备份
liunx shell 实现对mongodb的备份 #!/bin/bash #program? #?this?shell?is?used?for?backup?of?mongodb #history #2014/09/16?11:25??????????Qiushi PATH=/bin:/sbin:/usr/bin:/usr/sbin:/...
分类:数据库   时间:2014-09-17 12:16:12    阅读次数:306
GCC笔记
The History of GCC1984年,Richard Stallman发起了自由软件运动,GNU (Gnu's Not Unix)项目应运而生,3年后,最初版的GCC横空出世,成为第一款可移植、可优化、支持ANSI C的开源C编译器。GCC最初的全名是GNU C Compiler,之后,随...
分类:其他好文   时间:2014-09-17 11:51:52    阅读次数:331
Spark随笔(二):深入学习
一、如何选择粗粒度和细粒度 从底层往上引申来理解粗粒度与细粒度。 一层:一个类,具有三个属性值。为了查询这个类的所有实例,细粒度查询的程度为属性值,即依次查询每个实例化对象的属性值,查询三次;粗粒度按对象查询,直接查询该类的所有实例化对象,查询一次。查询结果是相同的,但是查询的方式却不同。这一类.....
分类:其他好文   时间:2014-09-17 11:49:12    阅读次数:180
【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群(第四步)(2)
第二步:使用Spark的cache机制观察一下效率的提升基于上面的内容,我们在执行一下以下语句:发现同样计算结果是15.此时我们在进入Web控制台:发现控制台中清晰展示我们执行了两次“count”操作。现在我们把“sparks”这个变量执行一下“cache”操作:此时在执行count操作,查看Web...
分类:其他好文   时间:2014-09-17 11:43:42    阅读次数:286
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!