码迷,mamicode.com
首页 >  
搜索关键字:spark streaming stop    ( 14227个结果
Android NDK:Aborting..Stop的处理方法
在eclipse中配置cocos2d-x的android环境时,遇到这样的错误提示 网上搜索了一下,说是在NDK_MODULE_PATH环境变量下未找到所需要的Android.mk文件,后来仔细研究了一下项目属性,找到环境设置这一项 添加完NDK_MODULE_PATH路径之后,会在项目的.sett...
分类:移动开发   时间:2014-07-16 23:14:41    阅读次数:20097
Mysql常用命令行大全——转载
转载地址:http://www.blogjava.net/supperchen/archive/2012/10/11/389340.html第一招、mysql服务的启动和停止net stop mysqlnet start mysql第二招、登陆mysql语法如下: mysql -u用户名 -p用户密...
分类:数据库   时间:2014-07-16 23:07:54    阅读次数:385
MySQL学习1
刚刚从网上下载了MySQL 5.0,搜索图文教程安装成功。 1.如何在命令行启动MySQL 首先开始菜单->运行->cmd; 启动:net start mysql 关闭:net stop mysql 2.进入MySQL mysql -h 主机名 -u 用户名 -p ,这里我们输入my...
分类:数据库   时间:2014-07-10 13:37:46    阅读次数:274
Openerp workflow 工作流批注模块
转自:http://blog.csdn.net/yeahliu/article/details/17207289 2013-12-22 添加workflow_stop标识,感谢广州-jerry 2013-12-11 将代码提交到GitHub 2013-12-10 修复以下内容: 1. 去掉templ...
分类:其他好文   时间:2014-07-10 11:59:08    阅读次数:188
Apache Spark源码走读之16 -- spark repl实现详解
之所以对spark shell的内部实现产生兴趣全部缘于好奇代码的编译加载过程,scala是需要编译才能执行的语言,但提供的scala repl可以实现代码的实时交互式执行,这是为什么呢?既然scala已经提供了repl,为什么spark还要自己单独搞一套spark repl,这其中的缘由到底何在?...
分类:其他好文   时间:2014-07-07 21:40:04    阅读次数:367
ean128与code128 条形码 算法分析
【code128条形码组成】除终止符(STOP)由13个模块组成外,其他字符均由11个模块组成就是说,如果用‘1’表示黑线(实模块),用‘0’表示白线(空模块),那么每表示一个字符就需要11条线,也就是11个模块。在条码字符中,每三个条和三个空组成一个字符,终止符有四个条和三个空组成。就是说,这11...
分类:其他好文   时间:2014-07-07 20:11:03    阅读次数:229
Apache Spark源码走读之13 -- hiveql on spark实现详解
欢迎转载,转载请注明出处,徽沪一郎概要在新近发布的spark 1.0中新加了sql的模块,更为引人注意的是对hive中的hiveql也提供了良好的支持,作为一个源码分析控,了解一下spark是如何完成对hql的支持是一件非常有趣的事情。Hive简介Hive的由来以下部分摘自Hadoop defini...
分类:其他好文   时间:2014-07-07 14:45:58    阅读次数:224
Apache Spark源码走读之4 -- DStream实时流数据处理
欢迎转载,转载请注明出处,徽沪一郎。Spark Streaming能够对流数据进行近乎实时的速度进行数据处理。采用了不同于一般的流式数据处理模型,该模型使得Spark Streaming有非常高的处理速度,与storm相比拥有更高的吞能力。本篇简要分析Spark Streaming的处理模型,Spa...
分类:其他好文   时间:2014-07-07 14:44:43    阅读次数:213
Apache Spark源码走读之5 -- DStream处理的容错性分析
欢迎转载,转载请注明出处,徽沪一郎,谢谢。在流数据的处理过程中,为了保证处理结果的可信度(不能多算,也不能漏算),需要做到对所有的输入数据有且仅有一次处理。在Spark Streaming的处理机制中,不能多算,比较容易理解。那么它又是如何作到即使数据处理结点被重启,在重启之后这些数据也会被再次处理...
分类:其他好文   时间:2014-07-07 14:36:48    阅读次数:275
Apache Spark源码走读之11 -- sql的解析与执行
欢迎转载,转载请注明出处,徽沪一郎。概要在即将发布的spark 1.0中有一个新增的功能,即对sql的支持,也就是说可以用sql来对数据进行查询,这对于DBA来说无疑是一大福音,因为以前的知识继续生效,而无须去学什么scala或其它script.一般来说任意一个sql子系统都需要有parser,op...
分类:数据库   时间:2014-07-07 14:34:40    阅读次数:396
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!