码迷,mamicode.com
首页 >  
搜索关键字:spark streaming kafka    ( 11499个结果
Apache Spark源码走读之16 -- spark repl实现详解
之所以对spark shell的内部实现产生兴趣全部缘于好奇代码的编译加载过程,scala是需要编译才能执行的语言,但提供的scala repl可以实现代码的实时交互式执行,这是为什么呢?既然scala已经提供了repl,为什么spark还要自己单独搞一套spark repl,这其中的缘由到底何在?...
分类:其他好文   时间:2014-07-07 21:40:04    阅读次数:367
apache kafka迁移与扩容工具用法
本篇blog教你如果使用kafka工具进行迁移和扩容相关topic。...
分类:其他好文   时间:2014-06-30 00:37:22    阅读次数:337
Jafka源代码分析——网络架构
在kafka中,每一个broker都是一个服务器。按照一般理解,服务器就是一个SocketServer,其不断接收用户的请求并进行处理。在Java中进行网络连接有两种方式一种为阻塞模式一种为非阻塞模式。Jafka采用非阻塞模式进行网络通讯。在Java的非阻塞模式中,建立socket server的一般流程如下: 1.启动ServerSocketChannel并将其绑定到特定的端口。 2.将Se...
分类:其他好文   时间:2014-06-28 09:25:54    阅读次数:235
Jafka源代码分析——Processor
Jafka Acceptor接收到客户端请求并建立连接后,Acceptor会将Socket连接交给Processor进行处理。Processor通过以下的处理步骤进行客户端请求的处理: 1. 读取客户端请求。 2. 根据客户端请求类型的不同,调用相应的处理函数进行处理。 Processor读取客户端请求是一个比较有意思的事情,需要考虑两个方面的事情:第一,请求规则(Processor需要按照...
分类:其他好文   时间:2014-06-28 09:25:18    阅读次数:278
Jafka源代码分析——LogManager
在Kafka中,LogManager负责管理broker上所有的Log(每一个topic-partition为一个Log)。通过阅读源代码可知其具体完成的功能如下: 1. 按照预设规则对消息队列进行清理。 2. 按照预设规则对消息队列进行持久化(flush操作)。 3. 连接ZooKeeper进行broker、topic、partition相关的ZooKeeper操作。 4. 管理brok...
分类:其他好文   时间:2014-06-28 08:25:21    阅读次数:208
Jafka源代码分析——随笔
Kafka是一个分布式的消息中间件,可以粗略的将其划分为三部分:Producer、Broker和Consumer。其中,Producer负责产生消息并负责将消息发送给Kafka;Broker可以简单的理解为Kafka集群中的每一台机器,其负责完成消息队列的主要功能(接收消息、消息的持久化存储、为Consumer提供消息、消息清理.....);Consumer从Broker获取消息并进行后续的操作。...
分类:其他好文   时间:2014-06-27 23:55:13    阅读次数:387
Spark SQL Hive Support Demo
前提:1、spark1.0的包编译时指定支持hive:./make-distribution.sh --hadoop 2.3.0-cdh5.0.0 --with-yarn--with-hive--tgz2、安装完spark1.0;3、安装与hadoop对应的CDH版本的hive;Spark SQL ...
分类:数据库   时间:2014-06-26 11:24:11    阅读次数:564
spark开发环境配置
以后spark,mapreduce,mpi可能三者集于同一平台,各自的侧重点有所不用,相当于云计算与高性能计算的集合,互补,把spark的基础看了看,现在把开发环境看看,主要是看源码,最近Apache Spark源码走读系列挺好的,看了些。具体环境配置不是太复杂,具体可以看https://githu...
分类:其他好文   时间:2014-06-25 11:44:47    阅读次数:185
Spark源码系列(四)图解作业生命周期
这一章我们探索了Spark作业的运行过程,但是没把整个过程描绘出来,好,跟着我走吧,let you know!我们先回顾一下这个图,Driver Program是我们写的那个程序,它的核心是SparkContext,回想一下,从api的使用角度,RDD都必须通过它来获得。下面讲一讲它所不为认知的一面...
分类:其他好文   时间:2014-06-25 11:13:39    阅读次数:288
Spark技术内幕:Master基于ZooKeeper的High Availability(HA)源码实现
本文详细讲解了Spark在Standalone模式下的Master的HA的源码分析。 为了解决Standalone模式下的Master的SPOF,Spark采用了ZooKeeper提供的选举功能。Spark并没有采用ZooKeeper原生的Java API,而是采用了Curator,一个对ZooKeeper进行了封装的框架。采用了Curator后,Spark不用管理与ZooKeeper的连接,这些对于Spark来说都是透明的。Spark仅仅使用了100行代码,就实现了Master的HA。当然了,Spark是...
分类:其他好文   时间:2014-06-25 07:59:09    阅读次数:183
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!