码迷,mamicode.com
首页 >  
搜索关键字:spark 大数据 hadoop spark-sql    ( 29965个结果
HDFS HA系列实验之二:HA+JournalNode+zookeeper
1:原理图 A:NN1、NN2(或者更多个NN节点)只有一个是Active状态,通过自带ZKFailoverController组件(zookeeper客户端)和zookeeper集群协同对所有NN节点进行检测和选举来达到此目的。B:Active NN 的EditLog 写入共享的JournalNode集群中,Standby NN通过JournalNode集群获取Editlog,并在本地运行来保持...
分类:其他好文   时间:2014-05-15 14:46:42    阅读次数:414
二分查找需要注意的Bug
#include #include using namespace  std; //下面一个移位是一样的,>>相当于除去2,主要是要用right-left,否则对于大数据来说会产生溢出问题。切记 int binarySearch(int arr[],int len,int number) {     int left=0;     int right=len-1;     in...
分类:其他好文   时间:2014-05-15 07:14:38    阅读次数:272
Hive常用命令
创建表: hive> CREATE TABLE pokes (foo INT, bar STRING);          Creates a table called pokes with two columns, the first being an integer and the other a string 创建一个新表,结构与其他一样 hive> create table n...
分类:其他好文   时间:2014-05-15 07:07:58    阅读次数:303
Spark1.0.0 学习路线
接触了Spark也快有半年了,版本从0.8.0到现在的1.0.0SNAPSHOT,从头到尾被spark这个优秀的框架深深吸引,也为scala的优雅所折服。4.19日“2014 中国Spark技术峰会”召开,可以看出随着Spark技术的完善,越来越多的企业已经开始使用或开始关注Spark的发展了。回顾学习过程,觉得很有必要整理一份学习路线,对所学的内容加以沉淀,同时也为同行作为参考。因为Spark1...
分类:其他好文   时间:2014-05-15 06:07:33    阅读次数:357
HDFS HA系列实验之四:HA+Federation
本篇的配置环境是基于HDFS HA系列实验之二:HA+JournalNode+zookeeper  上进行的。1:原理图   A:实验环境之组成DNS:productserverHA1(nameservices为cluster1):product201、product202HA2(nameservices为cluster2):product211、product212DN:product203、p...
分类:其他好文   时间:2014-05-15 05:59:29    阅读次数:323
Hadoop大数据处理读书笔记
几个关键性的概念 1 云计算是指利用大量计算节点构成的可动态...
分类:其他好文   时间:2014-05-15 05:37:04    阅读次数:434
Hadoop 2.0 Queue
Hadoop 2.0 Queue setting 解析...
分类:其他好文   时间:2014-05-15 05:03:25    阅读次数:544
hive-0.10.0-cdh4.3.0安装
1.我使用的Hadoop2.0-cdh4.3.0,对应hive配套版本hive-0.10.0-cdh4.3.0。    2.修改hive/conf下hive-site.xml文件,无则创建hive-site.xml,在底部添加如下内容:  [html] view plaincopy xml version="1.0" encoding="UTF-8"...
分类:其他好文   时间:2014-05-15 04:05:27    阅读次数:341
Hive sql 语法解读
一、 创建表      在官方的wiki里,example是这样的: Sql代码   CREATE [EXTERNAL] TABLE [IF NOT EXISTS] table_name    [(col_name data_type [COMMENT col_comment], ...)]    [COMMENT table_comment]    [PARTITION...
分类:数据库   时间:2014-05-14 14:50:27    阅读次数:463
hadoop-mapreduce中maptask运行分析
MapTask运行通过执行.run方法: 1.生成TaskAttemptContextImpl实例,此实例中的Configuration就是job本身。 2.得到用户定义的Mapper实现类,也就是map函数的类。 3.得到InputFormat实现类。 4.得到当前task对应的InputSplit. 5.通过InputFormat,得到对应的RecordReader。 6.生成Re...
分类:其他好文   时间:2014-05-14 14:31:59    阅读次数:381
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!