码迷,mamicode.com
首页 > 编程语言 > 详细

spark二次排序

时间:2015-08-18 14:26:51      阅读:224      评论:0      收藏:0      [点我收藏+]

标签:

scala相较于java,代码就精简很多了:

import org.apache.spark._ 
import SparkContext._ 
object SecondarySort {
  def main(args: Array[String]) {
    val sparkConf = new SparkConf().setAppName(" Secondary Sort ")
    sparkConf.set("mapreduce.framework.name", "yarn");
        sparkConf.set("spark.rdd.compress", "true");
        sparkConf.set("spark.serializer","org.apache.spark.serializer.KryoSerializer");
        sparkConf.set("spark.storage.memoryFraction", "0.5");
        sparkConf.set("spark.akka.frameSize", "100");
        sparkConf.set("spark.default.parallelism", "1"); 
    val sc = new SparkContext(sparkConf)
    val file = sc.textFile("hdfs://namenode:9000/test/secsortdata")
    val rdd = file.map(line => line.split("\t")).
      map(x => (x(0),x(1))).groupByKey().
      sortByKey(true).map(x => (x._1,x._2.toList.sortWith(_>_)))
    val rdd2 = rdd.flatMap{
      x =>
      val len = x._2.length
      val array = new Array[(String,String)](len)
      for(i <- 0 until len) {
        array(i) = (x._1,x._2(i))
      }
      array  
    }
    sc.stop()
  }
}

是不是非常简单,相对于mapreduce那几百行的代码真是方便快捷

spark二次排序

标签:

原文地址:http://my.oschina.net/u/2010330/blog/493908

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!