http://acm.hdu.edu.cn/showproblem.php?pid=2236
找n个数使得这n个数都在不同的行和列里显然是二分图模型。难点在于求最大值与最小值差值最小。这里二分差值(看的题解),进行试探是否可以匹配成功。
#include
#include
#include
#include
#include
#include
#includ...
分类:
其他好文 时间:
2014-05-09 02:39:47
阅读次数:
356
http://acm.hdu.edu.cn/showproblem.php?pid=1498
大致题意:给一个n*n的格子,每个格子中都放有不同颜色的气球。每次你可以选择一行或一列以及一种颜色的气球,然后将该行或该列上该种颜色的气球全部扎破。问经过K次,会有哪些气球是不可能被完全扎破的,按升序输出。
以行列为X,Y集合,对每一种颜色的气球构建二分图,
#include...
分类:
其他好文 时间:
2014-05-09 02:39:21
阅读次数:
314
接到阿里电话说实习和竞赛智能二选一, 真伤心, 在实习前发挥余热吧.
总结一下在ODPS下 编写map / reduce 和进行购买预测的过程.
首先这里的hadoop输入输出都是表的形式, 我们需要一张输入表和一张输出表.
输入表为 提供的 t_alibaba_bigdata_user_brand_total_1 输出表为自定义的wc_out
w...
分类:
其他好文 时间:
2014-05-09 02:33:28
阅读次数:
418
介绍
Spork是Pig on Spark的highly experimental版本,依赖的版本也比较久,如之前文章里所说,目前我把Spork维护在自己的github上:flare-spork。
本文分析的是Spork的实现方式和具体内容。
Spark Launcher
在hadoop executionengine包路径下,写了一个Spark启动器,同MapReduceLauncher类似,会在launchPig的时候,把传入的物理执行计划进行翻译。
MR启动器翻译的是MR的操作,以及进一步的MR...
分类:
其他好文 时间:
2014-05-09 02:08:17
阅读次数:
358
hadoop 启动的时候datanode报错 Problem connecting to server 解决方案...
分类:
其他好文 时间:
2014-05-09 02:07:46
阅读次数:
313
转载请注明出处:http://blog.csdn.net/u012860063
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=4278
Faulty Odometer
Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Other...
分类:
其他好文 时间:
2014-05-09 02:03:58
阅读次数:
410
题目链接:
http://acm.hdu.edu.cn/showproblem.php?pid=4407
Sum
Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Others)
Total Submission(s): 1817 Accepted Submission(...
分类:
其他好文 时间:
2014-05-09 01:35:58
阅读次数:
317
转载请注明出处:http://blog.csdn.net/u012860063
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=4280
题意:有N个岛,M条无向路 每个路有一最大允许的客流量,求从最西的那个岛最多能运用多少乘客到最东的那个岛。
直接上模板:
#include
#include
#include
#include
#in...
分类:
其他好文 时间:
2014-05-09 01:02:44
阅读次数:
330
很久不写 BO-KE 了,来一篇吧,记住这个成功的一刻,把几个主要文件贴出来:
core-site.xml:
fs.defaultFS
hdfs://fc20:9000
hadoop.tmp.dir
/home/ljq/hadoop/tm...
分类:
其他好文 时间:
2014-05-09 00:35:27
阅读次数:
342
版本:cdh5.0.0+hadoop2.3.0+hbase0.96.1.1+Spoon5.0.1一、HBase数据导入HBase数据导入使用org.apache.hadoop.hbase.mapreduce.ImportTsv 的两种方式,一种是直接导入,一种是转换为HFile,然后再次导入。1. HDFS数据为(部分):[root@node33 data]# hadoop fs -ls /inp...
分类:
其他好文 时间:
2014-05-09 00:25:48
阅读次数:
515