码迷,mamicode.com
首页 >  
搜索关键字:spark 大数据 hadoop spark-sql    ( 29965个结果
hadoop作业调优参数整理及原理
1 Map side tuning参数1.1 MapTask运行内部原理 当map task开始运算,并产生中间数据时,其产生的中间结果并非直接就简单的写入磁盘。这中间的过程比较复杂,并且利用到了内存buffer来进行已经产生的部分结果的缓存,并在内存buffer中进行一些预排序来优化整个map.....
分类:其他好文   时间:2014-05-20 01:54:58    阅读次数:341
hadoop中日志聚集问题
遇到的问题:当点击上面的logs时,会出现下面问题:这个解决方案为:By default, Hadoop stores the logs of each container in the node where that container was hosted. While this is irre...
分类:其他好文   时间:2014-05-19 10:33:13    阅读次数:369
【调查】云计算,你关注的技术热点在哪里?
UCloud云服务以大家所称道的高性能和高稳定性,走进了越来越多的大众视野。大家都对UCloud云计算平台的技术实现方式非常好奇。UCloud云主机的高性能是如何实现的?如何使得SATA跑过SSD?持久化分布式内存存储机制是怎样的?如何实现云计算模式下的Hadoop多租户隔离?分布式虚拟交换机又.....
分类:其他好文   时间:2014-05-19 08:28:47    阅读次数:338
[转]浅析大数据量高并发的数据库优化
链接:http://www.uml.org.cn/sjjm/201308264.asp高并发数据库可以同时处理海量信息,应用范围很广。今天我们将讨论的是大数据量高并发的数据库优化,希望对大家有所帮助。一、数据库结构的设计如果不能设计一个合理的数据库模型,不仅会增加客户端和服务器段程序的编程和维护的难...
分类:数据库   时间:2014-05-18 20:30:59    阅读次数:519
Apache Spark源码走读之9 -- Spark源码编译
本来源码编译没有什么可说的,对于java项目来说,只要会点maven或ant的简单命令,依葫芦画瓢,一下子就ok了。但到了Spark上面,事情似乎不这么简单,按照spark officical document上的来做,总会出现这样或那样的编译错误,让人懊恼不已。
分类:其他好文   时间:2014-05-18 20:25:57    阅读次数:391
深入Hadoop的调度器
Hadoop有两个大版本0.20.x,1.x通常为hadoop 1版本,运行环境依赖JobTracker和TaskTracker,运行资源通过作业表示模型MapTask和ReduceTask来组成;运行资源通过槽位Slot来表示。0.23.x,2.x称之为hadoop 2版本,在开发模型上类似1,都...
分类:其他好文   时间:2014-05-18 19:24:17    阅读次数:291
OpenCV 中的三大数据类型( 概述 )
前言 OpenCV 提供了许多封装好了的类型,而其中,以三大类型最为核心。本文将大致介绍这三大类型。CvArr:不确定数组 它可以被视为一个抽象基类,后面的两大类型都继承此类型并扩展。只要某个函数的形参是这个类型,那么我们就可以把后面两种类型作为实参传递进去做处理。CvMat:多通道矩阵 它用...
分类:其他好文   时间:2014-05-18 19:02:49    阅读次数:221
Install RHadoop with Hadoop 2.2 – Red Hat Linux
PrerequisiteHadoop 2.2 has been installed (and the below installation steps should be applied on each of Hadoop node)Step 1. Install R (by yum)[hadoop...
分类:系统相关   时间:2014-05-17 21:51:24    阅读次数:671
SNN--Second Name Node
NameNode有这么几个配置:PropertyDescriptionSuggested valuedfs.name.dirDirectory in NameNode’s local filesystem to store HDFS’s metadata/home/hadoop/dfs/namedf...
分类:其他好文   时间:2014-05-17 18:56:09    阅读次数:367
HDFS基础和java api操作
1. 概括适合一次写入多次查询情况,不支持并发写情况通过hadoop shell 上传的文件存放在DataNode的block中,通过linux shell只能看见block,看不见文件(HDFS将客户端的大文件存放在很多节点的数据块中,Block本质上是一个逻辑概念,它是hdfs读写数据的基本单位...
分类:编程语言   时间:2014-05-17 18:38:16    阅读次数:364
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!