码迷,mamicode.com
首页 >  
搜索关键字:大数据开发 Hadoop Spark    ( 19831个结果
Sqoop快速入门
1 Sqoop概述 传统的应用程序管理系统,即应用程序与使用RDBMS的关系数据库的交互,是产生大数据的来源之一。由RDBMS生成的这种大数据存储在关系数据库结构中的关系数据库服务器中。 当大数据存储和Hadoop生态系统的MapReduce,Hive,HBase,Cassandra,Pig等分析器 ...
分类:其他好文   时间:2020-09-03 16:44:55    阅读次数:40
Hadoop上小文件如何存储?
Block是文件块,HDFS中是以Block为单位进行文件的管理的,一个文件可能有多个块,每个块默认是3个副本,这些块分别存储在不同机器上。块与文件之前的映射关系会定时上报Namenode。HDFS中一个块的默认大小是64M,其大小由参数dfs.block.size控制。这里面先引申几个问题出来: ...
分类:其他好文   时间:2020-09-03 16:43:21    阅读次数:40
spark源码分析, 任务提交及序列化
org.apache.spark.scheduler.DAGScheduler#submitMissingTasks => org.apache.spark.scheduler.TaskSchedulerImpl#submitTasks // First figure out the indexes ...
分类:其他好文   时间:2020-08-28 14:42:00    阅读次数:47
A machine learning system on spark
简介 https://github.com/fanqingsong/machine_learning_system_on_spark a simple machine learning system demo, for ML study. Based on machine_learning_syst ...
分类:系统相关   时间:2020-08-27 11:48:09    阅读次数:63
10个优秀的数据挖掘工具,一定不要错过
在机器学习的流程中数据挖掘是重要的一环。数据挖掘是从大量数据中提取隐藏的或未知,但可能有用信息的过程。今天给大家介绍10个最强的数据挖掘工具,欢迎小伙伴们收藏起来。1.KNIMEKNIME可以完成常规的数据分析,进行数据挖掘,常见的数据挖掘算法,如回归、分类、聚类等等都有。而且它引入很多大数据组件,如Hive,Spark等等。它还通过模块化的数据流水线概念,集成了机器学习和数据挖掘的各种组件,能够
分类:其他好文   时间:2020-08-24 16:32:14    阅读次数:59
_服役新节点,退役旧节点,多目录配置。+_HDFS2.x的新特性
服役新的节点 1、首先克隆一个新的虚拟机,里面的hadoop等环境都配好了 之后修改ip通过 root进行登录,在原本好的虚拟机上进行分发操作 之后再发java 发环境变量 在新的虚拟机上进行: 这是重新运行环境变量 之后进入hadoop删除data和logs让他变成一个全新的机器 就会发现 dat ...
分类:其他好文   时间:2020-08-19 19:07:03    阅读次数:65
Hadoop(一)安装
####首先保证Node891或Node811等版本装成功了###### /opt/bigdata/elk/node891 ################ 修改目录权限 #################### [root@vwmaster hadoop]# chown -R root:root ...
分类:其他好文   时间:2020-08-17 17:45:14    阅读次数:70
hdfs学习(一)
一、hdfs概述 介绍: 在现代的企业环境中,单机容量往往无法存储大量数据,需要跨机器存储。统一管理分布在集群上的文件系统称为分布式文件系统 。HDFS(Hadoop Distributed File System)是 Apache Hadoop 项目的一个子项目. Hadoop 非常适于存储大型数 ...
分类:其他好文   时间:2020-08-13 12:16:47    阅读次数:60
知识汇总之大数据(1)
1.mapReduce 的shuffle 过程 : https://www.iteye.com/blog/langyu-992916 2.spark streaming : https://www.jianshu.com/p/0691204282ab CAS的理解? https://www.jian ...
分类:其他好文   时间:2020-08-13 12:10:50    阅读次数:53
CDH开启kerberos后在第三方机器上部署Spark程序问题解决
一、概述 当CDH平台开启kerberos后,需要kdc服务验证通过和kerberos协议验证通过才可以。如果将spark程序部署在CDH 机器上,直接在生成keytab并使用principal登录kerberos即可。 如果当spark应用程序部署在第三方机器上时,还需要处理krb5.conf注册 ...
分类:其他好文   时间:2020-08-13 12:07:11    阅读次数:88
19831条   上一页 1 ... 36 37 38 39 40 ... 1984 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!