kettle管理工具 专门为kettle这款优秀的ETL工具开发的web端管理工具。 项目简介 kettle作为非常优秀的开源ETL工具得到了非常广泛的使用,一般的使用的都是使用客户端操作管理,但问题是当投入生产环境使用时,动辄上百或几百个job需要管理,这时在使用客户端管理已经很难完成了。我所知道 ...
分类:
其他好文 时间:
2016-08-05 08:54:25
阅读次数:
463
自己写的一个自动化在Linux中部署kettle的脚本,包括一些遇到的问题在脚本中都有涉及。 kettle是官网版本pdi-ce-6.1.0.1-196.zip 脚本: 注:脚本和pdi-ce-6.1.0.1-196.zip压缩包放到同一目录下。最好先装好X Window System,虽然脚本中有 ...
分类:
系统相关 时间:
2016-08-04 19:16:26
阅读次数:
444
1、下载kettle包,并解压http://community.pentaho.com/projects/data-integration/2、安装jdk,并配置java环境 a).打开我的电脑--属性--高级--环境变量 b).新建系统变量JAVA_HOME和CLASSPATH 变量名:JAVA_ ...
分类:
Windows程序 时间:
2016-08-03 17:02:05
阅读次数:
1020
在kettle中的转换或者作业等资源的存储的仓库称为资源库:分为文件资源库、数据库资源库。 一个转换或者作业可以属于某个资源库或者一个单独的文件形态存在。 一、数据库资源库 1.1在mysql中创建一个数据库作为数据库资源库 1.2创建数据库资源库工具--》资源库--》连接资源库--》点击加号--》 ...
分类:
其他好文 时间:
2016-08-02 17:04:10
阅读次数:
285
1.首先创建一个job 2.拖拽组件形成下面的图 这里需要注意,在作业中的连线分为三类: 黄色锁的线:这个步骤执行之后,无论失败与否都会执行下一个步骤 绿色对号线:步骤执行成功了,才会执行下一个步骤。 红色叉号线:步骤执行失败了,才会执行下一个步骤。 3.配置转换文件 转换文件的存储位置最好和作业文 ...
分类:
其他好文 时间:
2016-08-02 15:00:28
阅读次数:
262
本篇介绍使用kettle的一个最简单的例子,可以初步了解下转换。 需求是这样的: 存在一个本地csv文件,文件的内容如下 现在需要将csv中的数据保存到本地的文本文件中 1.创建一个转换,并且重命名 2.增加一个输入组件,可以读取csv文件 3.重命名该组件并且使得该组件读取本地文件系统上的stud ...
分类:
其他好文 时间:
2016-08-02 13:32:30
阅读次数:
249
1.首先去官网下载安装包,这个安装包在所有平台上是通用的。 2.kettle是java语言开发的,所以需要配置JAVA_HOME 3.解压kettle的安装包 4.配置环境变量,KETTLE_HOME,这个目录是保存kettle配置文件的目录 5.配置完成后,运行data-integration目录 ...
http://wiki.pentaho.com/display/BAD/Loading+Data+into+HDFS 新建job 双击hadoop copy files File/Folder source 下一个目标目录 点击 点击add 执行 已写入数据 ...
分类:
系统相关 时间:
2016-07-31 00:13:21
阅读次数:
534
http://wiki.pentaho.com/display/BAD/Extracting+Data+from+HBase+to+Load+an+RDBMS 1)新建转换——Big Data——Hbase Input双击打开 2)在hbase中创建表 3)点击Get table names 4)创 ...
分类:
其他好文 时间:
2016-07-31 00:12:07
阅读次数:
1138
在xmanager中的xshell运行进入图形化界面 新建一个job 1.往hdfs中写数据 1)linux中kettle往hdfs中写数据 双击hadoop copy files 运行此job 查看数据: 1)windows中kettle往hdfs中写数据 Windows中往power服务器中hd ...
分类:
Windows程序 时间:
2016-07-31 00:10:53
阅读次数:
1974