原创作品,出自 “深蓝的blog” 博客,深蓝的blog:
把kettle中carte创建成windows服务项
提示:Carte的作用是用于远程web监控kettle抽取状态的子服务器。
官网下载:
把解压的文件拷贝到kettle的安装目录
我们可以执行bat下的命令程序,完成服务的创建。
先使用console进行模拟查看:
模拟成功以后,执行i...
分类:
其他好文 时间:
2015-07-14 15:45:44
阅读次数:
166
总结了一下Kettle实际应用的项目中使用经验,(1)变量使用:主要是一些流程中各种参数,可以协调流程之间任务处理,大提高流程块共享程度,另外一些数据连接配置方便了测试环境和生产调试和部署;(2)Java脚本代码和Jar包在流程中的应用,这一块非常重要,通常情况下很多个性化的处理Kettle没有提供相关组件,就需要自己写JAVA脚本来处理,还可以引入Eclipse中开发的Jar包类库,这些都丰富了Kettle的功能。...
分类:
编程语言 时间:
2015-07-14 15:41:46
阅读次数:
14967
原创作品,出自 “深蓝的blog” 博客,转载时请务必注明出处,否则有权追究版权法律责任。
深蓝的blog:
利用Kettle社区查找资料:举例:查找关于carte服务的配置
搜索kettle,进入kettle社区,如下:
进入社区网站后,找到kettle的document选项,点击,如下:
下拉到最低端,查找你要搜索的关键项,点击进入即可,如下:
接下来就是相信...
分类:
其他好文 时间:
2015-07-13 16:02:49
阅读次数:
119
kettle中转换和作业的执行顺序: 1、一个作业内的转换,是顺序执行的。 2、一个转换内的步骤是并行执行的。 3、作业内不支持事务,转换内支持事务。根据业务需要,通常需要在转换内顺序执行,小技巧如下: 1、执行SQL是优先于所有步骤。 2、使用“阻塞数据直到步骤都完成”,确保其他数据步骤...
分类:
其他好文 时间:
2015-07-08 20:22:03
阅读次数:
1001
1 引言:项目最近要引入大数据技术,使用其处理加工日上网话单数据,需要kettle把源系统的文本数据load到hadoop环境中2 准备工作:1 首先要了解支持hadoop的Kettle版本情况,由于kettle资料网上较少,所以最好去官网找,官网的url:http://wiki.pentaho.c...
分类:
其他好文 时间:
2015-07-08 00:24:10
阅读次数:
198
首先建立转换:从数据库表到日志表输入的设置:日志设置:新建job:转换选择刚才建好的输出日志转换。变量设置如下:此ID就是转换中的${ID},执行job,可以看到控制台输出日志结果:黑色字体部分中只写出了id=1的一条记录。最后补充,将转换的日志写到数据库中:打开转换>ctrl+t>日志选项卡>转换...
分类:
数据库 时间:
2015-07-03 19:01:49
阅读次数:
380
1,Kettle跨平台使用。例如:在AIX下(AIX是IBM商用UNIX操作系统,此处在LINUX/UNIX同样适用),运行Kettle的相关步骤如下:1)进入到Kettle部署的路径2)执行 chmod *.sh,将所有shell文件添加可执行权限3)在Kettle路径下,如果要执行transfo...
分类:
其他好文 时间:
2015-07-03 18:51:50
阅读次数:
143
看大家分享了好多hadoop相关的一些内容,我为大家介绍一款ETL工具——Kettle。 Kettle是pentaho公司开源的一款ETL工具,跟hadoop一样,也是java实现,其目的就是做数据整合中时数据的抽取(Extract)、转换(Transformat)、加载(Load)工作。Kett....
分类:
其他好文 时间:
2015-07-03 18:47:39
阅读次数:
473
Msyql到Vertica1、mysql中在openshop 数据库中选择其中一个300W左右数据的表create table ip_records_tmp_01ASSELECT * FROM ip_records_tmp tWHERE t.datetime '2015-05-01';删除:dele...
分类:
其他好文 时间:
2015-07-03 12:02:30
阅读次数:
1095