7.5.2、Kettle__kettle的安装使用,案例展示

1、Windows下安装

1)安装jdk
2)下载kettle压缩包,因kettle为绿色软件,直接解压即可
3)双击Spoon.bat,启动图形化界面工具,直接使用

2、案例 MySQL To MySQL -----转换

将MySQL中stu1表中数据同步到stu2,id相同就更新数据
(1)在MySQL中创建库和表,插入数据

create database testkettle;

use testkettle;

create table stu1(id int,name varchar(20),age int);

create table stu2(id int,name varchar(20));

insert into stu1 values(1001,'zhangsan',20),(1002,'lisi',18), (1003,'wangwu',23);

insert into stu2 values(1001,'wukong');

(2)在data-integration\lib文件下添加mysql驱动mysql-connector-java-5.1.49
(3)拖动对应控件,表输入,更新等控件设置
(4)连线,按住shift连线,运行任务

在这里插入图片描述

3、案例,使用作业事项以上转换,并额外插入一条数据 -----Job

(1)拖动start开始,拖动转化
(2)设置,连线
(3)最后的是空想,没有作用,一般加上,一般job只是做步骤,先做好转换,job中间可以连多个转化使用

在这里插入图片描述

4、案例,将hive表的数据输出到hdfs,两张表做关联再输出

(1)因为涉及到hbase和hive的读写,需要加入配置

修改解压目录下的data-integration\plugins\pentaho-big-data-plugin下的plugin.properties,设置active.hadoop.configuration=hdp26,
并将集群的配置文件为core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml,hbase-site.xml,hive-site.xml拷贝到data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp26下,覆盖原来的文件

(2)启动hadoop集群,hiveserver2服务
(3)在hive中创建表,添加数据
dept和emp表,关联条件为deptno
(4)在kettle中创建流程图转化

在这里插入图片描述

(5)运行,运行很快,相当于在本地运行,将数据读取出来,运算

5、案例,读取hdfs上数据,将sal大于1000的数据保存到hbase表中

(1)在hbase中创建表 (2)在kettel中创建转换,设置

在这里插入图片描述

(3)运行

猜你喜欢

转载自blog.csdn.net/nerer/article/details/120946775
今日推荐