文章目录
- 配置
- 测试
配置
kettle版本:kettle-6.1.0.1_07270
修改kettle-6.1.0.1_07270\plugins\pentaho-big-data-plugin\plugin.properties
将active.hadoop.configuration改为hive:
active.hadoop.configuration=hive

再进入kettle-6.1.0.1_07270\plugins\pentaho-big-data-plugin\hadoop-configurations目录
创建一个文件夹叫hive(跟上面的配置一致即可):

将hive-site.xml配置文件放入hive目录中,并创建lib目录:

将hive和mysql的驱动jar包放入lib目录中:

好了,此时已经大功告成,可以测试了。
测试
双击转换-》回到主对象树-》双击DB连接-》选择一般-》选择hadoop hive 2-》根据hive的实际情况填入连接信息,连接名称随便填:

点击测试,弹出如下界面表示成功:

点击右下角确认后,将刚才创建的hive拖入右侧:

点击获取sql查询语句可以顺利获取hive中的表:

点击预览后,顺利查看到hive表数据:











