文章目录
- 配置
- 测试
配置
kettle版本:kettle-6.1.0.1_07270
修改kettle-6.1.0.1_07270\plugins\pentaho-big-data-plugin\plugin.properties
将active.hadoop.configuration改为hive:
active.hadoop.configuration=hive
再进入kettle-6.1.0.1_07270\plugins\pentaho-big-data-plugin\hadoop-configurations目录
创建一个文件夹叫hive(跟上面的配置一致即可):
将hive-site.xml配置文件放入hive目录中,并创建lib目录:
将hive和mysql的驱动jar包放入lib目录中:
好了,此时已经大功告成,可以测试了。
测试
双击转换-》回到主对象树-》双击DB连接-》选择一般-》选择hadoop hive 2-》根据hive的实际情况填入连接信息,连接名称随便填:
点击测试,弹出如下界面表示成功:
点击右下角确认后,将刚才创建的hive拖入右侧:
点击获取sql查询语句可以顺利获取hive中的表:
点击预览后,顺利查看到hive表数据: