注意:前提条件hadoop已经安装成功,并且正常启动。
1.准备好eclipse安装包,eclipse-jee-juno-linux-gtk-x86_64.tar.gz,使用SSH Secure File Transfer Client工具把安装包上传于Hadoop集群的名称节点。
2.上传Hadoop在eclipse上运行插件:haoop-eclipse-plugin-2.6.0.jar
3.更改eclipse-jee-juno-linux-gtk-x86_64.tar.gz权限
4.解压缩eclipse
解压后会出现eclipse文件夹,
5.将eclipse插件拷贝到eclipse对应文件目录下
并且进行查看是否拷贝成功:
6.切换到eclipse安装目录,并且打开eclipse(启动eclipse需要在虚拟机中启动)
出现以下界面表示启动成功:
7.配置eclipse插件
点击导航栏window-->show View-->other,选中MapReduce Tools中的Map/Reduce Locations,并点击“ok”按钮。
8.eclipse下面会出现Map/Reduce Locations窗口,
9.创建HDFS本地连接。
在Map/Reduce Locations窗口的空白处右键,
选择New Hadoop location,会弹出对话框;
填写配置信息:
点击finish,后在eclipse界面左上角就会出现HDFS本地连接,以及可以看到HDFS上的文件结构目录。
10.创建Hadoop项目,
在eclipse中点击File--->new--->other,会弹出对话框:
然后找到,Map/Reduce文件夹,然后选择Map/Reduce Project。
点击下一步,然后输入WordCount,并点击完成。
在eclipse工程列表中会出现WordCount项目,
创建类,
打开WordCount目录,右键点击src文件夹,选择new--->Class
填写类名:WordCount,点击finish。
工程目录下会出现WordCount的java文件。
双击WordCount.java文件,把代码拷贝进去。
创建数据文件,
在文件中输入内容并保存退出:
# vi input.txt
上传数据文件
刷新目录会发现文件上传成功:
运行程序:右键程序Run as--->Run on Hadoop,运行完毕后,刷新目录如下图,