1为什么要编译hadoop
由于appache给出的hadoop的安装包没有提供带C程序访问的接口,所以我们在使用本地库(本地库可以用来做压缩,以及支持C程序等等)的时候就会出问题,需要对Hadoop源码包进行重新编译.
2编译环境的准备
2.1:准备linux环境
准备一台linux环境,内存4G或以上,硬盘40G或以上,我这里使用的是Centos6.9 64位的操作系统(注意:一定要使用64位的操作系统)
2.2:虚拟机联网,关闭防火墙,关闭selinux
关闭防火墙命令:
关闭selinux
2.3:安装jdk1.7
注意hadoop-2.7.5 这个版本的编译,只能使用jdk1.7,如果使用jdk1.8那么就会报错
查看centos6.9自带的openjdk
将所有这些openjdk全部卸载掉
注意:这里一定不要使用jdk1.8,亲测jdk1.8会出现错误
将我们jdk的安装包上传到/export/softwares(我这里使用的是jdk1.7.0_71这个版本)
解压我们的jdk压缩包
统一两个路径
配置环境变量
让修改立即生效
2.4:安装maven
这里使用maven3.x以上的版本应该都可以,不建议使用太高的版本,强烈建议使用3.0.5的版本即可
将maven的安装包上传到/export/softwares
然后解压maven的安装包到/export/servers
配置maven的环境变量
让修改立即生效
解压maven的仓库
修改maven的配置文件
指定我们本地仓库存放的路径
添加一个我们阿里云的镜像地址,会让我们下载jar包更快
2.5:安装findbugs
解压findbugs
配置findbugs的环境变量
让修改立即生效
2.6:在线安装一些依赖包
bzip2压缩需要的依赖包
2.7:安装protobuf
解压protobuf并进行编译
2.8、安装snappy
2.9:编译hadoop源码
对源码进行编译
编译支持snappy压缩:
编译完成之后我们需要的压缩包就在下面这个路径里面
小结:
/export/servers/hadoop-2.7.5/lib 下面native目录中存放的就是本地库
将原始包与编译后的包进行对比可以发现:
查看编译之前的包:
查看编译之后的包:
经过编译之后就都支持了这些常用压缩算法。