因为hadoop在apache上放出的是32位的,而我的vm是64位的,所以需要以64位环境重新编译下,有过用maven编译java的童鞋们可能上手快些。
hadoop版本:2.2.0
参考教程:http://blog.csdn.net/bamuta/article/details/13506893
http://blog.csdn.net/canlets/article/details/18709969
https://issues.apache.org/jira/browse/HADOOP-10110
总结:
1、按照教程的步骤做完后,第一次用maven编译的时候,到最后报错了。然后google一顿,没有找到相关的帖子,所以我又重新执行了一边maven编译的命令
[hadoop@localhost hadoop-2.2.0-src]$ mvn package -Pdist,native -DskipTests -Dtar
经过漫长的等待,结果编译成功了,很诡异啊!(莫非是在我等待编译的过程中,看鬼小说有关??)
2、一定要在hadoop源码的目录下运行maven的编译命令。
3、好困。。。。 (有心得继续补充)。
相关推荐
自己编译的64bithadoop-2.2.0版本 [INFO] Reactor Summary: ...This command was run using /home/hadoop/Desktop/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/share/hadoop/common/hadoop-common-2.2.0.jar
此hadoop是hadoop-2.2.0是32位的编译出来的,亲测可用
hadoop-2.2.0 64bit下载,自己编译的 [INFO] Reactor Summary: [INFO] [INFO] Apache Hadoop Main ................................ SUCCESS [1.834s] [INFO] Apache Hadoop Project POM ...........................
Hadoop-2.2.0-64位源码编译及分布式安装指南,步骤比较详细,从零基础学习
Hadoop官网上下载的hadoop-2.2.0安装包是32位的,直接运行在64位的linux系统上会有问题,所以需要自己将hadoop-2.2.0安装包编译为64位。
本人经过4个小时顺利将hadoop官方的32位编译为64位,通过测试可用,方便在64位linux安装hadoop的用户使用,编译时间很长,也很苦啊,解决了很多报错的问题,所以分多要一点,还望理解! 注:*****因为本人CSDN等级...
hadoop-2.2.0重新编译和分布式安装
hadoop-2.2.0, 64 bit,下载 自己编译的64bit的hadoop-2.2.0,...This command was run using /home/hadoop/Desktop/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/share/hadoop/common/hadoop-common-2.2.0.jar
Hadoop 2.2.0版本中在64为linux系统上运行所需要的native库文件。需要时用此native文件夹覆盖Hadoop 2.2.0中native文件夹即可。
本人经过4个小时顺利将hadoop官方的32位编译为64位,通过测试可用 注:*****因为本人CSDN等级低上传限制为50M,源码压缩后有91M,所以用winrar压缩分为了2个卷,需要同时下载才可以使用,另一个卷part1在我的资源...
centos64位下用hadoop32位搭建的环境会报native库异常错误,由于官方提供的是hadoop-2.2.0的32位版本,无法在linux64位下正常运行。经本人亲自将32位编译成64位,可以成功在centos64位下运行。
hadoop2.2.0 eclipse插件-重新编译过。hadoop用的是hadoop2.2.0版本,eclipse用的是 eclipse-kepler。 插件 eclipse-kepler
Hadoop-2.2.0编译安装步骤 一,准备环境 1.1 分别设置三台节点ip地址(固定) 此步骤所有节点都要操作 vi /etc/sysconfig/network-scripts/ifcfg-eth0 1.2 修改三台节点主机名 此步骤所有节点都要操作 vi /...
亲自编译的,我的编译环境 eclipse indigo X86_64 版本。centos。
编译的hadoop的Eclipse插件,
hadoop-2.2.0.tar.gz官方版中native库只支持32位,在64位linux下运行会报错,需要下载Hadoop源码到本地系统内进行重新编译,编译过程繁琐复杂,对于没有相关经验的同学是一大挑战,需要学习了解linux下进行编译的...
Hadoop-2.2.0版本官方没有发布针对64位的本地库,附件是在ubuntu ADM64系统下自己编译出来的本地库。下载官方发布包,用此附件替换lib/native下的文件就可以。
windows系统手动编译spark-2.2.0-bin-2.6.0-cdh5.7.0.tgz apache-maven-3.3.9-bin.tar.gz hadoop-2.6.0-cdh5.7.0.tar.gz jdk-8u91-linux-x64.tar.gz scala-2.11.8.tgz