1.下载复制jar包
2.配置
2.1 配置hadoop-env.sh
由于启动Hadoop时可能会使用ssh,所以在JAVA_HOME变量的值处写死为固定的路径,具体JDK在哪里,可以这样查看:
echo $JAVA_HOME
然后再在内容替换即可:
export JAVA_HOME=/usr/local/jdk1.7.0_67
2.2 配置core-site.xml
fs.defaultFS hdfs://mini1:9000 hadoop.tmp.dir /home/hadoop/hdpdata
2.3 配置mapred-site.xml
mapreduce.framework.name yarn
2.4 配置yarn-site.xml
yarn.resourcemanager.hostname weekend-1206-01 yarn.nodemanager.aux-services mapreduce_shuffle
2.5 配置环境变量
修改 /etc/profile
export JAVA_HOME=/usr/java/jdk1.7.0_65export HADOOP_HOME=/itcast/hadoop-2.4.1export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
2.6 修改slaves
在文件中输入所有的slave
mini1mini2mini3
3 格式化namenode(是对namenode进行初始化)
hdfs namenode -format (hadoop namenode -format)
4 启动hadoop
sbin/start-dfs.shsbin/start-yarn.sh
附
- (HDFS管理界面)
- (MR管理界面)