文档介绍:在完成单节点环境搭建的基础上进行集群环境搭建集群搭建准备: 至少两台已完成单节点搭建的机器(此例为两台, IP 分别是 与 ,其中 10为 master ) 配置阶段: 1 、配置一系列文件(所有节点上) 1) 配置 etc 下的 hosts 文件 sudo gedit /etc/hosts (注:打开后将里面的内容全部删除,不删除的话启动时会出现所有 slave 启动正常, 但是 master 上的 DataNode 为0, 导致系统不能正常运转的情况, 全部删除以后添加所有节点的 IP 和标识符,格式如下 master slave 标识符可以随便写,主要是起到一个映射作用) 2) 进入 hadoop 目录下,配置 conf 下的 masters 文件 cd /usr/local/hadoop sudo gedit conf/masters (打开后将里面内容清空,然后添加“ master ”或者 master 的 IP“ ”,此处即是 hosts 中配置的映射,填 master 或者直接填 IP 都是一样的) 3) 配置 conf 下的 slaves 文件 sudo gedit conf/slaves ( 打开后将里面内容清空, 然后添加“ slave ”或者 slave 的 IP“ ”, 原因同上) 4) 配置 conf 下的 core- 文件 sudo gedit conf/core- ( 因为已完成单节点配置, 因此只需要修改就行了。打开后将第一个<property> 标签中的 localhost 改为“ master ”或者 master 的 IP ,如下 Xml 代码<property> <name> </name> <value> hdfs://master:9000 </value> </property> 第二个<property> 标签,即包含<name></name> 一行的那个,其中的“<value> ”表示文件上传到 dfs 上时的备份个数, 此数值不能大于 slave 即 datanode 的个数) 5) 配置 conf 下的 hdfs- 文件(此配置在 slave 节点上可有可无) sudo gedit conf/hdfs- (打开后在空的<configuration> </configuration> 中添加如下配置 Xml 代码<property> <name> </name> <value> 1 </value> </property> <property> <name> </name> <value> /home/hadoop/hdfs/name </value> </property> <property> <name> </name> <value> /home/hadoop/hdfs/data </value> </property> 6) 配置