hadoop集群环境搭建_电信卡如何数据恢复
日期:2014-08-18 / 人气: / 来源:网络
1 hadoop集群规划
1.1 共有A、B、C 三台机器;
1.2 A 作为master,B作为slave1,C作为slave2;
1.3 IP A :192.168.1.103;B:192.168.1.104;C:192.168.1.101;
1.4 OS:centos6.2(64bit)
2 hadoop集群搭建步骤
2.1 创建 hadoop用户,并使该用户拥有root权限(在master机器上进行)
#创建hadoop用户
useradd hadoop
#给用户hadoop添加密码
passwd hadoop
#付给hadoop用户root权限
vi /etc/passwd 将hadoop用户的用户ID 、组ID 都改为0,如hadoop:x:0:0::/home/hadoop:/bin/bash(记得先切换到root用户哦,其他用户估计对该文件没有权限)
2.2 切换到hadoop用户,进入hadoop用户主目录(在master机器上进行)
#切换到hadoop用户
su hadoop
根据提示输入密码(如果从普通用户切换到hadoop,需要密码;如果从root用户切换到hadoop,不许要输入密码,也就没有这一步了)
#进入hadoop的主目录
cd /home/hadoop
2.3 安装JDK环境(hadoop是JAVA编写的一个工具,需要使用JDK)(在master机器上进行)
yum install openjdk*(yum 是centos上的一个安装软件的工具,可以查找软件、删除软件、更新软件等)
2.4 安装openssh(hadoop节点间通信需要使用到它,并且相对ssh而言,这个是免费的)(在master机器上进行)
#安装openssh
yum install openssh*
#生存ssh密钥
ssh-keygen -t rsa -P ''
#进入.ssh文件夹
cd /root/.ssh
#将公钥加到认证的公钥文件中
cat id_rsa.pub>>authorized_keys
2.5 下载hadoop安装包并进行相应的配置(在master机器上进行)
#下载hadoop-1.0.4.tar.gz
#解压hadoop-1.0.4.tar.gz到/home/hadoop
#hadoop-1.0.4文件夹中的conf文件夹中是我们需要配置的文件(详情见地址)
http://download.csdn.net/detail/lovemelovemycode/5634581
2.6 配置hosts和hostname(在master上进行)
#下载这个文件
http://download.csdn.net/detail/lovemelovemycode/5634599
2.7 在slave1和slave2上重复2.1、2.2、2.3的步骤
2.8 将master上相应的文件copy到slave1slave2上(在master上进行)
scp -r .ssh hadoop@slave1:/root
scp -r .ssh hadoop@slave2:/root
scp -r /home/hadoop/hadoop-1.0.4 hadoop@slave1:/home/hadoop
scp -r /home/hadoop/hadoop-1.0.4 hadoop@slave2:/home/hadoop
scp -r /etc/hosts hadoop@slave1:/etc
scp -r /etc/hostname hadoop@slave2:/etc
2.9 关闭 master、slave1、slave2的防火墙
#暂时关闭防火墙
/etc/init.d/iptables stop
#永久关闭防火墙
chkconfig –level 35 iptables off
2.10 对namenodedatanode进行格式化(在master上进行)
bin/hadoop namenode -format
bin/hadoop datanode -format
2.11 启动hadoop(在master上进行)
# 进入hadoop-1.0.4
bin/start-all.sh
3 hadoop集群搭建成功的验证方法
3.1 通过java 的jps命令验证
http://download.csdn.net/detail/lovemelovemycode/5634649
3.2 通过http://master:50070 和http://master:50030验证
Hypertable on HDFS(hadoop) 安装
Hypertable on HDFS(hadoop) 安装,安装指南过程4.2.Hypertable on HDFS创建工作目录$ hadoop fs -mkdir /hypertable$ hadoop fs -chmod 777 。
Hadoop实战,HDFS
作者:管理员
推荐内容 Recommended
- 江苏飞浩信息科技期待您的加入07-20
- 江苏飞浩科技欢迎您07-19
相关内容 Related
- 江苏飞浩信息科技期待您的加入07-20
- 江苏飞浩科技欢迎您07-19