Enjoy the good life everyday!
关闭
欢迎来PyGo个人空间 ^_^
Hadoop1.2.1集群安装 | PyGo²技术分享

Hadoop1.2.1集群安装

Hadoop1.2.1 + Python2.7 + Ubuntu15.10

Hadoop1 Python2 Ubuntu15 大数据

摘要

最近BigData貌似很火,本人也跟着一起凑凑热闹,初学hadoop,由于Ubuntu对于python的支持很好,个人也觉得Ubuntu确实不错,所以使用的是Ubuntu15.10系统,处理大数据采用python + hadoop的方式进行处理。

版本信息

name vsersion remark
Ubuntu 15.10 系统的版本
Python 2.7 开发语言
JDK 1.7 hadoop运行的基础环境
Hadoop 1.2.1 大数据处理工具
VMware 6.0 虚拟机

正文

本文主要讲述hadoop集群的安装过程,有什么不准确之处可以留言,一起交流share。

虚拟机安装

首先VMware上安装4台虚拟机,分别是Ubuntu15.10系统,具体安装百度即可so easy。安装时候对电脑的机器名直接命名为master,node01,node02,node03(1个主节点,3个子节点),接下来2-7的操作是针对于这4台虚拟机分别进行同样的操作。

创建hadoop用户组

命令:sudo addgroup hadoop
addgroup

创建hadoop用户

命令:sudo adduser -ingroup hadoop
adduser
回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可。如果不输入密码,回车后会重新提示输入密码,即密码不能为空。最后确认信息是否正确,如果没问题,输入 Y,回车即可。

添加hadoop root权限

命令:sudo gedit /etc/sudoers
gedit
打开sudoers 文件,在root ALL=(ALL:ALL) ALL这行下面添加:
hadoop ALL=(ALL:ALL) ALL
修改完保存关闭即可。
注:如果系统的gedit用不了,自行上网解决,这里给出的方案是用vi或vim。

切换到hadoop用户

命令:su hadoop,输入密码即可登录hadoop用户。
su_hadoop

安装ssh

命令:sudo apt-get install openssh-server
openssh
安装完成后启动ssh服务,命令:sudo /etc/init.d/ssh start
查看ssh服务是否启动,命令:ps -ef | grep ssh
grep
服务存在之后,设置实现ssh免密码登录,命令:ssh-keygen -t rsa -P “”
ssh
下面我们将公钥追加到authorized_keys中,它用户保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容,命令:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
cat

登录ssh

命令:ssh localhost,退出,命令:exit
ssh_localhost

安装Java环境

命令:sudo apt-get install openjdk-7-jdk
install_java
查看安装结果,输入命令:java -version,结果如下表示安装成功。
java_version
注:java安装默认路径:/usr/lib/jvm/java-7-openjdk-amd64
以上操作基于hadoop用户,并且每个电脑配置一致

hadoop配置

正餐开始了,仔细看!!!
  • hadoop-env配置:
    进入到hadoop文件的conf文件夹,使用命令:sudo gedit hadoop-env.sh
    gedit_hadoop_env
    添加以下信息到文件中,保存即可。
    解释下内容:JAVA_HOME是java的安装路径,HADOOP_INSTALL是hadoop的安装路径,PATH是系统文件路径:
    1
    2
    3
    export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64
    export HADOOP_INSTALL=/usr/local/hadoop
    export PATH=$PATH:/usr/local/hadoop/bin

hadoop_path

  • core-site.xml配置
    hadoop文件的conf文件夹,使用命令:sudo gedit core-site.xml
    gedit_core_site
    添加以下信息到文件中,保存即可。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    <configuration>
    <property>
    <name>fs.default.name</name>
    <value>hdfs:192.168.2.139:9000</value>
    <final>true</final>
    </property>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/hadoop/tmp</value>
    <description>A base for other temporary directory</description>
    </property>
    </configuration>
  • hdfs-site.xml配置
    hadoop文件的conf文件夹,使用命令:sudo gedit hdfs-site.xml
    gedit_hdfs_site
    添加以下信息到文件中,保存即可。

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    <configuration>
    <property>
    <name>dfs.name.dir</name>
    <value>/home/hadoop/hadoop/name</value>
    <final>true</final>
    </property>
    <property>
    <name>dfs.data.dir</name>
    <value>/home/hadoop/hadoop/data</value>
    <final>true</final>
    </property>
    <property>
    <name>dfs.replication</name>
    <value>3</value>
    <final>true</final>
    </property>
    </configuration>
  • mapred-site.xml配置
    hadoop文件的conf文件夹,使用命令:sudo gedit mapred-site.xml
    gedit_mapred_site
    添加以下信息到文件中,保存即可。

    1
    2
    3
    4
    5
    6
    <configuration>
    <property>
    <name>mapred.job.tracker</name>
    <value>192.168.2.139:9001</value>
    </property>
    </configuration>
  • master和slaves配置
    hadoop文件的conf文件夹,使用命令:sudo gedit mastersudo gedit slaves
    gedit_master_slaves
    在master文件中添加主节点计算机名称/IP即可。
    在slaves文件中添加子节点计算机名称/IP即可。

复制hadoop

把hadoop分别向其他机器上复制一份,放到相同目录。
命令:scp(自行百度用法,这里不做详述)

建立hadoop所需文件夹

在每个机器上建立所需要的文件夹,在步骤8中有core中配置的hadoop.tmp.dir文件夹,hdfs中配置的dfs.data.dir文件夹,需要进行建立以及是hadoop用户,读写权限。
执行命令:sudo mkdir

格式化namenode

进入到hadoop/bin目录,在主节点机器上执行命令:hadooop namenode -fomat,出现successfully字样成功,不成功大部分都是配置文件的问题。

启动hadoop

在主节点机器上进入hadoop/bin目录下,执行命令:hadoop-start.sh,分别会启动NameNode,Jobtracker,SecondaryNameNode,DataNodeTaskTracker

查看hadoop

在主节点机器上执行命令:jps,在主节点机器上会出现以下进程
master_jps
在子节点机器上执行命令:jps,在子节点机器上会出现以下进程
slaves_jps

查看运行状态

在浏览器中输入主机IP:50030,会出现hadoop运行状态。
hadoop

停止hadoop

在主节点机器上进入到hadoop/bin目录下,执行命令:stop-all.sh,这样hadoop停止运行。

建议

本人也初学,有不对的希望大家谅解。
  • 本文作者:mingliang.gao【一个爱老婆Python程序猿。。。。。。】
  • 本文链接: http://pygo2.top/articles/36621/
  • 版权声明: 本博客所有文章欢迎转载,转载请注明出处!
觉得有帮助 请偶坐个公交车
0%