你好,游客 登录 注册 搜索
背景:
阅读新闻

Ubuntu 16.04安装 Hadoop 2.8.3 图文教程

[日期:2017-12-26] 来源:Linux社区  作者:youran-he [字体: ]

环境:Ubuntu 16.04

需要软件:jdk ssh

https://mirrors.tuna.tsinghua.edu.cn/apache/Hadoop/common/

Hadoop 2.8.3

安装 jdk并配置环境变量

安装ssh和rshync,主要设置免密登录

sudo apt-get install ssh

sudo apt-get install rshync

sh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

ssh

安装hadoop

root@chineselinuxuniversity.net:/usr/local/hadoop# tar -xzvf /home/hett/Downloads/hadoop-2.8.3.tar.gz
root@chineselinuxuniversity.net:/usr/local/hadoop# mv hadoop-2.8.3  hadoop
root@chineselinuxuniversity.net:/usr/local# cd hadoop/
root@chineselinuxuniversity.net:/usr/local/hadoop# mkdir tmp
root@chineselinuxuniversity.net:/usr/local/hadoop# mkdir hdfs
root@chineselinuxuniversity.net:/usr/local/hadoop# mkdir hdfs/data
root@chineselinuxuniversity.net:/usr/local/hadoop# mkdir hdfs/name
root@chineselinuxuniversity.net:/usr/local/hadoop# nano /etc/profile

配置
export HADOOP_HOME=/usr/local/hadoop
export JAVA_HOME=/usr/local/jdk1.8.0_151
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH:$HADOOP_HOME/bin


root@chineselinuxuniversity.net:/usr/local/hadoop# source /etc/profile


root@chineselinuxuniversity.net:/usr/local/hadoop# cd etc/hadoop/
root@chineselinuxuniversity.net:/usr/local/hadoop/etc/hadoop# ls
capacity-scheduler.xml      httpfs-env.sh            mapred-env.sh
configuration.xsl          httpfs-log4j.properties  mapred-queues.xml.template
container-executor.cfg      httpfs-signature.secret  mapred-site.xml.template
core-site.xml              httpfs-site.xml          slaves
hadoop-env.cmd              kms-acls.xml            ssl-client.xml.example
hadoop-env.sh              kms-env.sh              ssl-server.xml.example
hadoop-metrics2.properties  kms-log4j.properties    yarn-env.cmd
hadoop-metrics.properties  kms-site.xml            yarn-env.sh
hadoop-policy.xml          log4j.properties        yarn-site.xml
hdfs-site.xml              mapred-env.cmd
root@chineselinuxuniversity.net:/usr/local/hadoop/etc/hadoop#

root@chineselinuxuniversity.net:/usr/local/hadoop/etc/hadoop# nano hadoop-env.sh

export  JAVA_HOME=/usr/local/jdk1.8.0_151

配置yarn-env.sh

export  JAVA_HOME=/usr/local/jdk1.8.0_151

3)配置core-site.xml 
添加如下配置:

<configuration>
 <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
    <description>HDFS的URI,文件系统://namenode标识:端口号</description>
</property>

<property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/hadoop/tmp</value>
    <description>namenode上本地的hadoop临时文件夹</description>
</property>
</configuration>

4),配置hdfs-site.xml 
添加如下配置

<configuration>
<!—hdfs-site.xml-->
<property>
    <name>dfs.name.dir</name>
    <value>/usr/hadoop/hdfs/name</value>
    <description>namenode上存储hdfs名字空间元��据 </description> 
</property>

<property>
    <name>dfs.data.dir</name>
    <value>/usr/hadoop/hdfs/data</value>
    <description>datanode上数据块的物理存储位置</description>
</property>

<property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>副本个数,配置默认是3,应小于datanode机器数量</description>
</property>
</configuration>

5),配置mapred-site.xml 
添加如下配置:

 

<configuration>
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
</configuration>

6),配置yarn-site.xml 
添加如下配置:

<configuration>
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>192.168.241.128:8099</value>
</property>
</configuration>

4,Hadoop启动 
1)格式化namenode

$ bin/hdfs namenode –format

2)启动NameNode 和 DataNode 守护进程

$ sbin/start-dfs.sh

3)启动ResourceManager 和 NodeManager 守护进程

$ sbin/start-yarn.sh
  1. $ cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost 
  2. $ ssh-keygen -t rsa              # 会有提示,都按回车就可以 
  3. $ cat id_rsa.pub >> authorized_keys  # 加入授权 

root@chineselinuxuniversity.net:~# cd /usr/local/hadoop/
root@chineselinuxuniversity.net:/usr/local/hadoop# sbin/start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
Starting namenodes on [localhost]
localhost: starting namenode, logging to /usr/local/hadoop/logs/hadoop-root-namenode-chineselinuxuniversity.net.out
localhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-root-datanode-chineselinuxuniversity.net.out
........

5,启动验证 
1)执行jps命令,有如下进程,说明Hadoop正常启动

# jps
6097 NodeManager
11044 Jps
7497 -- process information unavailable
8256 Worker
5999 ResourceManager
5122 SecondaryNameNode
8106 Master
4836 NameNode
4957 DataNode

 

Hadoop项目之基于CentOS7的Cloudera 5.10.1(CDH)的安装部署  http://www.chineselinuxuniversity.net/Linux/2017-04/143095.htm

Hadoop2.7.2集群搭建详解(高可用)  http://www.chineselinuxuniversity.net/Linux/2017-03/142052.htm

使用Ambari来部署Hadoop集群(搭建内网HDP源)  http://www.chineselinuxuniversity.net/Linux/2017-03/142136.htm

Ubuntu 14.04下Hadoop集群安装  http://www.chineselinuxuniversity.net/Linux/2017-02/140783.htm

CentOS 6.7安装Hadoop 2.7.2  http://www.chineselinuxuniversity.net/Linux/2017-08/146232.htm

Ubuntu 16.04上构建分布式Hadoop-2.7.3集群  http://www.chineselinuxuniversity.net/Linux/2017-07/145503.htm

CentOS 7.3下Hadoop2.8分布式集群安装与测试  http://www.chineselinuxuniversity.net/Linux/2017-09/146864.htm

CentOS 7 下 Hadoop 2.6.4 分布式集群环境搭建  http://www.chineselinuxuniversity.net/Linux/2017-06/144932.htm

Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程  http://www.chineselinuxuniversity.net/Linux/2017-06/144926.htm

更多Hadoop相关信息见Hadoop 专题页面 http://www.chineselinuxuniversity.net/topicnews.aspx?tid=13

本文永久更新链接地址http://www.chineselinuxuniversity.net/Linux/2017-12/149854.htm

linux
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数

       

评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款