Cenos 7 搭建 hadoop

本文详细介绍Hadoop的安装步骤及配置方法,包括下载、解压、环境变量配置、主机名与IP映射等关键环节,并指导如何启动及验证Hadoop集群运行状态。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

个人备忘

什么是hadoop ?

hadoop 是一个由Apache基金会所开发的分布式系统基础架构。Apache Hadoop 项目是用于开发可靠,可扩展,分布式计算的开源软件。Apache Hadoop 软件库是一个框架,允许使用简单的编程模型在大量计算机上对大型数据集进行分布式处理。

核心1
HDFS —–分布式文件系统

核心2
MapReduce –分布式计算框架

命令如下(单点伪分布) :

//下载
[root@VM_12_177_centos hadoop]# wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.8.1/hadoop-2.8.1.tar.gz

//解压
[root@VM_12_177_centos hadoop]# tar -zxvf hadoop-2.8.1.tar.gz -C /agui/hadoop/

//修改配置文件
[root@VM_12_177_centos hadoop]# vim /etc/profile

#hadoop
export HADOOP_HOME=/agui/hadoop/hadoop-2.8.1
export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$HADOOP_HOME/bin

[root@VM_12_177_centos hadoop]# source /etc/profile

//修改主机名
[root@VM_12_177_centos hadoop]# vim /etc/sysconfig/network

NETWORKING=yes
HOSTNAME=agui

//修改host
[root@VM_12_177_centos hadoop]# vim /etc/hosts

123.206.66.232 agui


//说明
/etc/profile 功能 : 任何位置都可以使用hadoop 命令,不需要到hadoop安装目录。
/etc/sysconfig/network  /etc/hosts  , 设置主机名,主机名和ip 的映射,这样我们可以通过主机名来配置 master 和 slave之间的ip 配置项。


//继续修改配置文件(如下四个重要配置)
[root@VM_12_177_centos hadoop-2.8.1]# cd etc/hadoop/
[root@VM_12_177_centos hadoop]# ll
total 156
-rw-rw-r-- 1 500 500   774 Jun  2 14:24 core-site.xml
-rw-rw-r-- 1 500 500   775 Jun  2 14:24 hdfs-site.xml
-rw-rw-r-- 1 500 500   690 Jun  2 14:24 yarn-site.xml
-rw-rw-r-- 1 500 500    10 Jun  2 14:24 slaves
-rw-rw-r-- 1 500 500   758 Jun  2 14:24 mapred-site.xml.template

//第一个 core-site.xml 
[root@VM_12_177_centos hadoop]# vim core-site.xml 

这里写图片描述

//第二个 hdfs-site.xml 
[root@VM_12_177_centos hadoop]# vim hdfs-site.xml 

这里写图片描述

//第三个mapred-site.xml.template 
[root@VM_12_177_centos hadoop]# vim mapred-site.xml.template 

这里写图片描述

//第四个yarn-site.xml 
[root@VM_12_177_centos hadoop]# vim yarn-site.xml 

这里写图片描述

//配置slave 
[root@VM_12_177_centos hadoop]# vim slaves
#我们的主机名,因为我们只有一台,所以只配置主机名即可,有slave那就继续配置。
agui 

初始化&启动

//初始化
[root@VM_12_177_centos tmp]# hdfs namenode -format

这里写图片描述

//启动
start-all.sh 或者start-dfs.sh  start-yarn.sh

验证

jps , 访问50070/8088

hdfs dfs -put
hdfs dfs -mkdir

### 安装和配置Hadoop集群 #### 准备工作 为了确保所有节点上的环境一致性,在`hadoop2`和`hadoop3`两台服务器的环境变量配置也需要与`hadoop1`保持同步。可以通过手动添加相同环境变量的方法来实现这一点,或者更简便的是直接从`hadoop1`复制已配置好的环境变量文件至其他节点,并通过执行命令 `source /etc/profile` 来重新加载这些设置[^1]。 #### 解压安装JDK 对于Java开发工具包(JDK),可以将其下载并解压缩到指定目录下完成安装过程。具体操作如下所示: ```bash tar -zxvf jdk-8u202-linux-x64.tar.gz -C /opt/module/ ``` 这一步骤会把JDK放置于 `/opt/module/` 文件夹内以便后续使用[^3]。 #### 修改核心站点配置 进入Hadoop配置路径并对`core-site.xml`进行编辑是必要的步骤之一。此文件位于Hadoop安装目录下的`etc/hadoop`子目录中。以下是访问该文件的具体指令: ```bash cd /opt/module/hadoop/etc/hadoop vim core-site.xml ``` 在此过程中可以根据实际需求调整相应的参数以适应集群部署的要求[^2]。 #### 配置MySQL数据库服务(如果需要) 如果有额外的需求涉及到关系型数据库的支持,则可能还需要单独安装MySQL客户端和服务端组件。可通过RPM包管理器来进行这项工作的实施;例如,针对特定版本号的一系列软件包可按顺序逐一安装: ```bash rpm -ivh mysql-community-common-5.7.29-1.el7.x86_64.rpm rpm -ivh mysql-community-libs-5.7.29-1.el7.x86_64.rpm rpm -ivh mysql-community-5.7.29-1.el7.x86_64.rpm ``` 上述命令将逐步引导用户完成整个MySQL套件的本地化部署流程[^4]。 #### 启动历史服务器 最后,在其中一个选定的数据处理节点上启动MapReduce作业的历史记录服务是非常重要的环节。这一动作能够帮助管理员更好地监控任务运行状态以及排查可能出现的问题。启动命令如下: ```bash mapred --daemon start historyserver ``` 这条语句会在后台开启一个守护进程专门负责管理和维护已完成的任务日志信息[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值