大数据技术栈-Hadoop3.3.4-完全分布式集群搭建部署-centos7(完全超详细-小白注释版)虚拟机安装+平台部署

这篇博客详细介绍了如何在CentOS7上搭建Hadoop3.3.4的完全分布式集群,包括环境配置、JDK与Hadoop的安装、配置文件修改以及集群的初始化和启动。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

目录

环境条件:

1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop)

(1)直接新建一台虚拟机

(2)首次启用虚拟机,进行安装

一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录)

1、查看一下本机与虚拟机的网卡和ip信息

(1)首先,查看本机的网卡配置,使用cmd查看ipconfg,找到VMware的虚拟网卡,查看ip

(2)查看虚拟机的网卡配置和网络信息

(3)修改Hostname

2、配置静态ip网卡

​编辑

​编辑

3、配置ssh免密登录

(1)修改hosts文件

(2)配置ssh

4、hadoop集群规划

二、安装jdk与hadoop

1、检查jdk是否安装

2、安装jdk,配置环境

3、准备Hadoop3.3.4安装包

(1)获取安装包

(2)解压安装包 

(3)检查 hadoop-3.3.4/etc/hadoop 路径下的文件 

4、配置Hadoop3.3.4环境变量

5.修改Hadoop配置文件内容

(1)修改hadoop-env.sh 添加JAVA_HOME

 (2)修改 core-site.xml 添加配置信息:

(3)修改yarn-site.xml

 (4)修改mapred-site.xml

 (5)修改hdfs-site.xml

 (6)修改workers

6.同步hadoop至slave1与slave2

三、初始化

1.初始化namenode

2.启动Hadoop

 (1)第一种启动方式

(2)第二种启动方式

(3) 检查启动状态

(4)关闭Hadoop


环境条件:

设备类型 软件类别 名称、版本号
PC机(建议内存8GB以上) 操作系统 Window10
软件 VMware Workstation 17 Player
虚拟机 Linux 操作系统 CentOS 7
镜像文件与安装包

CentOS-7-x86_64-DVD-2009.iso

Hadoop3.3.4.tar.gz
jdk-8u191-linux-x64.tar.gz
其他(看个人喜好选用) 工具 Xshell 7
Xftp 7

1、安装虚拟机(已安装好虚拟机的可跳转至  二、安装JDK与Hadoop

默认VMware已经安装好,打开VMware安装第一台虚拟机

(1)直接新建一台虚拟机

选中 已经下载好的镜像文件 CentOS7-x86_64-DVD-2009.iso 

修改机器名称、本机用户与密码,root用户也使用此密码

命名虚拟机名称,并设置本虚拟机的位置(建议选择储存空间大的位置,新建文件夹存放) 

 

 设置大小,默认为20GB,不用修改

选择 将虚拟磁盘存储为单个文件  然后下一步

 

检查虚拟机硬件配置,进行  自定义硬件 进行修改

 

内存设置为 2GB(最少2GB)

处理器数量设置为 2个

将网络适配器选择为自定义 选用 VMnet8 

 至此,虚拟机基本设置完成,点击完成即可。

(2)首次启用虚拟机,进行安装

直接启动

首次启用需等待系统自动下载

然后就进入系统了

注:本次安装过程使用了简易安装,不使用的话是需要自行选择需要安装的插件和软件

可以点击用户名进行普通登录,或选择 Not listed? 使用root用户登录

至此,虚拟机的安装就算结束了···

一、集群前置环境搭建(三台机器分别设置hostname、网卡(ip)配置、ssh免密登录)

1、查看一下本机与虚拟机的网卡和ip信息

(1)首先,查看本机的网卡配置,使用cmd查看ipconfg,找到VMware的虚拟网卡,查看ip

win + R 打开 cmd

cmd中使用 ipconfig 进行查看

  

找到 VMnet8 这个虚拟网卡,所有集群的IP需配置在此网段内。例如:192.168.13.20

记住192.168.13.1和255.255.255.0

(2)查看虚拟机的网卡配置和网络信息

使用 ifconfig

<think>好的,我现在需要帮助用户在虚拟机环境中配置和搭建Hadoop集群。根据用户提供的引用资料,我需要综合这些信息,整理出一个清晰的步骤指南。首先,我得回忆一下Hadoop集群部署的基本流程,然后结合用户提供的引用内容,确保每一步都准确,并正确引用来源。 首先,用户提到了几个引用,涉及虚拟机部署、网络配置、SSH安装和环境变量设置。我需要把这些步骤有序地整合起来。可能的基本步骤包括:准备虚拟机、配置网络、安装必要软件、配置Hadoop、格式化HDFS、启动集群以及创建快照。此外,用户还提到了可能遇到的问题和启停脚本,这些也需要考虑进去。 接下来,我需要逐一分析每个步骤。例如,部署虚拟机时,用户引用[1]中提到了node1、node2、node3部署,以及HDFS集群的初始化和启动。引用[2]提到了网络编辑器的配置,特别是VMnet8的设置,这涉及到静态IP和DNS的配置。引用[3]提到了安装SSH server,这是集群中节点间无密码通信的必要条件。引用[4]详细说明了环境变量的配置,包括JAVA_HOME和HADOOP_HOME的设置。 我需要确保每一步都正确引用对应的来源,并按照逻辑顺序排列。例如,先准备虚拟机,配置网络,然后安装SSH,接着安装JavaHadoop,配置环境变量,修改Hadoop配置文件,格式化HDFS,最后启动集群并验证。同时,用户可能需要优化建议和常见问题解决方法,如引用[1]中提到的快照和问题处理,以及启停脚本的使用。 在写作过程中,需要注意用户提到的系统级指令,比如行内公式用$...$,独立公式用$$...$$,但这个问题可能不涉及数学公式,所以可能不需要使用。另外,回答要使用中文,结构清晰,分步骤说明,并在适当的位置添加引用标记。 可能遇到的疑问点包括:如何正确配置core-site.xml、hdfs-site.xml等文件;如何设置SSH免密登录;环境变量配置的正确路径;以及格式化HDFS时的注意事项。需要确保这些步骤详细准确,避免用户操作时出错。 最后,生成的相关问题需要围绕Hadoop集群部署的扩展内容,比如性能优化、常见错误处理、与其他工具的整合等,确保用户能进一步深入学习。</think>以下是虚拟机环境中部署Hadoop集群的详细步骤指南(基于引用资料整合): ### 一、虚拟机准备 1. **创建3虚拟机** - 建议使用CentOS/Ubuntu系统(node1、node2、node3- 配置相同用户名(如hadoop)和密码[^1] 2. **配置静态IP** ```bash # 编辑网络配置文件(Ubuntu示例) sudo vi /etc/netplan/00-installer-config.yaml ``` 添加内容(示例): ```yaml addresses: [192.168.1.101/24] gateway4: 192.168.1.1 nameservers: addresses: [192.168.1.2, 8.8.8.8][^2] ``` ### 二、基础环境配置 1. **安装SSH服务** ```bash # Ubuntu系统 sudo apt-get install openssh-server # CentOS系统 sudo yum install openssh-server[^3] 2. **配置免密登录** ```bash ssh-keygen -t rsa # 三台节点均执行 ssh-copy-id node1 # 相互复制公钥 ssh-copy-id node2 ssh-copy-id node3 ``` ### 三、JavaHadoop安装 1. **安装JDK** ```bash tar -zxvf jdk-8u241-linux-x64.tar.gz -C /export/server/ ``` 2. **配置环境变量** ```bash # 编辑/etc/profile文件 export JAVA_HOME=/export/server/jdk1.8.0_241 export HADOOP_HOME=/export/server/hadoop-3.3.4 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin[^4] ``` ### 四、Hadoop集群配置 1. **核心配置文件** `etc/hadoop/core-site.xml`: ```xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://node1:8020</value> </property> </configuration> ``` 2. **HDFS配置文件** `etc/hadoop/hdfs-site.xml`: ```xml <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/export/data/hadoop/namenode</value> </property> ``` 3. **工作节点配置** `etc/hadoop/workers`: ``` node1 node2 node3 ``` ### 五、集群初始化与启动 1. **格式化HDFS** ```bash hdfs namenode -format # 仅在首次执行[^1] ``` 2. **启动集群** ```bash start-dfs.sh # 使用官方启停脚本[^1] ``` 3. **验证部署** ```bash jps # 应显示NameNode/DataNode进程 hdfs dfsadmin -report # 查看节点状态 ``` ### 六、优化建议 1. **创建集群快照** 在VirtualBox/Vmware中创建虚拟机快照,便于快速回滚 2. **使用启停脚本** 可编写自定义脚本管理集群: ```bash # 示例停止脚本 #!/bin/bash hdfs --daemon stop namenode hdfs --daemon stop datanode ```
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Hao.715

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值