Spark大数据学习笔记_第2篇_CDH集群环境搭建

本文详细介绍了在CDH集群环境下搭建Spark大数据环境的步骤,包括Hadoop的安装与配置,修改核心配置文件,如core-site.xml、hdfs-site.xml等,以及启动HDFS和YARN集群的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Spark大数据学习笔记_第2篇_CDH集群环境搭建


1. 安装hadoop包

1、将hadoop-2.5.0-cdh5.3.6.tar.gz,上传到虚拟机的/usr/local目录下。下载地址
2、将hadoop包进行解压缩:

tar -zxvf hadoop-2.5.0-cdh5.3.6.tar.gz

3、对hadoop目录进行重命名:

mv hadoop-2.5.0-cdh5.3.6 hadoop

4、配置hadoop相关环境变量

vi ~/.bashrc
export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source ~/.bashrc

5、创建/usr/local/data目录

2. 修改core-site.xml

<property>
  <name>fs.default.name</name>
  <value>hdfs://sparkproject1:9000</value>
</property>

注:sparkproject1为主机名

3. 修改hdfs-site.xml

<property>
  <name>dfs.name.dir</name>
  <value>/usr/local/data/namenode</value>
</property>
<property>
  <name>dfs.data.dir</name>
  <value>/usr/local/data/datanode</value>
</property>
<property>
  <name>dfs.tmp.dir</name>
  <value>/usr/local/data/tmp</value>
</property>
<property>
  <name>dfs.replication</name>
  <value>2</value>
</property>

4. 修改mapred-site.xml

<property>
  <name>mapreduce.framework.name</name>
  <value>yarn</value>
</property>

5. 修改yarn-site.xml

<property>
  <name>yarn.resourcemanager.hostname</name>
  <value>sparkproject1</value>
</property>
<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

6. 修改slaves文件

sparkproject2
sparkproject3

7. 在另外两台机器上搭建hadoop

1、使用如上配置在另外两台机器上搭建hadoop,可以使用scp命令将sparkproject1上面的hadoop安装包和~/.bashrc配置文件都拷贝过去。

scp -r hadoop root@sparkproject2:/usr/local

2、要记得对.bashrc文件进行source,以让它生效。

source ~/.bashrc

3、记得在sparkproject2和sparkproject3的/usr/local目录下创建data目录。

8. 启动hdfs集群

1、格式化namenode:在sparkproject1上执行以下命令,

hdfs namenode -format

2、启动hdfs集群:

start-dfs.sh

3、验证启动是否成功:jps、50070端口
sparkproject1:namenode、secondarynamenode
sparkproject2:datanode
sparkproject3:datanode
4、上传文件,试试效果

hdfs dfs -put hello.txt /hello.txt

9. 启动yarn集群

1、启动yarn集群:start-yarn.sh
2、验证启动是否成功:jps、8088端口
sparkproject1:resourcemanager、nodemanager
sparkproject2:nodemanager
sparkproject3:nodemanager

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

superbeyone

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值