【大数据集群搭建-Apache】Apache版本大数据组件启动命令

本文详细介绍了Apache相关的大数据组件,如Zookeeper、Hadoop、Hive、HBase、ES、Spark、Kafka、Flink和Oozie的启动命令,包括各服务的启动、停止及状态检查方法,以及相关端口的查看。内容适用于集群环境的管理和运维人员。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【大数据集群搭建-Apache】Apache版本大数据组件启动命令

0)前言

注意

这里所有的组件安装目录都为/export/servers/,大家执行的时候更改到自己的安装路径即可。

1)Zookeeper

所有机器都要执行

/export/servers/zookeeper-3.4.6/bin/zkServer.sh start

#查看执行状态
/export/servers/zookeeper-3.4.6/bin/zkServer.sh status

2)Hadoop

(1)启动HDFS相关服务

配置/etc/profile的情况下可以直接执行

start-all.sh

注意

如果遇到了某服务无法启动的情况下,那么就需要对服务进行单独启动了。

以下脚本都在hadoop/sbin目录下,如果要停止某个服务将start换成stop即可。

#主节点启动namenode 
hadoop-daemon.sh start namenode

#从节点启动namenode 
hadoop-daemon.sh start datanode

#主节点启动resourcemanager 
yarn-daemon.sh  start resourcemanager

#从节点启动nodemanager 
yarn-daemon.sh start nodemanager

#单独启动hdfs相关服务 
start-dfs.sh

#单独启动yarn相关服务 
start-yarn.sh

(2)启动历史任务服务进程

mr-jobhistory-daemon.sh start historyserver

(3)端口号查看

namenode:50070

yarn:8088

MapReduceHistory:19888

3)Hive

(1)后台启动metastore服务和hiveserver2服务

nohup /export/servers/hive-2.1.0/bin/hive --service metastore &
nohup /export/servers/hive-2.1.0/bin/hive --service hiveserver2 &

(2)启动beeline客户端

/export/servers/hive-2.1.0/bin/beeline

依次执行以下命令

#5gcsp-bigdata-svr1为hostname
!connect jdbc:hive2://5gcsp-bigdata-svr1:10000
#账号
root
#密码	
123456	

4)HBase

(1)启动hbase

start-hbase.sh

(2)验证是否启动成功

# 启动hbase shell客户端 
hbase shell

# 输入status显示结果类似如下即可 
status
#1 active master, 0 backup masters, 3 servers, 0 dead, 0.6667 average load

端口号查看:16010

5)ES

(1)所有服务器以非root用户执行后台启动

nohup /export/servers/es/elasticsearch-7.6.1/bin/elasticsearch 2>&1 &

(2)ES-head可视化服务

#启动:分为前台和后台
cd /export/s
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值