DolphinScheduler操作步骤

本文详细介绍了如何启动DolphinScheduler,使用普通用户登录后上传工作流脚本至资源中心,接着在WorkerServer节点分发脚本依赖。然后,通过admin用户配置运行环境,包括HADOOP、SPARK等组件的路径。接下来,在DolphinScheduler中创建工作流并配置任务节点,最后上线并执行工作流。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1)启动DolphinScheduler

2)使用普通用户登录

3)向DolphinScheduler资源中心上传工作流所需脚本

1)创建文件夹
2)上传工作流所需脚本 : 将工作流所需的所有脚本上传到资源中心scripts路径下

4)向DolphinScheduler的WorkerServer节点分发脚本依赖的组件

5)配置运行环境

(1)切换到 admin 用户,在环境管理下创建环境
(2)在环境配置中添加如下内容

export HADOOP_HOME=/opt/data/hadoop-3.1.3
export HADOOP_CONF_DIR=/opt/data/hadoop-3.1.3/etc/hadoop
export SPARK_HOME=/opt/data/spark
export SPARK_HOME2=/opt/soft/spark2
export PYTHON_HOME=/opt/soft/python
export JAVA_HOME=/opt/data/jdk1.8.0_212
export HIVE_HOME=/opt/data/hive
export FLINK_HOME=/opt/soft/flink
export DATAX_HOME=/opt/data/datax
export PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME/bin:$PATH  

6)创建工作流

(1)在gmall项目下创建工作流
(2)各任务节点配置如下

7)上线工作流

8)执行工作流

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

大数据海中游泳的鱼

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值