1)启动DolphinScheduler
2)使用普通用户登录
3)向DolphinScheduler资源中心上传工作流所需脚本
1)创建文件夹
2)上传工作流所需脚本 : 将工作流所需的所有脚本上传到资源中心scripts路径下
4)向DolphinScheduler的WorkerServer节点分发脚本依赖的组件
5)配置运行环境
(1)切换到 admin 用户,在环境管理下创建环境
(2)在环境配置中添加如下内容
export HADOOP_HOME=/opt/data/hadoop-3.1.3
export HADOOP_CONF_DIR=/opt/data/hadoop-3.1.3/etc/hadoop
export SPARK_HOME=/opt/data/spark
export SPARK_HOME2=/opt/soft/spark2
export PYTHON_HOME=/opt/soft/python
export JAVA_HOME=/opt/data/jdk1.8.0_212
export HIVE_HOME=/opt/data/hive
export FLINK_HOME=/opt/soft/flink
export DATAX_HOME=/opt/data/datax
export PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$FLINK_HOME/bin:$DATAX_HOME/bin:$PATH
6)创建工作流
(1)在gmall项目下创建工作流
(2)各任务节点配置如下