Spark 运行自带例子

本文主要介绍了在运行Spark自带示例时遇到的问题及解决方法,包括运行wordcount示例时遇到的NN low错误。该错误是由于Namenode的容量不足导致Hadoop进入安全模式。通过释放磁盘空间,可以避免此错误。同时,文章还提到了在处理此类问题中涉及的一些Hadoop命令。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 运行spark自带例子时遇到几个问题 

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop/

# Submit Spark's ApplicationMaster to YARN's ResourceManager, and instruct Spark to run the SparkPi example
SPARK_JAR=./assembly/target/scala-2.9.3/spark-assembly-0.8.1-incubating-hadoop2.2.0.jar \
    ./spark-class org.apache.spark.deploy.yarn.Client \
      --jar ./assembly/target/scala-2.9.3/spark-examples-assembly-0.8.1-incubating.jar \
      --class org.apache.spark.examples.SparkPi \
      --args yarn-standalone \
      --num-workers 3 \
      --master-memory 2g \
      --worker-memory 2g \
      --worker-cores 1

直接运行时总报错,应该先启动 start-master.sh

2. 运行wordcount

export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop/

# Submit Spark's ApplicationMaster to YARN's ResourceManager, and instruct Spark to run the SparkPi example
SPARK_JAR=./assembly/target/scala-2.9.3/spark-assembly-0.8.1-incubating-hadoop2.2.0.jar \
    ./spark-class org.apache.spark.deploy.yarn.Client \
      --jar ./assembly/target/scala-2.9.3/spark-examples-assembly-0.8.1-incubating.jar \
      --class org.apache.spark.examples.JavaWordCount \
      --args 'yarn-standalone' \
      --args 'hdfs://newslave3:9000/user/hadoop/input/test' \
      --num-workers 3 \
      --master-memory 2g \
      --worker-memory 2g \
      --worker-cores 2
输入参数个数应该正确,hdfs文件路径应该确定没有输错

3. 出现NN low错误 总是hadoop自动进入safe mode(hadoop dfsadmin safemode -leave也不管用 )

原因namenode容量不够,空出一些容量后就不会出现该错误

4.涉及的hadoop命令

hadoop dfsadmin -safemode leave
hadoop fs -ls 
hadoop fs  -cat
hadoop fs -rmr
hadoop fs -put
hadoop fs -mkdir
hadoop dfsadmin -report

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值