runtime过程中,常见jar问题解决 (Intellij 或 maven)

source download

Intellij IDEA 有时候不下载不了 code,使用如下命令,在“terminal”下运行

mvn dependency:resolve -Dclassifier=sources
io.netty
java.lang.NoSuchMethodError: io.netty.buffer.PooledByteBufAllocator.<init>

此类问题报错,主要是io.netty 多个jar 冲突导致。、

使用以下命令查看同一个jar 有哪些版本

mvn dependency:tree

对一些不愿意引入的依赖加上 exclusion

<exclusions>
                <exclusion>
                    <groupId>io.netty</groupId>
                    <artifactId>netty-common</artifactId>
                </exclusion>
                <exclusion>
                    <groupId>io.netty</groupId>
                    <artifactId>netty-buffer</artifactId>
                </exclusion>
            </exclusions>

需要注意的是 netty-all 不能顶替所有其他的netty的依赖,比如 netty-common

<exclusions>
            	 <exclusion>
                    <groupId>io.netty</groupId>
		    <artifactId>netty-all</artifactId>
            	 </exclusion>
             </exclusions>  

java.lang.NoSuchMethodError

java.lang.NoSuchMethodError通常是由于方法在运行时无法找到而引发的错误。可能的原因包括:

版本不匹配:方法可能在编译时存在,但在运行时的类路径中找不到匹配的版本。这可能是因为编译时使用了一个版本的库,而运行时使用了另一个版本的库。

依赖冲突:项目中可能存在多个依赖项,这些依赖项可能包含不同版本的相同类。当存在这种情况时,编译器可能会选择其中一个版本,而运行时却可能加载另一个版本,导致找不到方法。

比如:

2024-05-10 11:47:55,507 [ERROR] [Executor task launch worker for task 0.0 in stage 0.0 (TID 0)] TaskResources: Task 0 failed by error: 
java.lang.NoSuchMethodError: org.apache.spark.sql.execution.datasources.parquet.ParquetToSparkSchemaConverter.<init>(ZZZ)V
        at org.apache.spark.sql.execution.datasources.parquet.ParquetFileFormat$.$anonfun$mergeSchemasInParallel$1(ParquetFileFormat.scala:565)
        at org.apache.spark.sql.execution.datasources.parquet.ParquetFileFormat$.$anonfun$mergeSchemasInParallel$1$adapted(ParquetFileFormat.scala:563)
        at org.apache.spark.sql.execution.datasources.SchemaMergeUtils$.$anonfun$mergeSchemasInParallel$2(SchemaMergeUtils.scala:76)

在 Scala 中,.init(ZZZ)V 也是一个方法的描述符,类似于 Java 中的构造函数描述符。让我们来逐步解释这个描述符:

.:表示该方法是类的构造函数,因为构造函数在 Scala 中同样是通过类名调用的。
<init>:这同样是 Scala 中构造函数的特殊名称。与 Java 类似,Scala 也将构造函数编码为 <init>。
(ZZZ)V:这是构造函数的描述符,指定了构造函数的参数类型和返回类型。
(ZZZ):表示构造函数接受三个参数,均为布尔类型(Z 表示布尔类型,Z 后面的 Z 表示第二个布尔参数,依此类推)。
V:表示构造函数的返回类型为 void,即构造函数不返回任何值。
因此,.<init>(ZZZ)V 可以理解为一个接受三个布尔型参数的构造函数,它的类名由前面的调用者(.)确定。这个描述符在堆栈跟踪中通常用来标识正在调用的构造函数。在 Scala 中,构造函数的描述符与 Java 中的略有不同,但基本思想是相同的。
classnotfound 问题
Caused by: java.lang.ClassNotFoundException: com.fasterxml.jackson.databind.util.LookupCache

需要引入如下的依赖

<dependency>
            <groupId>com.fasterxml.jackson.core</groupId>
            <artifactId>jackson-databind</artifactId>
            <version>2.13.4.1</version>
            <scope>compile</scope>
        </dependency>
类加载问题

maven。scope元素主要用来控制依赖的使用范围,指定当前包的依赖范围和依赖的传递性,也就是哪些依赖在哪些classpath中可用。常见的可选值有:compile, provided, runtime, test, system等。

compile:默认值。compile表示对应依赖会参与当前项目的编译、测试、运行等,是一个比较强的依赖。打包时通常会包含该依赖,部署时会打包到lib目录下。比如:spring-core这些核心的jar包。

provided:provided适合在编译和测试的环境,和compile功能相似,但provide仅在编译和测试阶段生效,provide不会被打包,也不具有传递性。比如:上面讲到的spring-boot-devtools、servlet-api等,前者是因为不需要在生产中热部署,后者是因为容器已经提供,不需要重复引入。

runtime:仅仅适用于运行和测试环节,在编译环境下不会被使用。比如编译时只需要JDBC API的jar,而只有运行时才需要JDBC驱动实现。

test:scope为test表示依赖项目仅参与测试环节,在编译、运行、打包时不会使用。最常见的使用就是单元测试类了。

system:system范围依赖与provided类似,不过依赖项不会从maven仓库获取,而需要从本地文件系统提供。使用时,一定要配合systemPath属性。不推荐使用,尽量从Maven库中引用依赖。

import: import scope只能用在dependencyManagement里面。表示从其它的pom中导入dependency的配置。

provided 是不会编译进 jar, fat jar 也不会

$ ll .//target/SparkSQLOptimization-1.0-SNAPSHOT-jar-with-dependencies.jar
-rw-r--r--  1 user  staff  21259 Dec 25 15:46 .//target/SparkSQLOptimization-1.0-SNAPSHOT-jar-with-dependencies.jar
$ ll .//target/SparkSQLOptimization-1.0-SNAPSHOT.jar
-rw-r--r--  1 user  staff  21233 Dec 25 15:46 .//target/SparkSQLOptimization-1.0-SNAPSHOT.jar
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/sql/SparkSession$
    at org.apache.spark.sql.execution.datasources.v2.odps.SparkHiveExample$.main(SparkHiveExample.scala:42)
    at org.apache.spark.sql.execution.datasources.v2.odps.SparkHiveExample.main(SparkHiveExample.scala)
Caused by: java.lang.ClassNotFoundException: org.apache.spark.sql.SparkSession$
    at java.net.URLClassLoader.findClass(URLClassLoader.java:387)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:418)
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:352)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:351)
    ... 2 more

在这里插入图片描述
如果以上不生效,
那就去掉依赖中的

<scope>provided</scope>
IDEA 错误:找不到或无法加载主类

这个问题同上,相关依赖类变成了 provided,
去掉这一行后,须进行 “invalidate” 操作

在这里插入图片描述

scala 相关类找不到
java.lang.ClassNotFoundException: scala.reflect.api.TypeCreator

如下图,
可以手动添加 reflect jar

在这里插入图片描述

jdk NoSuchMethodError
org.apache.spark.SparkException: Job aborted due to stage failure: Task serialization failed: java.lang.NoSuchMethodError: java.nio.ByteBuffer.flip()Ljava/nio/ByteBuffer;
java.lang.NoSuchMethodError: java.nio.ByteBuffer.flip()Ljava/nio/ByteBuffer;
	at org.apache.spark.util.io.ChunkedByteBufferOutputStr
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhixingheyi_tian

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值