0
点赞
收藏
分享

微信扫一扫

一文解决idea配置spark版本问题

夜空一星 2022-02-09 阅读 48

相信大家在idea中配置spark依赖时,总是会出现各种错误,结合我多次添加spark依赖经验,个人总结,在maven中添加spark依赖出现的错误,主要是因为版本不匹配引起,所下面我给出了两个添加依赖的方式,供大家参考:

第一种,明确scala的版本号

如上图所示,由于spark是基于scala语言的,故在添加spark依赖时,应该明确scala版本号, 故在添加spark依赖时,artifactID 包裹的位置应该是关于scala版本号,而version包裹才是spark的版本号,查看scala的版本的方式很简单,这里就不描述。

最后按照上图所示的案例,修改其他依赖即可。

第二种 不明确scala的版本号

当然有的人懒的查看scala的版本号(我就是这样),这时就可以使用第二种方式,具体依赖如下:

<dependency>
  <groupId>org.apache.spark</groupId>
  <artifactId>spark-core_${scala.version}</artifactId>
  <version>${spark.version}</version>
</dependency>

将具体版本号,用scala.version和spark.version替换,就可以了。

总结:

从成功率来看,第一种方式要比第二种要高,要想配置成功,少走弯路,多用第一种方式。

举报

相关推荐

0 条评论