首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决

0539-5.15.0-HBase-Spark无法在Spark2编译通过问题解决

作者头像
Fayson
发布2019-03-07 10:58:23
发布2019-03-07 10:58:23
1.8K1
举报
文章被收录于专栏:Hadoop实操Hadoop实操

温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

Fayson的github: https://github.com/fayson/cdhproject

提示:代码块部分可以左右滑动查看噢

1

编译异常

在Spark2代码中使用hbase-spark依赖包访问HBase时,编写的代码无法完成编译,在编译的过程中提示如下错误:

代码语言:javascript
复制
Error:scalac: missing or invalid dependency detected while loading class file 'HBaseContext.class'.

Could not access type Logging in package org.apache.spark,

because it (or its dependencies) are missing. Check your build definition for

missing or conflicting dependencies. (Re-run with `-Ylog-classpath` to see the problematic classpath.)

A full rebuild may help if 'HBaseContext.class' was compiled against an incompatible version of org.apache.spark.

运行工程编译命令时提示“Could not access type Logging in package org.apache.spark”

2

问题分析

经过查看资料找到HBase官网的一个JIRA,地址:

https://issues.apache.org/jira/browse/HBASE-16428

JIRA中找到在代码中引用了HBaseContext时,使用Spark2编译Spark应用程序将会失败,因为HBaseContext模块引用了org.apache.spark.Logging。在Spark2中,由于Logging被移动到一个私有的包下导致。同样也有Spark2的一个JIRA说明该问题:

https://issues.apache.org/jira/browse/SPARK-13928

3

问题解决

为了完成编译,这里Fayson使用如下做法解决该问题:

1.在自己的工程下创建一个org.apache.spark的包

2.在org.apache.spark包下创建一个Trait类型的Logging.scala类型,该类的内容通过Spark2源码找到

将spark-core工程下org.apache.spark.internal.Logging类内容拷贝至我们工程下创建的org.apache.spark.Logging类中。

4.完成上述操作后,再次执行编译,可以正常的完成编译

4

总结

1.通过异常分析,由于Logging类在Spark2中私有化了,那在自己的工程中创建重写一个Logging类方式解决该问题。

2.Logging类的内容要确保与对应Spark2版本代码一致,避免造成一些莫名其妙的问题。

提示:代码块部分可以左右滑动查看噢

为天地立心,为生民立命,为往圣继绝学,为万世开太平。 温馨提示:如果使用电脑查看图片不清晰,可以使用手机打开文章单击文中的图片放大查看高清原图。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-02-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Hadoop实操 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档