首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在HDP中的spark2 sql中不能访问单元表。

在HDP中的spark2 sql中不能访问单元表。
EN

Stack Overflow用户
提问于 2018-01-20 02:08:22
回答 2查看 362关注 0票数 0

我正在执行HDP的后续工作。

代码语言:javascript
复制
export SPARK-MAJOR-VERSION=2 spark-submit --class com.spark.sparkexamples.Audit --master yarn --deploy-mode cluster \ --files /bigdata/datalake/app/config/metadata.csv BRNSAUDIT_v4.jar dl_raw.ACC /bigdatahdfs/landing/AUDIT/BW/2017/02/27/ACC_hash_total_and_count_20170227.dat TH 20170227

这是错误的失败:

表或视图找不到:dl_raw.ACC;第1行pos 94;集合计数(1)为rec_cnt#58L,计数(‘BRCH_NUM)为hashcount#59,和(’ACC_NUM)为hashsum#60 +-‘滤波器(’trim(‘country_code)=trim(TH)&trim(TH)&trim,11),MM/dd/yyyy( yyyyMMdd) = 20170227)) + 'UnresolvedRelation dl_raw.’AS *

然而,表格存在于蜂巢中,它可以从火花壳中获得。

这是火花会话的代码。

代码语言:javascript
复制
val sparkSession = SparkSession.builder .appName("spark session example") .enableHiveSupport() .getOrCreate() 
sparkSession.conf.set("spark.sql.crossJoin.enabled", "true") 
val df_table_stats = sparkSession.sql("""select count(*) as rec_cnt,count(distinct BRCH_NUM) as hashcount, sum(ACC_NUM) as hashsum 
                                         from dl_raw.ACC 
                                         where trim(country_code) = trim('BW') 
                                         and from_unixtime(unix_timestamp(substr(bus_date,0,11),'MM/dd/yy‌​yy'),'yyyyMMdd')='20‌​170227'
                                      """)
EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-01-22 04:47:33

提交火花作业时,在--file参数中包含hive-site.xml。

票数 1
EN

Stack Overflow用户

发布于 2018-10-11 13:15:40

您还可以将hive-site.xml配置文件从hive复制到file。这应该能解决你的问题。

cp /etc/hive/conf/hive-site.xml /etc/spark2/conf

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48351957

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档