首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Spark中的配置单元表

Spark中的配置单元表
EN

Stack Overflow用户
提问于 2018-01-19 17:49:23
回答 1查看 214关注 0票数 0

我在HDP中运行以下作业。

代码语言:javascript
复制
export SPARK-MAJOR-VERSION=2
spark-submit --class com.spark.sparkexamples.Audit --master yarn --deploy-mode cluster \
--files /bigdata/datalake/app/config/metadata.csv BRNSAUDIT_v4.jar dl_raw.ACC /bigdatahdfs/landing/AUDIT/BW/2017/02/27/ACC_hash_total_and_count_20170227.dat TH 20170227

它失败了,错误是:

代码语言:javascript
复制
*Table or view not found: `dl_raw`.`ACC`; line 1 pos 94;
'Aggregate [count(1) AS rec_cnt#58L, 'count('BRCH_NUM) AS hashcount#59, 'sum('ACC_NUM) AS hashsum#60]
+- 'Filter (('trim('country_code) = trim(TH)) && ('from_unixtime('unix_timestamp('substr('bus_date, 0, 11), MM/dd/yyyy), yyyyMMdd) = 20170227))
   +- 'UnresolvedRelation `dl_raw`.`ACC'*

而表格存在于Hive中,并且可以从spark-shell访问。

UPD。

代码语言:javascript
复制
    val sparkSession = SparkSession.builder
.appName("spark session example")
.enableHiveSupport()
.getOrCreate() 
sparkSession.conf.set("spark.sql.crossJoin.enabled", "true") 

val df_table_stats = sparkSession.sql("""select count(*) as rec_cnt,count(distinct BRCH_NUM) as hashcount,
sum(ACC_NUM) as hashsum 
from dl_raw.ACC 
where trim(country_code) = trim('BW') 
and from_unixtime(unix_timestamp(substr(bus_date,0,11),'MM/dd/yy‌​yy'),'yyyyMMdd')='20‌​170227'""")
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2018-01-22 12:51:16

在提交作业时,在--file参数中包含hive-site.xml文件

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/48338209

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档