首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Bigtable导入错误

Bigtable导入错误
EN

Stack Overflow用户
提问于 2015-06-21 08:39:22
回答 1查看 348关注 0票数 0

我使用hive生成了一个序列文件,并尝试将其导入bigtable中,但我的导入作业失败,出现以下错误。

代码语言:javascript
复制
2015-06-21 00:05:42,584 INFO [AsyncDispatcher event handler] org.apache.hadoop.mapreduce.v2.app.job.impl.TaskAttemptImpl: Diagnostics report from attempt_1434843251631_0007_m_000000_1: Error: java.lang.ClassCastException: org.apache.hadoop.io.BytesWritable cannot be cast to org.apache.hadoop.hbase.io.ImmutableBytesWritable
at com.google.cloud.bigtable.mapreduce.Import$Importer.map(Import.java:127)
at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:784)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341)
at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:163)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628)
at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)

我使用下面的配置单元表定义和参数来生成序列文件。

代码语言:javascript
复制
create table ilv_bigtable_test(
item_id int
)
stored as sequencefile
LOCATION 'gs://zxx/xx/aa1_temp/ilv_bigtable_test/'
TBLPROPERTIES('serialization.null.format'='')
;

SET hive.exec.compress.output=true;
SET mapred.max.split.size=256000000;
SET mapred.output.compression.type=BLOCK;

insert overwrite table ilv_bigtable_test
select 
item_id
FROM xxx
;

下面是hbase create table语句

代码语言:javascript
复制
create 'test', 'item_id'
EN

回答 1

Stack Overflow用户

发布于 2015-07-23 04:23:23

您需要更高版本的Apache Hive - 1.1.0是第一个支持Cloud Bigtable所需的HBase 1.0的版本。你至少可以尝试使用Hive 1.2.1。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/30960206

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档