在int列上分区的hive表的Sqoop导出

时间:2016-11-07 22:48:08

标签: hadoop apache-spark hive sqoop

我在' int'上分区了一个Hive表。列。

我想使用Sqoop导出工具将Hive表导出到MySql。

sqoop export --connect jdbc:mysql://XXXX:3306/temp --username root --password root --table emp --hcatalog-database temp --hcatalog-table emp

我尝试了上面的sqoop命令,但失败了以下异常。

ERROR tool.ExportTool: Encountered IOException running export job: java.io.IOException: 
The table provided temp.emp uses unsupported  partitioning key type  for column mth_id : int.  
Only string fields are allowed in partition columns in HCatalog

我知道不支持int列上的分区。
但是想通过额外的配置/选项检查这个问题是否在任何最新版本中得到修复。

作为一种解决方法,我可以在导出之前创建另一个没有分区的表。
但我想检查是否有更好的方法来实现这一目标?

提前致谢。

0 个答案:

没有答案
相关问题