pyspark.sql.utils.AnalysisException:u"无法识别' CHAR'附近的输入',' ' T2'在功能规范中

时间:2018-02-02 11:03:32

标签: sql-server hive pyspark

我有4行SQL查询,其中我有以下子字符串查询:

SUBSTRING(T2.xxx,1,10) <= SUBSTRING(CONVERT(VARCHAR, T2.xxx, 111),1,10

我正在使用PySpark创建一个HIVE表并在查询的帮助下推送数据。代码没有问题,因为它适用于其他SQL类型查询。这是我遇到问题的一个例子。以下是错误:

pyspark.sql.utils.AnalysisException: u"cannot recognize input near 'CHAR' ',' 'T2' in function specification

我尝试过很多在线建议,但都没有。我在Cloudera网站下面找到了链接

https://www.cloudera.com/documentation/enterprise/release-notes/topics/cdh_rn_spark_ki.html

它说:

  

Spark SQL不遵守varchar类型的大小限制。

我不确定我是否引用了相关声明。任何人都可以帮助我理解我在这里经历的内容以及如何纠正错误?

0 个答案:

没有答案