将记录插入Spark SQL表

时间:2019-04-15 09:32:28

标签: sql apache-spark pyspark apache-spark-sql pyspark-sql

我通过Azure Databricks如下创建了spark SQL表:

create table sample1(price double)

实际文件中的数据类似“ abc”,而不是双精度值。

在将'abc'字符串值插入double列中的同时,它接受为NULL,没有任何失败。我担心的是为什么我们没有出现任何错误?在这种情况下,我想失败消息。

如果我缺少什么,请告诉我。我想禁用数据类型的隐式转换。

0 个答案:

没有答案
相关问题