使用HiveContext在Spark SQL中使用另一个表的值更新第一个表列

时间:2015-12-24 07:23:09

标签: apache-spark-sql hivecontext

我想通过覆盖另一个表中的列来更新现有表中的列。

示例:表name中有列student,但还有另一个表employee,我想覆盖name的列student来自name表的employee列表格。我想使用HiveContext在Spark SQL中执行此操作。

我们可以运行此命令:

insert overwrite table stud (name) select name from table employee
使用HiveContext在Spark中

0 个答案:

没有答案