微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Hive基于Spark临时表创建分区表

如何解决Hive基于Spark临时表创建分区表

我有一个带有spark_tmp_view列的Spark临时表DATE_KEY。我正在尝试创建一个Hive表(而不是将临时表写入到镶木地板位置。我试图运行的是spark.sql("CREATE EXTERNAL TABLE IF NOT EXISTS mydb.result AS SELECT * FROM spark_tmp_view PARTITIONED BY(DATE_KEY DATE)")

我遇到的错误mismatched input 'BY' expecting <EOF>,我尝试搜索但仍然无法从Spark应用程序中弄清楚该如何做以及如何在其后插入数据。有人可以帮忙吗?非常感谢。

解决方法

PARTITIONED BY是正在创建的表的定义的一部分,因此它应位于...AS SELECT...之前,请参见Spark SQL syntax

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。