如何解决Hive基于Spark临时表创建分区表
我有一个带有spark_tmp_view
列的Spark临时表DATE_KEY
。我正在尝试创建一个Hive表(而不是将临时表写入到镶木地板位置。我试图运行的是spark.sql("CREATE EXTERNAL TABLE IF NOT EXISTS mydb.result AS SELECT * FROM spark_tmp_view PARTITIONED BY(DATE_KEY DATE)")
我遇到的错误是mismatched input 'BY' expecting <EOF>
,我尝试搜索但仍然无法从Spark应用程序中弄清楚该如何做以及如何在其后插入数据。有人可以帮忙吗?非常感谢。
解决方法
PARTITIONED BY
是正在创建的表的定义的一部分,因此它应位于...AS SELECT...
之前,请参见Spark SQL syntax。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。