首先,我使用将CSV文件转换为Spark DataFrame
val df = sqlContext.read.format("com.databricks.spark.csv").option("header","true").load("/usr/people.csv")
在那种类型的df和返回后我可以看到
res30: org.apache.spark.sql.DataFrame = [name: string,age: string,gender: string,deptID: string,salary: string]
然后我使用df.registerTempTable(“people”)将df转换为Spark sql表.
但是在那之后,当我做人们而不是得到类型表,我得到了
<console>:33: error: not found: value people
是因为人们是临时桌子吗?
谢谢
解决方法
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。