如何解决在读取数据帧中使用“\”
# File location and type
file_location = "/FileStore/tables/FileName.csv"
file_type = "csv"
#CSV options
infer_schema = "true"
first_row_is_header = "true"
delimiter = ","
# The applied options are for CSV files. For other files types,these will be ignored.
df = spark.read.format(file_type) \
.option("inferSchema",infer_schema) \
.option("header",first_row_is_header) \
.option("sep",delimiter) \
.load(file_location)
display(df)
这是从 csv 文件读取数据的通用代码。在这段代码中,".option("inferSchema",infer_schema) "有什么用,""在这段代码中会做什么?
解决方法
在行尾使用反斜杠被认为是行的延续,这意味着反斜杠后面的将被认为是前一行的一行。在您的情况下,这 5 行被视为一行。
需要“”的原因,首先,无论您放在引号中,都被视为字符串,因为这些函数“header”、“inferShema”和其他函数是语法的一部分,您需要将它们保留为他们是。
这个答案 https://stackoverflow.com/a/56933052/6633728 可能对您有更多帮助。
,反斜杠''用于行尾,表示反斜杠后的代码被认为在同一行。这主要是在长代码中完成的,其中代码扩展到单行。
inferSchema 用于推断数据框中列的数据类型。如果我们将inferSchema设为true,那么spark在加载数据的同时读取dataframe中的所有数据来推断列的数据类型。
"" 与 .option 函数一起使用。它用于在读取文件时添加不同的参数。可以使用选项函数添加许多参数,例如header、inferSchema、sep、schema等。
pyspark.sql.DataFrameReader.csv
您可以参考上面的链接以获得进一步的帮助。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。