如何解决将流数据帧转换为列表 pyspark
我有一个流 df 名称为 dfnew2
。我正在尝试使用以下逻辑将其转换为列表,但出现一些错误:
org.apache.spark.sql.AnalysisException:带有流源的查询 必须使用 writeStream.start();;
此逻辑适用于批处理
for row in dfnew2.collect():
tmpList = row
id = tmpList[0]
MISISDN = tmpList[1]
df1 = spark.sql(f"select '{str(id)}' as id")
df2 = df1.withColumn(str(MISISDN),lit(1))
func(df2)
最好的问候
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。