如何解决pytest monkeypatch:如何模拟 spark.sql("query").coalesce(1).write.csv(path, header=True)
我编写了涉及收集数据和转换为 CSV 操作的 pyspark 代码。我可以使用以下补丁模拟 collect()
的 spark.sql
方法:
class MockSpark:
@staticmethod
def collect(*args,**kwargs):
return []
def mock_return(*args,**kwargs):
return MockSpark(*args,**kwargs)
monkeypatch.setattr(SparkSession,"sql",mock_return)
但是,我无法模拟下面的语句,因为它涉及调用 write.csv()
:
spark.sql("select * from temp_table").coalesce(1).write.csv(path,header=True)
由于调用 write.csv()
,我无法以类似于 coalesce
调用的方式模拟 collect
。
有没有办法做到这一点?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。