微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

加速 spark df.write 到 PostgreSQL 的最佳参数

如何解决加速 spark df.write 到 PostgreSQL 的最佳参数

我正在尝试将一个约 3 百万行 x 158 列 (约 3GB) 的 Pyspark 数据帧写入 TimeScale DB。

写入操作从 Jupyter 内核执行,资源如下:

  • 1 个驱动程序、2 个 vcpu、2GB 内存
  • 2 个执行器、2 个 vcpu、4GB 内存

正如人们所料,它相当慢。

我知道 repartitionbatchsize,所以我尝试使用这些参数来加速写入操作,但我想知道尽可能提高性能的最佳参数是什么.

df.rdd.getNumPartitions() 是 7,我应该尝试增加还是减少分区数? 我试过玩了一下,但没有得到任何结论性的结果。增加分区数似乎确实会减慢写入速度,但这可能只是因为 Spark 先执行 repartition

我更具体地想知道 batchsize。我想最佳批量大小取决于 TimeScale/Postgre 配置,但我无法找到有关此的更多信息。

为了记录,以下是我尝试过的示例:

df.write \
  .mode("overwrite") \
  .format('jdbc') \
  .option('url','my_url') \
  .option('user','my_user') \
  .option('password','my_pwd') \
  .option('dbtable','my_table') \
  .option('numPartitions','5') \
  .option('batchsize','10000') \
  .save()

这在一个小得多的数据帧样本(约 500K 行,500MB)上花费了 26 分钟。

我们知道我们的 Jupyter 内核资源不足,并且也在努力解决这个问题,但是有没有办法使用 Spark 和 TimeScale 参数来优化写入速度?

[编辑] 我还阅读了关于使用 copY 的 this very helpful answer,但我们目前正在专门寻找使用 Spark 提高性能方法

解决方法

如果它使用 JDBC,那么前段时间引入的 reWriteBatchedInserts=true 参数可能会显着加快速度https://jdbc.postgresql.org/documentation/changelog.html#version_9.4.1209。它应该能够被引入到连接字符串中,或​​者可能有一种方法可以指定在 Spark 连接器中使用它。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其他元素将获得点击?
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。)
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbcDriver发生异常。为什么?
这是用Java进行XML解析的最佳库。
Java的PriorityQueue的内置迭代器不会以任何特定顺序遍历数据结构。为什么?
如何在Java中聆听按键时移动图像。
Java“Program to an interface”。这是什么意思?