微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Pyspark 使用空条目计算行加权平均值

如何解决Pyspark 使用空条目计算行加权平均值

我有多个数据框,其值是在不同的源数据上计算出来的。为简单起见,我将举一个包含三个数据框的示例,但我正在寻找包含 n 个数据框的解决方

数据_1

+------+-----------+
|person|first_value|
+------+-----------+
|     1|        1.0|
|     2|        0.9|
|     3|        0.8|
|     4|        0.7|
+------+-----------+

数据_2

+------+------------+
|person|second_value|
+------+------------+
|     1|         0.5|
|     2|         0.6|
|     4|         0.7|
+------+------------+

数据_3

+------+-----------+
|person|third_value|
+------+-----------+
|     1|        0.2|
|     3|        0.9|
|     4|        0.6|
+------+-----------+

现在我想计算两个或更多数据帧的加权平均值 - 为此我首先合并数据帧

+------+-----------+------------+-----------+
|person|first_value|second_value|third_value|
+------+-----------+------------+-----------+
|     1|        1.0|         0.5|        0.2|
|     2|        0.9|         0.6|       null|
|     3|        0.8|        null|        0.9|
|     4|        0.8|         0.7|        0.6|
+------+-----------+------------+-----------+

组合值的公式为:

val = val1 * weight1 + val2 * weight2 + val3 * weight3

但是,如果其中一个值为空,则另一个值无论如何都应该能够加起来为 1,因此如果 val2 为空,则应将权重 2 分配给所有其他权重。我只是找不到一种优雅的方式来做到这一点。

当 w1 = 0.3,w2 = 0.4,w3 = 0.3 时,我目前根据我的公式得到这个结果:

+------+----+
|person| val|
+------+----+
|     3|null|
|     1|0.56|
|     4| 0.7|
|     2|null|
+------+----+

但是我想要这个:

+------+-----+
|person|  val|
+------+-----+
|     1| 0.56|
|     2|0.729|  <- val1*weight1_adj2 + val2*weight2_adj2
|     3| 0.85|  <- val1*weight1_adj3 + val3*weight3_adj3
|     4|  0.7|
+------+-----+

调整权重

weight1_adj2 = w1/(w1+w2) = 0.57
weight2_adj2 = w2/(w1+w2) = 0.43
weight1_adj3 = w1/(w1+w3) = 0.5
weight3_adj3 = w3/(w1/w3) = 0.5

有没有办法在 pyspark 甚至 sql解决这个问题,或者我必须进入 udf?

这是我当前不处理空值的代码

data1 = [("1",1.0),("2",0.9),("3",0.8),("4",0.8) 
      ]

schema1 = ["person","first_value"]
first_df = spark.createDataFrame(data=data1,schema = schema1)

data2 = [("1",0.5),0.6),0.7) 
      ]

schema2 = ["person","second_value"]
second_df = spark.createDataFrame(data=data2,schema = schema2)

data3 = [("1",0.2),0.6) 
      ]

schema3 = ["person","third_value"]
third_df = spark.createDataFrame(data=data3,schema = schema3)

combined_df = first_df.join(
  second_df,['person'],how='full'
).join(
  third_df,how='full'
)

w1 = 0.3
w2 = 0.4
w3 = 0.3
combined_df.groupBy(['person']).agg(
  F.sum(
    col('first_value')*w1 + col('second_value')*w2  + col('third_value')*w3
  ).alias('val')).show()

Edit1:我不是要求按此处所述使用空值逐行添加Spark dataframe not adding columns with null values - 我需要处理权重,以便与非空值相乘的权重总和始终为1

解决方法

这个想法是对每行的所有权重求和,其中列不为空,然后将各个权重除以这个总和。

为了在列数及其权重方面获得一些灵活性,我将权重存储在字典中,使用列名作为键:

weights = {"first_value": 0.3,"second_value": 0.4,"third_value": 0.3}

然后我可以遍历字典

  • 计算非空列的权重总和
  • 然后计算 value of column * weight / sum of weights 的所有非列的总和
wf = "1 / ("
val = ""
for col in weights:
    wf += f"if({col} is null,{weights[col]}) + "
    val += f"if( {col} is null,{col} * {weights[col]} * weight_factor) + "
wf += "0 )"
val += "0"

combined_df = combined_df.withColumn("weight_factor",F.expr(wf)) \
    .withColumn("val",F.expr(val))

输出:

+------+-----------+------------+-----------+-----------------+------------------+
|person|first_value|second_value|third_value|    weight_factor|               val|
+------+-----------+------------+-----------+-----------------+------------------+
|     1|        1.0|         0.5|        0.2|1.000000000000000|              0.56|
|     2|        0.9|         0.6|       null|1.428571428571429|0.7285714285714289|
|     3|        0.8|        null|        0.9|1.666666666666667|0.8500000000000002|
|     4|        0.8|         0.7|        0.6|1.000000000000000|               0.7|
+------+-----------+------------+-----------+-----------------+------------------+

下一步,您可以对 val 进行聚合和求和。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。