如何解决Pyspark 使用空条目计算行加权平均值
我有多个数据框,其值是在不同的源数据上计算出来的。为简单起见,我将举一个包含三个数据框的示例,但我正在寻找包含 n 个数据框的解决方案
数据_1
+------+-----------+
|person|first_value|
+------+-----------+
| 1| 1.0|
| 2| 0.9|
| 3| 0.8|
| 4| 0.7|
+------+-----------+
数据_2
+------+------------+
|person|second_value|
+------+------------+
| 1| 0.5|
| 2| 0.6|
| 4| 0.7|
+------+------------+
数据_3
+------+-----------+
|person|third_value|
+------+-----------+
| 1| 0.2|
| 3| 0.9|
| 4| 0.6|
+------+-----------+
现在我想计算两个或更多数据帧的加权平均值 - 为此我首先合并数据帧
+------+-----------+------------+-----------+
|person|first_value|second_value|third_value|
+------+-----------+------------+-----------+
| 1| 1.0| 0.5| 0.2|
| 2| 0.9| 0.6| null|
| 3| 0.8| null| 0.9|
| 4| 0.8| 0.7| 0.6|
+------+-----------+------------+-----------+
组合值的公式为:
val = val1 * weight1 + val2 * weight2 + val3 * weight3
但是,如果其中一个值为空,则另一个值无论如何都应该能够加起来为 1,因此如果 val2 为空,则应将权重 2 分配给所有其他权重。我只是找不到一种优雅的方式来做到这一点。
当 w1 = 0.3,w2 = 0.4,w3 = 0.3 时,我目前根据我的公式得到这个结果:
+------+----+
|person| val|
+------+----+
| 3|null|
| 1|0.56|
| 4| 0.7|
| 2|null|
+------+----+
但是我想要这个:
+------+-----+
|person| val|
+------+-----+
| 1| 0.56|
| 2|0.729| <- val1*weight1_adj2 + val2*weight2_adj2
| 3| 0.85| <- val1*weight1_adj3 + val3*weight3_adj3
| 4| 0.7|
+------+-----+
调整权重
weight1_adj2 = w1/(w1+w2) = 0.57
weight2_adj2 = w2/(w1+w2) = 0.43
weight1_adj3 = w1/(w1+w3) = 0.5
weight3_adj3 = w3/(w1/w3) = 0.5
有没有办法在 pyspark 甚至 sql 中解决这个问题,或者我必须进入 udf?
这是我当前不处理空值的代码:
data1 = [("1",1.0),("2",0.9),("3",0.8),("4",0.8)
]
schema1 = ["person","first_value"]
first_df = spark.createDataFrame(data=data1,schema = schema1)
data2 = [("1",0.5),0.6),0.7)
]
schema2 = ["person","second_value"]
second_df = spark.createDataFrame(data=data2,schema = schema2)
data3 = [("1",0.2),0.6)
]
schema3 = ["person","third_value"]
third_df = spark.createDataFrame(data=data3,schema = schema3)
combined_df = first_df.join(
second_df,['person'],how='full'
).join(
third_df,how='full'
)
w1 = 0.3
w2 = 0.4
w3 = 0.3
combined_df.groupBy(['person']).agg(
F.sum(
col('first_value')*w1 + col('second_value')*w2 + col('third_value')*w3
).alias('val')).show()
Edit1:我不是要求按此处所述使用空值逐行添加:Spark dataframe not adding columns with null values - 我需要处理权重,以便与非空值相乘的权重总和始终为1
解决方法
这个想法是对每行的所有权重求和,其中列不为空,然后将各个权重除以这个总和。
为了在列数及其权重方面获得一些灵活性,我将权重存储在字典中,使用列名作为键:
weights = {"first_value": 0.3,"second_value": 0.4,"third_value": 0.3}
然后我可以遍历字典
- 计算非空列的权重总和
- 然后计算
value of column
*weight
/sum of weights
的所有非列的总和
wf = "1 / ("
val = ""
for col in weights:
wf += f"if({col} is null,{weights[col]}) + "
val += f"if( {col} is null,{col} * {weights[col]} * weight_factor) + "
wf += "0 )"
val += "0"
combined_df = combined_df.withColumn("weight_factor",F.expr(wf)) \
.withColumn("val",F.expr(val))
输出:
+------+-----------+------------+-----------+-----------------+------------------+
|person|first_value|second_value|third_value| weight_factor| val|
+------+-----------+------------+-----------+-----------------+------------------+
| 1| 1.0| 0.5| 0.2|1.000000000000000| 0.56|
| 2| 0.9| 0.6| null|1.428571428571429|0.7285714285714289|
| 3| 0.8| null| 0.9|1.666666666666667|0.8500000000000002|
| 4| 0.8| 0.7| 0.6|1.000000000000000| 0.7|
+------+-----------+------------+-----------+-----------------+------------------+
下一步,您可以对 val
进行聚合和求和。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。