如何解决如何结合在不同数据集上训练的两个逻辑回归模型?
我的数据具有层次结构 - 这意味着有一个 N 级别的级别 1 和级别 M 的 M 级别。在使用不同的数据集分别训练两个模型后(都是 Logistic 回归,但可以更改),我想预测 N + M 个类。
目前,我正在解决它通过在训练之前收集所有数据并添加从第 2 级到第 1 级的示例导致 (N + 1) 个类(+ 1 表示来自第 2 级的所有示例)和如果级别 1 的模型预测“+1”类,则将查询发送到第二个模型。但是在训练前收集样本成本很高,而且收集后训练集是不平衡的。伪代码:
clf1 = LogisticRegression()
clf1.fit(X1 + X2,Y1 + ["ID of +1 class"] * len(Y2))
clf2 = LogisticRegression()
clf2.fit(X2,Y2)
if cl1.predict(X_test_example) == ["ID of +1 class"]:
clf2.precict(X_test_example)
但我需要保留这种层次结构,因此无法直接合并两个模型。有没有办法组合分类模型的两个输出(以概率分布的形式)以获得有意义的输出,以避免模型过度自信的问题?伪代码:
clf1 = LogisticRegression()
clf1.fit(X1,Y1)
clf2 = LogisticRegression()
clf2.fit(X2,Y2)
combined_clf = clf1 + clf2
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。