如何解决要求失败:OneHotEncoderModel 需要输入列标签的 x 个分类值,但输入列具有指定 n 个值的元数据
在 Pyspark(2.4.5 版)中训练 MultilayerPerceptronClassifier 时,出现以下异常:
var data = {'arrayField': longList};
db.collection('myCollection').doc().set(data)
.then(() => {
console.log('Document added');
})
.catch((error) => {
console.error('Error adding document: ',error);
});
但代码在 RandomForestClassifier、DecisionTreeClassifier、GBTClassifier 和 LinearSVC 中运行良好,适用于同一数据集。
解决方法
由于输入层的特征和神经元数量不匹配,我收到此错误。
- 输入层的大小应该等于特征的数量。
- 输出层大小应等于类或类标签的数量。
例如,在我的例子中,特征数为 7,类标签为 2。我使用了层列表 requirement failed: OneHotEncoderModel expected x categorical values for input column label,but the input column had metadata specifying n values.
和两个大小为 5 和 4 的中间层
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。