如何解决数据集如何在 kfold 交叉验证中使用不同的 k 值进行划分?
这是我使用的不同 k (3,4,5,6) 值的基本代码
from numpy import array
from sklearn.model_selection import KFold
# data sample type(data)
data = array([0.1,0.2,0.3,0.4,0.5,0.6])
# prepare cross validation
k = 6
kfold = KFold(k,True,1)
# enumerate splits
for train,test in kfold.split(data):
print('train: %s,test: %s' % (data[train],data[test]))
输出是:-
k = 3
train: [0.1 0.4 0.5 0.6],test: [0.2 0.3]
train: [0.2 0.3 0.4 0.6],test: [0.1 0.5]
train: [0.1 0.2 0.3 0.5],test: [0.4 0.6]
k=4
train: [0.1 0.4 0.5 0.6],test: [0.1 0.5]
train: [0.1 0.2 0.3 0.5 0.6],test: [0.4]
train: [0.1 0.2 0.3 0.4 0.5],test: [0.6]
k=5
train: [0.1 0.4 0.5 0.6],test: [0.2 0.3]
train: [0.1 0.2 0.3 0.4 0.6],test: [0.5]
train: [0.2 0.3 0.4 0.5 0.6],test: [0.1]
train: [0.1 0.2 0.3 0.5 0.6],test: [0.6]
k=6
train: [0.1 0.2 0.4 0.5 0.6],test: [0.3]
train: [0.1 0.3 0.4 0.5 0.6],test: [0.2]
train: [0.1 0.2 0.3 0.4 0.6],test: [0.6]
所有这些中的一个共同点是验证集从不重复观察,但是定义,“然后将每个折叠用作一次验证,而剩余的 k - 1 个折叠形成训练集”。 k=3,5 是错误的,那么只有 k=6 是正确的,对吗?
解决方法
发生这种情况是因为您的输入数据并不总是能创建完美的分割,除非 k=3 或 k=6。
第一个 n_samples % n_splits 折叠的大小为 n_samples // n_splits + 1,其他折叠的大小为 n_samples // n_splits,其中 n_samples 是样本数。
您有 6 个样本:
- k=3:前 6%3(=0) 次折叠的大小为 6//3+1(=3),其余的大小为 6//3(=2)。
- k=4:前 6%4(=2) 次折叠的大小为 6//4+1(=2),其余的为 1//4(=1)。
等等...
然后将每个折叠用作一次验证,而剩余的 k - 1 个折叠形成训练集。
这就是这里发生的事情,例如对于 k=3(3 折为 [0.2 0.3],[0.1 0.5],[0.4 0.6]
),在第一次迭代中,[0.2 0.3]
用作验证,[0.1 0.5 0.4 0.6]
用作训练。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。