我正在使用keras来创建LSTM模型.在训练时,我收到了这个错误.
ValueError:检查目标时出错:期望dense_4具有形状(1,)但是得到了具有形状的数组(34,)
这是我的模特
model = Sequential()
model.add(Embedding(max_words, embedding_dim, input_length=maxlen))
model.add(LSTM(128, activation='relu'))
model.add(Dense(64, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(units = 34 ,activation='softmax'))
model.layers[0].set_weights([embedding_matrix])
model.layers[0].trainable = False
model.compile(optimizer='rmsprop',loss='sparse_categorical_crossentropy',metrics=['acc'])
型号摘要:
Layer (type) Output Shape Param #
=================================================================
embedding_2 (Embedding) (None, 15, 50) 500000
_________________________________________________________________
lstm_2 (LSTM) (None, 128) 91648
_________________________________________________________________
dense_3 (Dense) (None, 64) 8256
_________________________________________________________________
dropout_2 (Dropout) (None, 64) 0
_________________________________________________________________
dense_4 (Dense) (None, 34) 2210
=================================================================
Total params: 602,114
Trainable params: 102,114
Non-trainable params: 500,000
_________________________________________________________________
我称之为适合使用
history = model.fit(X_train, y_train,epochs=100,batch_size=128)
y_train是一个带有形状的单热编码标签(299,34).
X_train的形状(299,15).
我不确定为什么模型正在寻找形状(1,),因为我可以看到dense_4(密集)的输出形状为`(无,34).
解决方法:
好的,我发现了这个问题.我发布这个作为答案,以便它可以帮助其他人也面临同样的问题.
我使用sparse_categorical_crossentropy作为丢失,其中标签必须具有[batch_size]形状和dtype int32或int64.我更改的是Categical_crossentropy,它期望[batch_size,num_classes]的标签.
keras引发的错误消息具有误导性.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。