如何解决无法在 GPU 上运行 LSTM
embedding_layer = Embedding(vocab_size,W2V_SIZE,weights=[embedding_matrix],input_length=SEQUENCE_LENGTH,trainable=False)
model = Sequential()
model.add(embedding_layer)
model.add(Dropout(0.5))
model.add(LSTM(100,dropout=0.2,recurrent_dropout=0))
model.add(Dense(1,activation='sigmoid'))
model.summary()
model.compile(loss='binary_crossentropy',optimizer="adam",metrics=['accuracy'])
callbacks = [ ReduceLROnPlateau(monitor='val_loss',patience=5,cooldown=0),EarlyStopping(monitor='val_acc',min_delta=1e-4,patience=5)]
history = model.fit(x_train,y_train,batch_size=256,epochs=EPOCHS,validation_split=0.1,verbose=1)
这是我正在尝试研究的模型,它与情绪分析有关 但是当我尝试运行时,它总是给我这个错误:
Failed to call ThenRnnBackward with model config: [rnn_mode,rnn_input_mode,rnn_direction_mode]: 2,[num_layers,input_size,num_units,dir_count,max_seq_length,batch_size,cell_num_units]: [1,300,100,1,256,100]
[[{{node gradients/CudnnRNN_grad/CudnnRNNBackprop}}]]
[[Adam/gradients/PartitionedCall]] [Op:__inference_train_function_2717]
Function call stack:
train_function -> train_function -> train_function
我曾尝试允许 GPU 增长,但仍然没有解决方案。 我正在使用 RTX 3060Ti、CUDA 11.0、cudnn 8.0.4、Python 3.8
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。