如何解决批量大小未传递给 tf.keras 模型:“检查输入时出错:预期 input1 具有 3 个维度,但得到形状为 (a,b) 的数组”
我是 tensorflow (v 2.4.1) 的新手,所以这可能很微不足道,但我无法自己弄清楚。我通过 tf.data.Dataset 将二维 (30,1024) 张量传递给我的 2 输入 tf.keras 模型。批处理后,数据集打印为
<BatchDataset shapes: ({sentence1: (None,30,1024),sentence2: (None,1024)},(None,1)),types: ({sentence1: tf.float32,sentence2: tf.float32},tf.int64)>
模型的相关部分是:
shared_model = tf.keras.Sequential([
layers.Masking(),layers.GlobalAveragePooling1D()])
input_1 = tf.keras.Input(shape=(30,dtype=tf.float32,name='sentence1')
input_2 = tf.keras.Input(shape=(30,name='sentence2')
encoder1 = shared_model(input_1)
encoder2 = shared_model(input_2)
...
model = tf.keras.Model(inputs=[input_1,input_2],outputs=final_layer)
但是,当我调用 model.fit() 时,我收到错误警告“检查输入时出错:预期的句子 1 具有 3 个维度,但得到了形状为 (30,1024) 的数组”。也就是说,批量大小不会传递给模型。
我尝试将张量重塑为 (1,1024)。然后数据集变成
<BatchDataset shapes: ({sentence1: (None,1,tf.int64)>
但是,现在我收到错误“检查输入时出错:预期的句子 1 有 3 个维度,但得到了形状为 (None,1024) 的数组”。所以现在批量大小突然传递给模型。知道为什么会这样吗?感谢一百万。
编辑:我认为问题首先在于数据集的生成方式。我通过这些辅助函数从 TFRecord 文件中获取它:
def load_dataset(filename):
raw_dataset = tf.data.TFRecordDataset([filename])
dataset = raw_dataset.map(prepare_dataset_for_training)
return dataset
def prepare_dataset_for_training(example):
context_features = {
'label': tf.io.FixedLenFeature([],tf.int64)}
sequence_features = {
'embeddings1': tf.io.VarLenFeature(tf.float32),'embeddings2': tf.io.VarLenFeature(tf.float32)}
parsed_context,parsed_feature_lists = tf.io.parse_single_sequence_example(
example,context_features=context_features,sequence_features=sequence_features)
emb1 = tf.RaggedTensor.from_sparse(parsed_feature_lists['embeddings1'])
emb1 = tf.reshape(emb1.to_tensor(),shape=(30,1024))
emb2 = tf.RaggedTensor.from_sparse(parsed_feature_lists['embeddings2'])
emb2 = tf.reshape(emb2.to_tensor(),1024))
label = tf.expand_dims(parsed_context['label'],axis=0)
return ({'sentence1': emb1,'sentence2': emb2},label)
解决方法
我不太确定可能是什么问题,因为我无法重现它。也许您在 model.fit 调用中打错了字,说是在 2D 输入而不是 3D 输入上进行训练?
这是我运行以重现结果的代码:
from tensorflow.keras import layers
from tensorflow import keras
import numpy.random as npr
import tensorflow as tf
shared_model = keras.Sequential([
layers.Masking(),layers.GlobalAveragePooling1D()])
input_1 = keras.Input(shape=(30,1024),dtype=tf.float32,name='sentence1')
input_2 = keras.Input(shape=(30,name='sentence2')
x = tf.concat((input_1,input_2),axis=1)
x = layers.GlobalAveragePooling1D()(x)
x = layers.Dense(8)(x)
model = keras.Model(inputs=[input_1,input_2],outputs=x)
m = 40
BATCH_SIZE = 4
inp_1 = npr.randn(m,30,1024)
inp_2 = npr.randn(m,1024)
y = npr.uniform(size=(m,8))
dataset = tf.data.Dataset.from_tensor_slices(({'sentence1': inp_1,'sentence2': inp_2},y)).batch(BATCH_SIZE) # shape is (None,(None,1024)
model.compile('adam',loss='mse')
model.fit(dataset,epochs=100)
pred = model.predict([inp_1,inp_2])[0]
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。