如何解决如何修改 keras 中的输出以进行反向传播
我有一个用 tensorflow 编写的 U-Net 模型,用于解决分割问题。我想用相同数量的训练数据改进我的分割,我想在输出中添加一个水平集方法模块,然后计算损失。像这样https://arxiv.org/pdf/1705.06260.pdf
但是不知道怎么修改tensorflow中最后一层的输出
def amodel(pretrained_weights=None,input_size=(512,512,1),act="relu"):
inputs = tf.keras.layers.Input(input_size)
conv1 = tf.keras.layers.Conv2D(1,1,activation='sigmoid')(inputs)
model = tf.keras.Model(inputs=inputs,outputs=conv1)
# model.compile(optimizer = Adam(lr = 1e-4),loss = 'binary_crossentropy',metrics = ['accuracy'])
model.compile(optimizer=tf.keras.optimizers.Adam(lr_scheduler),loss=combo_loss(alpha=0,beta=0.4),metrics=[dice_accuracy])
如何在转发到 tf.keras.Model 之前对 conv1 应用转换?
谢谢
解决方法
似乎您想使用 lambda 层:
https://keras.io/api/layers/core_layers/lambda/
创建新层后,您只需将 conv1 层作为输入传递给他, 像这样:
inputs = tf.keras.layers.Input(input_size)
conv1 = tf.keras.layers.Conv2D(1,1,activation='sigmoid')(inputs)
lambda_layer = Lambda(normalizer)(norm_concat)
model = tf.keras.Model(inputs=inputs,outputs=lambda_layer)
您只需要定义 Lambda 层必须调用的函数:
例如:
def normalizer(x):
a = x[:,:,1]
b = x[:,2]
asum = tf.keras.backend.sum(a)
bsum = tf.keras.backend.sum(b)
ratio = tf.math.divide(asum,bsum)
ratio = tf.cast(ratio,dtype=tf.float32)
return tf.multiply(b,ratio)
其中 x 是 conv1 的输出
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。