如何解决如何使用`tf.keras.activations.relu`裁剪MLP中的图层输出?
根据documentation,tf.keras.activations.relu(x,alpha=0.0,max_value=None,threshold=0)
似乎在[threshold,max_value]内 clip x
,但是必须指定x
。如何在神经网络中裁剪层的输出?还是有更方便的方法?
假设我仅在结果介于0和5之间时才输出10×10 2D数组的所有元素的线性组合。
import tensorflow as tf
from tensorflow import keras
model = keras.models.Sequential()
model.add(keras.layers.Flatten(input_shape=[10,10]))
model.add(keras.layers.Dense(1,activation='relu') # output layer
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。