cross-entropy专题提供cross-entropy的最新资讯内容,帮你更好的了解cross-entropy。
我正在通过带有pytorch的简单玩具项目(只是使文本发芽)来研究NLP。当我在网上引用一些示例代码时,
我有一个网络,该网络输出大小为<code>(batch_size, max_len, num_classes)</code>的3D张量。我的真实真理是<code>(bat
<pre><code>predicted_scores = tf.constant([ [0.32,0.2,0.5,0.3,0.2,0.5,0.3,0.2,0.5,0.3,0.2,0.5,0.3,0.2,0.5,0.3,0.2,0.5], [0.31,0.2,0.
我正在尝试修改Yolo v1以处理我的任务,每个对象只有一个类。 (例如:obj不能同时是猫和狗) 由
我正在创建一个完全卷积的神经网络,只要输入的图像能够识别其中的区域(黑色,0),还可以识别背
我正在尝试一些pytorch代码。通过交叉熵损失,我发现了一些有趣的结果,同时使用了二进制的交叉熵损
这是tf 2.3.0。在训练期间,SparseCategoricalCrossentropy损失和sparse_categorical_accuracy的报告值似乎相去甚远。我
我必须处理高度不平衡的数据。据我了解,我需要使用加权交叉熵损失。 我尝试过: <pre class="l
我只是实现变分自动编码器,想知道将BCE损失用于RGB图像的背后是什么。 据我了解,对于MNIST数据
我正在针对<a href="https://www.kaggle.com/c/dogs-vs-cats-redux-kernels-edition/data" rel="nofollow noreferrer">cats vs dogs</a>数
我正在尝试使用深度递归神经网络执行多类文本分类。我的网络正在以一定的准确度遭受94%,80%甚至1
这是代码部分 <pre><code>#Compililng the model opt = Adam(lr = INIT_LR, decay = INIT_LR/ EPOCHS) model = model.compile(loss = &#
我正在使用我为一个玩具示例构建的模型训练程序,并尝试在另一个示例中使用它。 唯一的区别是这个
谁能告诉我为什么我的交叉熵损失函数给出这个错误: 我的准确率方法: <pre><code>def accuracy(outp
在他们的论文中,作者表示他们通过最终特征图上的逐像素 softmax 结合交叉熵损失函数来计算能量函数
我的问题是同一模型的不同损失函数的结果是否具有可比性。或者,如果他们只是与自己相提并论?例
我正在学习逻辑回归,我想在通过梯度下降最小化过程中计算交叉熵损失函数的值是多少,但是当我使
我想使用 pytorch 的 Crossentropyloss 但不知何故我的代码只适用于批量大小 2,所以我假设目标和输出的形状
当我在 PyTorch 中构建分类器时,我有两个选择 <ol> <li>使用 <code>nn.CrossEntropyLoss</code> 而不对模型进行