使用更大批量训练矩阵分解问题时损失更高

如何解决使用更大批量训练矩阵分解问题时损失更高

首先我想感谢任何考虑阅读这个问题的人,如果我的问题如此顽固,以及我的英语很差,我很抱歉。

所以目前我正在研究推荐系统问题,我的方法是使用矩阵分解和隐式反馈使用 BPR (arXiv:1205.2618)。不知何故,我发现当我使用大批量(在本例中为 4096)训练我的模型(BPRMF)时,与使用较小批量(1024)相比,BPR 损失更小。 my training log on few epochs

我注意到更高的批量大小会导致更快的训练时间,因为它可以更有效地利用 GPU 内存,但更高的损失可能是我不太愿意交易的东西。据我所知,大批量为梯度下降步骤带来更多信息,以便采取更好的步骤,因此它应该有助于收敛,并且大批量的问题通常在于内存和资源,而不是损失。

我对此进行了一些研究,并看到了 Large Batch Training Result in Poor Generalizationhere another,但就我而言,在训练中损失惨重。

我最好的猜测是,使用大批量大小,然后取损失的平均值,使流向用户和项目嵌入的梯度降低平均值(1/批量大小)系数,使其难以逃脱局部最大值在训练时。在这种情况下是答案吗? (然而,我看到最近的研究表明局部最小值不一定是坏的,所以......)

真的很感谢有人帮我回答为什么大批量最终会出现异常结果。

旁注:可能是另一个愚蠢的问题,但正如您在下面的代码中看到的那样,您可以看到 l2 损失未按批次大小标准化,因此我预计在我乘以批次时它至少会翻倍或翻四倍大小为 4,但在上面的日志中似乎并非如此。

这是我的代码

from typing import Tuple

import torch
from torch.nn.parameter import Parameter
import torch.nn.functional as F

from .PretrainedModel import PretrainedModel


class BPRMFModel(PretrainedModel):
    def __init__(self,n_users: int,n_items: int,u_embed: int,l2:float,dataset: str,u_i_pretrained_dir,use_pretrained = 0,**kwargs) -> None:
        super().__init__(n_users=n_users,n_items=n_items,u_embed=u_embed,dataset=dataset,u_i_pretrained_dir=u_i_pretrained_dir,use_pretrained=use_pretrained,**kwargs)

        self.l2 = l2
        self.reset_parameters()
        self.items_e = Parameter(self._items_e)
        self.users_e = Parameter(self._users_e)
        

    def forward(self,u: torch.Tensor,i: torch.Tensor) -> torch.Tensor:
        u = F.embedding(u,self.users_e)
        i = F.embedding(i,self.items_e)
        return torch.matmul(u,i.T)

    def CF_loss(self,i_pos: torch.Tensor,i_neg: torch.Tensor) -> Tuple[torch.Tensor,torch.Tensor]:
        #u,i_pos,i_neg shape is [batch_size,]

        u = F.embedding(u,self.users_e)
        i_pos = F.embedding(i_pos,self.items_e)
        i_neg = F.embedding(i_neg,self.items_e)
        pos_scores = torch.einsum("ij,ij->i",u,i_pos)
        neg_scores = torch.einsum("ij,i_neg)

        # loss = torch.mean(
        #     F.softplus(-(pos_scores - neg_scores))
        # )
        loss = torch.neg(
            torch.mean(
                F.logsigmoid(pos_scores - neg_scores)
            )
        )

        l2_loss = (
            u.pow(2).sum() +
            i_pos.pow(2).sum() +
            i_neg.pow(2).sum()
        )
        
        return loss,self.l2 * l2_loss
    def get_users_rating_for_each_items(self,i: torch.Tensor) -> torch.Tensor:
        return self(u,i)
    def save_pretrained(self):
        self._items_e = self.items_e.data
        self._users_e = self.users_e.data
        return super().save_pretrained()

PretrainedModel 只是帮助我保存和加载模型权重的基类

真的很感谢能陪我走到这一步的人。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其他元素将获得点击?
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。)
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbcDriver发生异常。为什么?
这是用Java进行XML解析的最佳库。
Java的PriorityQueue的内置迭代器不会以任何特定顺序遍历数据结构。为什么?
如何在Java中聆听按键时移动图像。
Java“Program to an interface”。这是什么意思?
Java在半透明框架/面板/组件上重新绘画。
Java“ Class.forName()”和“ Class.forName()。newInstance()”之间有什么区别?
在此环境中不提供编译器。也许是在JRE而不是JDK上运行?
Java用相同的方法在一个类中实现两个接口。哪种接口方法被覆盖?
Java 什么是Runtime.getRuntime()。totalMemory()和freeMemory()?
java.library.path中的java.lang.UnsatisfiedLinkError否*****。dll
JavaFX“位置是必需的。” 即使在同一包装中
Java 导入两个具有相同名称的类。怎么处理?
Java 是否应该在HttpServletResponse.getOutputStream()/。getWriter()上调用.close()?
Java RegEx元字符(。)和普通点?