微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

具有 L1 正则化的逻辑回归模型

如何解决具有 L1 正则化的逻辑回归模型

我正在尝试在逻辑模型上应用 L1 正则化

class LogisticRegression(nn.Module):


    def __init__(self):
        super().__init__()
        self.linear = nn.Linear(input_size,num_classes)
    def forward(self,x):
        x = x.reshape(-1,784)
        output = self.linear(x)
        return output

    def training_step(self,batch):
        images,labels = batch 
        output = self(images)                 
        loss = F.cross_entropy(output,labels)
    
    
        acc = accuracy(output,labels)           
        return {'Training_loss': loss,'Training_acc': acc}
      
    def training_epoch_end(self,outputs):
        batch_losses = [x['Training_loss'] for x in outputs]
        epoch_loss = torch.stack(batch_losses).mean()   
        batch_accs = [x['Training_acc'] for x in outputs]
        epoch_acc = torch.stack(batch_accs).mean()     
        return {'Training_loss': epoch_loss.item(),'Training_acc': epoch_acc.item()}

    def epoch_end(self,epoch,result):
        print("Epoch [{}],Training_loss: {:.4f},Training_acc: {:.4f}".format(epoch,result['Training_loss'],result['Training_acc']))
model = LogisticRegression()

但我认为我做错了准确性没有改变。

L1=0.2
def evaluate(model_b,trainloader):
    outputs = [model_b.training_step(batch) for batch in trainloader]
    return model_b.training_epoch_end(outputs)

def fit(epochs,lr,model_b,trainloader,opt_func=torch.optim.SGD):
    history = []
    optimizer = opt_func(model_b.parameters(),lr)
    for epoch in range(epochs):
        ##### Training Phase 
        for batch in trainloader:
            loss = model_b.training_step(batch)['Training_loss']
            
            loss_Lasso = loss  + 0.5 * L1 #  L1 reg
            
            loss_Lasso.backward()
            optimizer.step()
            optimizer.zero_grad()
        result = evaluate_b(model_b,trainloader)
        model_b.epoch_end(epoch,result)
        history.append(result)
    return history

谁能帮助我解决我所缺少的以及如何真正应用 L1 正则化? 另外,L1 正则化是否称为 lasso?

解决方法

我相信 l1-norm 是一种套索正则化,是的,但是 there are others

在您的代码段中,L1 被设置为常量,而您应该测量模型参数的 l1-norm。然后将其与您的网络损失相加,就像您所做的那样。在您的示例中,只有一个层,因此您只需要 self.linear 的参数。首先收集所有参数,然后使用 torch.norm 测量总范数。您也可以使用 nn.L1Loss

params = torch.cat([x.view(-1) for x in model.linear.parameters()])
L1 = lamb*torch.norm(params,p=1)

其中 lamb 是您的 lambda 正则化参数,model 是从 LogisticRegression 类初始化的。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其他元素将获得点击?
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。)
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbcDriver发生异常。为什么?
这是用Java进行XML解析的最佳库。
Java的PriorityQueue的内置迭代器不会以任何特定顺序遍历数据结构。为什么?
如何在Java中聆听按键时移动图像。
Java“Program to an interface”。这是什么意思?