为什么 for 循环优化和通过 keras.Model 的个性化 .fit() 方法优化之间存在差异? 进口

如何解决为什么 for 循环优化和通过 keras.Model 的个性化 .fit() 方法优化之间存在差异? 进口

我一直在尝试创建一个 keras.Model,它可以根据 GPD 的样本或其分位数拟合广义帕累托分布 (GPD)。拟合是通过最小化观测值与估计 GPD 的分位数之间的差异来完成的。

进口

import tensorflow as tf
from tensorflow import keras
import tensorflow_probability as tfp

GPD 层

我通过对 keras.layers.Layer 进行子类化并按照建议将参数保留在层之外来创建一个基本的 GPD 层,以获得更好的性能。我还使用了在 tensorflow_probability.distributions.GeneralizedPareto (see doc) 中实现的 GPD。 GPD 的两个参数是 gammasigma

class GPD_layer(keras.layers.Layer):
    def __init__(self):
        super(GPD_layer,self).__init__()
    def call(self,gamma,sigma,num):
        pareto = tfp.distributions.GeneralizedPareto(
            loc=0.0,scale=sigma,concentration=gamma
            )
        return pareto.quantile(tf.cast(tf.range(start=1/(num+1),limit=1.0,delta=1/(num+1),dtype=tf.float64),dtype=tf.float32))

GPD 模型

我创建了一个 keras.Model 子类来拥有合适的模型并能够像常规 keras.Model 一样对其进行训练。遵循 Keras 团队提供的 guide。我做了以下子类:

class GPD_model(keras.Model):
    def __init__(self):
        super(GPD_model,self).__init__()
        self.gpd_layer = GPD_layer()
        self.gamma = tf.Variable(
            initial_value=tf.random_normal_initializer(mean=0.2)(shape=(1,),dtype="float32"),trainable=True,name="gamma")
        self.sigma = tf.Variable(
            initial_value=tf.random_normal_initializer(mean=1.0)(shape=(1,name="sigma")
        
    def call(self,num,training=None,*args,**kwargs):
        if training:
            return self.gpd_layer(gamma=self.gamma,sigma=self.sigma,num=num)
        return self.gpd_layer(gamma=self.gamma,num=num)
    
    def train_step(self,data):
        num = data.shape[0]
        with tf.GradientTape() as tape:
            X_gpd = self(num = num,training=True)
            loss = tf.norm(data-X_gpd,ord=1)
        gradients = tape.gradient(loss,[self.sigma,self.gamma])

        self.optimizer.apply_gradients(zip(gradients,self.gamma]))
        return {"loss":loss}

训练模型

N=1000
gamma_th = 0.4
sigma_th = 2.0

pareto = tfp.distributions.GeneralizedPareto(loc=0,scale=sigma_th,concentration=gamma_th)
X_train = pareto.quantile(tf.cast(tf.range(start=1/(N+1),delta=1/(N+1),dtype=tf.float32))

model = GPD_model()
model.compile(
    optimizer=keras.optimizers.SGD(learning_rate=1e-2),loss="mae",run_eagerly=True
    )
history = model.fit(X_train,epochs=200,batch_size=X_train.shape[0])

这种训练导致 gamma 值变为负值并且似乎发散缓慢,并对损失产生以下影响:

Evolution of personalized fit

创建其他方法

这是 GPD_model 类的一种方法,类似于外部训练循环。

def manual_fit(self,data,epochs):
        history = {"loss":[],"sigma":[],"gamma":[]}
        num = data.shape[0]
        for step in range(epochs):
            with tf.GradientTape() as tape:
                Y = self(num = num)
                loss = tf.norm(data-Y,ord=1)

            gradients = tape.gradient(loss,self.gamma])
            self.optimizer.apply_gradients(zip(gradients,self.gamma]))

            history["loss"].append(loss)
            history["sigma"].append(tf.constant(self.sigma))
            history["gamma"].append(tf.constant(gamma))
            print("\n",str(step+1)+"/"+str(epochs))
            print([f"{k}: {history[k][-1]}" for k in history.keys()])
        return history

此方法导致损失、伽玛和西格玛的预期行为。

Evolution of outter loop

请注意,这两种优化方法是在相同的 epoch 数、相同的学习率和相同的优化器下执行的。最后的振荡是由于学习率不是最好的。

问题

  • 为什么这两种方法的行为如此不同?
  • train_step.manual_fit() 中的循环有什么不同吗?
  • 这是什么原因造成的?这是与梯度计算有关的问题吗?我正在使用 tensorflow_probability.distributions.Distribution 的事实? .fit() 内部的梯度下降方法有什么不同吗?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams['font.sans-serif'] = ['SimHei'] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -> systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping("/hires") public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate<String
使用vite构建项目报错 C:\Users\ychen\work>npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-
参考1 参考2 解决方案 # 点击安装源 协议选择 http:// 路径填写 mirrors.aliyun.com/centos/8.3.2011/BaseOS/x86_64/os URL类型 软件库URL 其他路径 # 版本 7 mirrors.aliyun.com/centos/7/os/x86
报错1 [root@slave1 data_mocker]# kafka-console-consumer.sh --bootstrap-server slave1:9092 --topic topic_db [2023-12-19 18:31:12,770] WARN [Consumer clie
错误1 # 重写数据 hive (edu)> insert overwrite table dwd_trade_cart_add_inc > select data.id, > data.user_id, > data.course_id, > date_format(
错误1 hive (edu)> insert into huanhuan values(1,'haoge'); Query ID = root_20240110071417_fe1517ad-3607-41f4-bdcf-d00b98ac443e Total jobs = 1
报错1:执行到如下就不执行了,没有显示Successfully registered new MBean. [root@slave1 bin]# /usr/local/software/flume-1.9.0/bin/flume-ng agent -n a1 -c /usr/local/softwa
虚拟及没有启动任何服务器查看jps会显示jps,如果没有显示任何东西 [root@slave2 ~]# jps 9647 Jps 解决方案 # 进入/tmp查看 [root@slave1 dfs]# cd /tmp [root@slave1 tmp]# ll 总用量 48 drwxr-xr-x. 2
报错1 hive> show databases; OK Failed with exception java.io.IOException:java.lang.RuntimeException: Error in configuring object Time taken: 0.474 se
报错1 [root@localhost ~]# vim -bash: vim: 未找到命令 安装vim yum -y install vim* # 查看是否安装成功 [root@hadoop01 hadoop]# rpm -qa |grep vim vim-X11-7.4.629-8.el7_9.x
修改hadoop配置 vi /usr/local/software/hadoop-2.9.2/etc/hadoop/yarn-site.xml # 添加如下 <configuration> <property> <name>yarn.nodemanager.res