微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何在R中的KerasR中控制学习率

如何解决如何在R中的KerasR中控制学习率

要适合R中的分类模型,一直使用library(KerasR)。为了控制学习速度,KerasR

compile(optimizer=Adam(lr = 0.001,beta_1 = 0.9,beta_2 = 0.999,epsilon = 1e-08,decay = 0,clipnorm = -1,clipvalue = -1),loss      = 'binary_crossentropy',metrics   =  c('categorical_accuracy') )

但是这样给我一个错误

模块$ keras.optimizers $ Adam(lr = lr,beta_1 = beta_2, beta_2 = beta_2,:尝试应用非功能

我还使用keras_compile仍然遇到相同的错误。 我可以在编译器中更改优化器,但最大学习率为0.01,我想尝试0.2。

model <- keras_model_sequential()

model %>% layer_dense(units = 512,activation = 'relu',input_shape =  ncol(X_train)) %>% 
  layer_dropout(rate = 0.2) %>% 
  layer_dense(units = 128,activation = 'relu')%>%
  layer_dropout(rate = 0.1) %>% 
  layer_dense(units = 2,activation = 'sigmoid')%>%
compile( 
  optimizer = 'Adam',metrics   =  c('categorical_accuracy') 
)

解决方法

我认为问题在于您正在一起使用两个不同的库kerasRkeras。您只能使用其中之一。首先,您正在使用keras_model_sequential函数 来自keras的库,然后您尝试使用来自Adam库的kerasR函数。您可以在这里找到这两个库之间的区别:https://www.datacamp.com/community/tutorials/keras-r-deep-learning#differences

以下代码仅对keras库有效。

library(keras)
model <- keras_model_sequential()

model %>% 
  layer_dense(units = 512,activation = 'relu',input_shape =  ncol(X_train)) %>% 
  layer_dropout(rate = 0.2) %>% 
  layer_dense(units = 128,activation = 'relu')%>%
  layer_dropout(rate = 0.1) %>% 
  layer_dense(units = 2,activation = 'sigmoid')%>%
  compile(optimizer=optimizer_adam(lr = 0.2),loss= 'binary_crossentropy',metrics   =  c('accuracy') )

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。