如何解决如何在R中的KerasR中控制学习率
要适合R中的分类模型,一直使用library(KerasR)
。为了控制学习速度,KerasR说
compile(optimizer=Adam(lr = 0.001,beta_1 = 0.9,beta_2 = 0.999,epsilon = 1e-08,decay = 0,clipnorm = -1,clipvalue = -1),loss = 'binary_crossentropy',metrics = c('categorical_accuracy') )
模块$ keras.optimizers $ Adam(lr = lr,beta_1 = beta_2, beta_2 = beta_2,:尝试应用非功能
我还使用keras_compile
仍然遇到相同的错误。
我可以在编译器中更改优化器,但最大学习率为0.01,我想尝试0.2。
model <- keras_model_sequential()
model %>% layer_dense(units = 512,activation = 'relu',input_shape = ncol(X_train)) %>%
layer_dropout(rate = 0.2) %>%
layer_dense(units = 128,activation = 'relu')%>%
layer_dropout(rate = 0.1) %>%
layer_dense(units = 2,activation = 'sigmoid')%>%
compile(
optimizer = 'Adam',metrics = c('categorical_accuracy')
)
解决方法
我认为问题在于您正在一起使用两个不同的库kerasR
和keras
。您只能使用其中之一。首先,您正在使用keras_model_sequential
函数
来自keras
的库,然后您尝试使用来自Adam
库的kerasR
函数。您可以在这里找到这两个库之间的区别:https://www.datacamp.com/community/tutorials/keras-r-deep-learning#differences
以下代码仅对keras
库有效。
library(keras)
model <- keras_model_sequential()
model %>%
layer_dense(units = 512,activation = 'relu',input_shape = ncol(X_train)) %>%
layer_dropout(rate = 0.2) %>%
layer_dense(units = 128,activation = 'relu')%>%
layer_dropout(rate = 0.1) %>%
layer_dense(units = 2,activation = 'sigmoid')%>%
compile(optimizer=optimizer_adam(lr = 0.2),loss= 'binary_crossentropy',metrics = c('accuracy') )
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。