公司动态
机器学习模型优化器Adam报错:ValueError: decay is deprecated in the new Keras optimizer
这个错误提示是因为在新版本的Keras优化器中已经移除了`decay`参数,如果你要使用学习率衰减的话,需要使用新的参数。如果你想要使用旧的优化器,可以使用`tf.keras.optimizers.legacy`模块中的对应优化器,比如`tf.keras.optimizers.legacy.Adam`。
如果你想要使用新的优化器,可以在优化器的参数中设置`learning_rate_schedule`参数来进行学习率衰减。例如,你可以使用`tf.keras.optimizers.schedules.ExponentialDecay`来设置指数衰减的学习率:
```python
initial_learning_rate=0.1
lr_schedule=tf.keras.optimizers.schedules.ExponentialDecay(
initial_learning_rate,
decay_steps=10000,
decay_rate=0.96,
staircase=True)
optimizer=tf.keras.optimizers.Adam(learning_rate=lr_schedule)
```
这里的`decay_steps`表示衰减步数,`decay_rate`表示每一步的衰减比例,`staircase`表示是否采用阶梯状的衰减方式。