diff --git a/docs/zh/week02/02-2.md b/docs/zh/week02/02-2.md index 29125e160..248aba1bd 100644 --- a/docs/zh/week02/02-2.md +++ b/docs/zh/week02/02-2.md @@ -167,7 +167,7 @@ $$ ### 按照进度递减学习率 -随着训练持续,学习率应该下降。实际上,大多进阶的模型是用 Adam/Momentum 这些能自我调整学习率的算法训练的,而非学习率固定的单纯 SGD。 +随着训练持续,学习率应该下降。实际上,大多进阶的模型是用 Adam 这些能自我调整学习率的算法训练的,而非学习率固定的单纯 SGD。 ### 使用 L1 和(或)L2 正则化进行权重衰减