简介
随机梯度下降(Stochastic Gradient Descent)是一种常用的优化技术,用于最小化损失函数。该技术以随机方式逐步执行梯度下降,即在每次迭代中随机选择样本。这种方法效率很高,尤其适用于拟合线性模型。然而,每次迭代并不能保证收敛,损失函数也不一定在每次迭代时都会减小。在这种情况下,监测损失函数的收敛情况可能会很困难。在本实验中,我们将探索早停策略,这是一种用于监测验证分数收敛情况的方法。我们将使用 scikit-learn 库中的 SGDClassifier
模型和 MNIST 数据集来说明如何使用早停来达到与未使用早停构建的模型几乎相同的准确率,并显著减少训练时间。
虚拟机使用提示
虚拟机启动完成后,点击左上角切换到 笔记本 标签页,以访问 Jupyter Notebook 进行练习。
有时,你可能需要等待几秒钟让 Jupyter Notebook 完成加载。由于 Jupyter Notebook 的限制,操作的验证无法自动化。
如果你在学习过程中遇到问题,随时向 Labby 提问。课程结束后提供反馈,我们会及时为你解决问题。