1

我是机器学习的新手,我正在尝试分析我的一个项目的分类算法。我遇到SGDClassifiersklearn图书馆。但许多论文都将SGD称为优化技术。有人可以请解释如何实施SGDClassifier是随机渐变下降分类器还是优化器?

+0

随机梯度下降是一个随机逼近梯度下降最优化方法,用于最小化写为可微函数之和的目标函数。换句话说,SGD尝试通过迭代找到最小值或最大值。 – sera

回答

1

SGD确实是一种用于查找函数最小值的技巧。 SGDClassifier是一个使用SGD进行培训的线性分类器(默认情况下为sklearn,它是一个线性SVM)(即使用SGD查找损失的最小值)。按照documentation

SGDClassifier是一个线性分类(SVM,逻辑回归,A.O.) 与SGD培训。

正规化线性模型具有随机 梯度下降(SGD)学习此估计工具:损失的梯度估计 每个样本的时间和该模型连同 减小强度时间表的方式更新(又名学习率)。 SGD允许小批次 (在线/非核心)学习,请参阅partial_fit方法。对于使用默认学习率计划的最佳 结果,数据应该具有零均值和单位差异 。

此实现适用于表示特征的浮点值数组表示为稠密或稀疏的数据。它适合的模型 可以用损失参数来控制;默认情况下,它适合一个 线性支持向量机(SVM)。

0

从SGD两者sikit学习文档

loss="hinge":(软裕度)线性支持向量机, loss="modified_huber":平滑铰链损失, loss="log":logistic回归