Hinge loss(铰链损失)是一种常用于机器学习(尤其是支持向量机 SVM)的损失函数,用来衡量分类预测与真实标签之间的“间隔(margin)”是否足够大:当样本被正确分类且间隔达到要求时损失为 0;否则损失随间隔不足而线性增加。常见形式为
[
\max(0,\ 1 - y\cdot f(x))
]
其中 (y\in{-1, +1})。
/ˈhɪndʒ lɔs/
The model uses hinge loss to train a linear classifier.
该模型使用铰链损失来训练线性分类器。
If a data point is correctly classified with a large margin, its hinge loss becomes zero, which helps the classifier focus on harder examples.
如果某个数据点被正确分类且间隔很大,它的铰链损失就为零,这会帮助分类器把注意力放在更难的样本上。
hinge 原意是“铰链”,引申为“转折点/门轴式结构”;hinge loss 之所以这样命名,是因为它的函数形状在某个阈值处像“铰链”一样发生折转:在满足间隔之前损失随误差增加而变化,达到阈值后损失“折过去”并变为 0。