hard-margin(机器学习):指在支持向量机(SVM)中采用“硬间隔”约束的设定——要求训练数据完全线性可分,并且所有样本都必须被正确分类,同时最大化分类超平面到最近样本的间隔。若数据存在噪声或不可完全分,这种设定通常不可行或效果不稳。(另有更常用的 soft-margin 允许少量误分类。)
/ˌhɑːrd ˈmɑːrdʒɪn/
We used a hard-margin SVM because the classes were perfectly separable.
我们使用了硬间隔 SVM,因为两类数据可以被完全线性分开。
In practice, hard-margin optimization often fails when even a few outliers make the data non-separable.
在实际应用中,只要有少量离群点使数据不可分,硬间隔优化往往就会失败。
hard 意为“严格的、不可放宽的”,margin 在分类问题中指“间隔/边界余量”。“hard-margin”这一术语来自统计学习与 SVM 早期文献,用来对比更“宽松”的 soft-margin(软间隔):硬间隔要求零训练误差(在可分前提下),软间隔则通过惩罚项允许违反间隔或少量误分。