在机器学习与数据分析中,“特征缩放/特征尺度调整”指把不同量纲或取值范围差异很大的特征转换到相近的尺度上,以便模型更稳定、更快收敛或让距离度量更公平(常见方法有标准化 z-score、最小-最大归一化等)。该术语也常写作 feature scaling(无连字符)。
/ˈfiːtʃər ˌskeɪlɪŋ/
We should do feature-scaling before training the model.
我们应该在训练模型之前进行特征缩放。
Without feature-scaling, algorithms like k‑NN or SVM may be dominated by large‑range features, which can reduce accuracy and slow down optimization.
如果不做特征缩放,像 k‑NN 或 SVM 这类算法可能会被取值范围更大的特征“主导”,从而降低准确率并拖慢优化过程。
由 feature(特征)与 scaling(缩放、按比例调整)组合而成。随着机器学习实践中对数值稳定性、梯度下降收敛速度、以及距离/相似度计算公平性的需求增多,“feature scaling”逐渐成为数据预处理阶段的高频术语;连字符写法 feature-scaling 多见于标题、笔记或技术文档中,用来强调其作为一个整体概念。