V2EX  ›  英汉词典
Enqueued related words: Weight Initialization

Gradient Vanishing

释义 Definition

“梯度消失”(更常见表达为 vanishing gradient)指在训练深层神经网络时,误差反向传播到前面层时梯度变得非常小,导致早期层参数更新几乎停滞,从而学习变慢甚至学不动;在循环神经网络中尤其容易影响长程依赖的学习。

发音 Pronunciation

/ˈɡreɪdiənt ˈvænɪʃɪŋ/

例句 Examples

The model learns slowly because of gradient vanishing.
由于梯度消失,模型学习得很慢。

In very deep networks, gradient vanishing can prevent earlier layers from receiving useful training signals, so techniques like ReLU or residual connections are often used.
在非常深的网络中,梯度消失会让前面层拿不到有效的训练信号,因此常用 ReLU 或残差连接等技巧来缓解。

词源 Etymology

Gradient 源自拉丁语 gradus(“步、级”),在数学与机器学习里指“变化的方向与大小”(梯度)。Vanishing 来自 vanish(“消失、变得看不见”)。合起来就是“梯度逐层变小直至几乎消失”的现象。

相关词 Related Words

文献与著作 Literary Works

  • Ian Goodfellow, Yoshua Bengio, Aaron Courville:《Deep Learning》(系统讨论梯度消失/爆炸及缓解方法)
  • Yoshua Bengio, Patrice Simard, Paolo Frasconi (1994):“Learning Long-Term Dependencies with Gradient Descent is Difficult”(经典论文,分析长程依赖与梯度消失问题)
  • Sepp Hochreiter (1991):“Untersuchungen zu dynamischen neuronalen Netzen”(早期指出 RNN 训练中的梯度消失/爆炸现象)
  • Sepp Hochreiter & Jürgen Schmidhuber (1997):“Long Short-Term Memory”(提出 LSTM,旨在缓解梯度消失以学习长期依赖)
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   1876 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 15ms · UTC 06:16 · PVG 14:16 · LAX 22:16 · JFK 01:16
♥ Do have faith in what you're doing.