关于神经网络的反向传播

2021-08-12 11:31:11 +08:00
 johnsonshu

我一直理解不了梯度。

假设: <input> => layer01 => layer02 => layer03 => <output>

反向传播时求出来的梯度, 到底是针对哪一层的梯度啊。

layer01,02,03 上所有的权重参数都更新吗?

986 次点击
所在节点    问与答
3 条回复
jdhao
2021-08-12 11:32:55 +08:00
对,计算 loss 对各个层的偏导数,然后更新各层参数
Ehend
2021-08-12 11:35:11 +08:00
一楼回答完了
aguesuka
2021-08-12 14:08:38 +08:00
我是把梯度看作牛顿法的导数理解的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/795298

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX