ReLU 函数在 x> 0 的时候也是线性的,套 ReLU 函数是怎么实现激活作用的?

20 天前
 lisisi

神经网络每一层节点输出值,都要套一层非线性激活函数。现在使用较多的激活函数 ReLU 激活函数在 x > 0 的时候也是线性的,并且是 y=x ,这能起到“线性”=>“非线性”的作用吗?不太理解 ReLU 是怎么实现激活作用的

750 次点击
所在节点    机器学习
4 条回复
GuuJiang
20 天前
线性指的是全定义域线性,有分段就已经是非线性了,更进一步地说,ReLU 的行为跟生物的神经网络也比较接近,即需要超过某个阈值后才导通
565656
20 天前
如果全部节点都是 y=x ,确实是线性的,但是不会这样,总会有一部分<0 的,这样就不是线性了
greyfox
20 天前
x>0 时,y=x ,即激活,x<0 时,y=0 ,即不激活,相当于在 x=0 处拐了个弯,就是非线性了
sanebow
19 天前
线性的定义是对于任意 x 和 y ,f(a*x + b*y) = a*f(x) + b*f(y)。比如假设 a=b=1 ,随便找一个负数 x 和正数 y 带入,你就会发现 ReLU 不满足上面等式了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/1099417

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX