ReLU可以处理负面的输入吗?

我正在对数据进行神经网络训练,以负值和正值出现。

有什么方法可以将数据提供给ReLU网络,而不必将其全部转换为正数,并有单独的输入来说明数据是负数还是负数?

我看到的问题是,输入层的负输入意味着除非您初始化权重为负数,否则ReLU节点永远不会被激活并永远死亡。


我不是100%确定你在问什么,因为有很多激活功能,你可以很容易地编写你自己的代码。 如果你不想自己编码,也许尝试一些替代方法:

泄漏ReLU

参数化的ReLU

基本上,看看这里 在这里输入图像描述


如果你真的在输入层使用激活函数,我会建议使用ELU等其他激活函数,或者将数据转换为范围[0,1]。 如果ReLU函数位于某个隐藏层中,则ReLU函数应该只是暂时失效。

假设您在前馈网络的最后一个隐藏层中具有ReLU功能。 使用反向传播算法,应该有可能改变先前隐藏层的输出,使得最终ReLU函数的输入再次变为正值。 那么ReLU不会再死了。 有可能是我在这里失去了一些东西。

无论如何,你一定要给ELU一个尝试! 与ReLU相比,我获得了更好的结果。

链接地址: http://www.djcxy.com/p/96039.html

上一篇: Can ReLU handle a negative input?

下一篇: How to install clang header files?