在隐藏层中使用ReLU时如何避免Softmax激活失败?

时间:2018-12-18 01:50:43

标签: neural-network deep-learning

我正在用MNIST数据集训练我自己的ANN实现,以识别数字。

在其他情况下,隐藏层中的ReLU激活为我提供了回归问题的最佳结果,但是,如果我在分类问题中将softmax激活与隐藏层中的ReLU一起用于输出层,则softmax会由于高ReLU获得的值,所以我不得不使用Sigmoid或其他有界激活函数。

我想知道这是不可避免的还是我可以使用某种技术来避免这种情况?

0 个答案:

没有答案