深度学习,损失不会减少

时间:2015-12-23 14:52:36

标签: deep-learning cross-validation objective-function

我尝试使用具有20个类的训练集来微调预训练模型。值得一提的是,尽管我有20个班级,但是一个班级包括1/3的训练图像。这是我的损失没有降低,测试准确率几乎达到30%的原因吗?

感谢您的任何建议

2 个答案:

答案 0 :(得分:4)

我有类似的问题。我通过增加神经网络权重的初始值的方差来解决它。这用作神经网络的预处理,以防止重量在后支撑期间消失。

我从Jenny Orr教授的课程中看到neural network lectures,发现它非常有用。 (刚才意识到Jenny在早期的神经网络训练中与Yann LeCun和Leon bottou共同撰写了许多论文。)

希望它有所帮助!

答案 1 :(得分:1)

是的,您的网络很可能过度适应不平衡的标签。一种解决方案是您可以在其他标签上执行数据扩充以平衡它们。例如,如果您有图像数据:您可以进行随机裁剪,采用水平/垂直翻转,各种技术。

编辑:

检查是否过度拟合不平衡标签的一种方法是计算网络预测标签的直方图。如果它高度倾向于不平衡类,你应该尝试上面的数据增强方法并重新训练你的网络,看看是否有帮助。