与同一数据集上的训练相比,测试时Caffe精度下降

时间:2017-06-22 20:53:08

标签: caffe pycaffe batch-normalization

我在测试阶段遇到Caffe BatchNorm图层问题。至少我认为它与BatchNorm层相关这个问题已经出现了几次,但我仍然没有找到适用于我的解决方案。

在训练期间一切看起来都很好,但在测试期间,准确度会急剧下降(在同一数据集上)。我也在谷歌小组中询问但没有得到答案:https://groups.google.com/forum/#!topic/caffe-users/0t4jehvN6oQ在那里你也会找到我的network.prototxt

我在U-Net分段网络中使用BatchNorm。在测试过程中,我使用批量大小为1,但这不会影响结果" use_global_stats = true",对吗?

我基本上尝试了How should "BatchNorm" layer be used in caffe?中讨论的所有变体,但没有任何效果。

有人可以帮忙吗?

彼得

0 个答案:

没有答案