在损失增加的同时,测试准确度增加

时间:2018-03-07 18:55:10

标签: tensorflow deep-learning keras

我有一个只有完全连接/密集层的深层网络,其形状为128-256-512-1024-1024,所有层都使用LeakyReLU激活,没有丢失,最后一层有softmax激活。

在第20个时期之后的训练期间,验证/测试损失开始反转并且上升,但测试精度也继续增加。这有什么意义?如果显示新数据或者是否存在某种误报,那么测试精度是否真的准确?

我编译了这样的模型:

model.compile(
    loss='categorical_crossentropy',
    optimizer='adam',
    metrics=['categorical_accuracy']
 ) 

我的火车/测试准确度和损耗曲线的图表:

精度 enter image description here

损失 enter image description here

编辑:

这可能会有所帮助。它是针对上一个时期的预测标签绘制的真实标签:

enter image description here

1 个答案:

答案 0 :(得分:3)

对于不正确的预测与地面实况之间的距离敏感的损失函数,这很容易实现。你可以得到90%的预测是正确的,但是如果这些未命中的距离远远超出标准,那么你的损失值就会增加。这导致一些模型无法准确识别基本事实中的一个或两个关键因素。

相关问题