使用ImageDataGenerator进行网络比较

时间:2018-07-12 23:09:16

标签: neural-network keras conv-neural-network

我正在尝试开发一个简单的网络以使用Keras进行字符识别。我使用了两个Conv2D层,接着是MaxPooling2D,然后是具有ReLU的隐藏层和具有softmax的输出层。我正在训练的数字或图像是29058。

为了介绍一些复杂性,我想对某些图像进行一些平移和少量旋转,然后看看发生了什么。我故意在Keras中使用图像预处理,因此实例化了一个ImageDataGenerator数据源,并使用model.fit_generator(datagen.flow())(省略了参数)来拟合模型。我已经非常遵循documentation的这一步了,尤其是我想将这个问题集中在参数steps_per_epoch上,该参数等于文档中建议的len(x_train)/batch_size。< / p>

结果是,在第一种情况下,网络每个时期训练29058个示例,而在第二种情况下,训练908个。

据我所知,这两个模型不会产生相同的结果,因此无法进行比较。有没有办法来解决这个问题?我的方法有问题吗?

(注意:两种情况均为epochs = 10,batch_size = 32)。

谢谢。

0 个答案:

没有答案