所以我正在尝试训练 Keras 模型。训练和验证时准确度很高(我使用的是 f1score,但准确度也很高)。但是当我试图预测一些数据集时,我的准确度会降低。即使我预测训练集。所以我想这不是关于过度拟合的问题。那么问题出在哪里?
import matplotlib.pyplot as plt
skf = StratifiedKFold(n_splits=5)
for train_index, test_index in skf.split(X, y):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
X_train,x_val,y_train,y_val = train_test_split(X_train, y_train, test_size=0.5,stratify = y_train)
y_train = encode(y_train)
y_val = encode(y_val)
model = Sequential()
model.add(Dense(50,input_dim=X_train.shape[1],activation='tanh'))
model.add(Dropout(0.5))
model.add(Dense(25,activation='tanh'))
model.add(Dropout(0.5))
model.add(Dense(10,activation='tanh'))
model.add(Dropout(0.5))
model.add(Dense(2, activation='softmax'))
opt = Adam(learning_rate=0.001)
model.compile(loss='binary_crossentropy', optimizer=opt, metrics=['acc', ta.utils.metrics.f1score])
history = model.fit(X_train, y_train,
validation_data=(x_val, y_val),
epochs=5000,
verbose=0)
plt.plot(history.history['f1score'])
plt.plot(history.history['val_f1score'])
plt.title('model accuracy')
plt.ylabel('f1score')
plt.xlabel('epoch')
plt.legend(['train', 'test'], loc='upper left')
plt.show()
break
结果是here。正如您在训练和验证集上看到的结果。
和预测代码:
from sklearn.metrics import f1_score
y_pred = model.predict(x_train)
y_pred = decode(y_pred)
y_train_t = decode(y_train)
print(f1_score(y_train_t, y_pred))
结果是 0.64,小于预期的 0.9。
我的解码和编码:
def encode(y):
Y=np.zeros((y.shape[0],2))
for i in range(len(y)):
if y[i]==1:
Y[i][1]=1
else :
Y[i][0]=1
return Y
def decode(y):
Y=np.zeros((y.shape[0]))
for i in range(len(y)):
if np.argmax(y[i])==1:
Y[i]=1
else :
Y[i]=0
return Y
答案 0 :(得分:1)
既然你用了最后一层
model.add(Dense(2, activation='softmax')
您应该不要在loss='binary_crossentropy'
中使用model.compile()
,而应该使用loss='categorical_crossentropy'
。
由于这个错误,模型拟合时显示的结果可能是错误的——sklearn的f1_score
返回的结果是真实的。
与您的问题无关(因为我猜后续问题将是如何改进它?),我们实际上从不使用 activation='tanh'
作为隐藏层(尝试 {{1 }} 反而)。此外,默认情况下不应不使用 dropout(尤其是在 0.5 这么高的值下);注释掉所有 dropout 层,仅在您的模型过拟合时才将它们添加回来(在不需要时使用 dropout 会损害性能)。
答案 1 :(得分:0)
我认为您应该将 binary_crossentropy
更改为 categorical_crossentropy
,因为您使用的是单热编码。