在文本分类中使用WEKA的MultilayerPerceptron输出不正确

时间:2017-12-30 16:48:47

标签: java neural-network deep-learning weka

我一直在尝试使用MultilayerPerceptron神经网络来对我的数据进行分类。但是,无论采用何种配置,我总是得到相同的结果,如下所示,只有50%正确。我可以确认其他分类器似乎使用相同的数据集提供更可信的结果。

我的数据格式为'string,nominal'。

为了解释更多的预处理 - 我使用StringToWordVector过滤器将字符串转换为我的数据集中的属性(这给了我大约1000个属性)。我的类属性是名义上的属性,无论是正面还是负面。

当试图在4000(每类2000个)这些实例上交叉验证神经网络时,我会反复得到相同的结果。究竟是什么导致网络将所有内容都指向一个类?

Cross-validation output

Dataset configuration

Network configuration

1 个答案:

答案 0 :(得分:0)

对于寻找答案的人,我发现我必须增加隐藏层中的神经元数量。我得到了改进的结果,将其更改为100并将其更改为'属性的数量',并非所有属性都映射到单个类(原始问题)。