CNN和决策树/森林之间有什么区别

时间:2015-12-05 19:39:16

标签: machine-learning decision-tree prediction backpropagation gradient-descent

当本文http://hci.iwr.uni-heidelberg.de/publications/mip/techrep/welbl_14_casting.pdf的autor J. Welbl建议将卷积神经网络与决策树合并时,我正在阅读一篇论文。这是从上面提到的论文中拍摄的照片:

DT -> CNN

这让我思考,我无法回答这两种方法之间的区别。因为在CNNs Backpropagation&梯度下降用于训练决策,也可以很容易地应用于决策树,因此输出应该相同?

我是对还是走错了?

1 个答案:

答案 0 :(得分:2)

事实上,决策树和CNN几乎没有共同点 。这些模型在构建方式上完全不同(特别是你不通过梯度下降训练DT ,它们不能代表特征之间的线性关系,等等......),训练有素且一般特点。你可以简单地“转换”DT到一个神经网络(但不是相反的方式!),但你可以(几乎)任何模型这样做,并不意味着一切都是神经网络。这只表明一般神经网络是多么模糊。

现在更多细节。首先,论文讨论的是ANN(人工神经网络),而不是CNN(卷积神经网络)。第二 - ANN是可计算性方面的一般设置,您可以将每个非循环/循环计算表达为ANN。此外,一旦进入循环网络,您实际上可以证明它们是图灵完整的(因此每个算法都可以表示为RNN)。唯一缺少的是为什么。而且通常没有必要这样做。这里的作者只是声称,他们可以进一步微调表示为ANN的RF,并且说实话,所提供的结果几乎没有说服力(通过忘记RF,因此你放弃它极其简单,易于并行化,少量超参数,易于使用,等等)。特别是 - 你可以用各种各样的方式对RF进行微调,显然通过拟合下一个超参数(他们这样做)并对其进行验证 - 你将提高分数。但是这里显示的内容没有深度(并且肯定没有建议RF是神经网络:-)),正如我所说的那样 - 你可以将任何非循环/循环模型视为ANN 并不意味着特定模型(如DT)是ANN