在卷积神经网络中设置层的尺寸

时间:2018-12-12 02:13:39

标签: python machine-learning neural-network pytorch

说我有4批输入的3x100x100图像作为输入,我正在尝试用pytorch制作我的第一个卷积神经网络。我真的不确定是否可以正确使用卷积神经网络,因为当我通过以下方式训练输入时,我会遇到错误:

Expected input batch_size (1) to match target batch_size (4).

以下是我的转发nnet:

然后如果我要通过它:

nn.Conv2d(3, 6, 5)

我会得到6层地图,每个地图的尺寸​​为(100-5 + 1)。

然后如果我要通过它:

nn.MaxPool2d(2, 2)

我会得到6层地图,每个地图的尺寸​​为(96/2)

然后,如果我要通过它:

nn.Conv2d(6, 16, 5)

我将获得16层尺寸为(48-5 + 1)的地图

然后如果我要通过它:

self.fc1 = nn.Linear(44*44*16, 120)

我会得到120个神经元

然后如果我要通过它:

self.fc2 = nn.Linear(120, 84)

我将获得84个神经元

然后如果我要通过它:

self.fc3 = nn.Linear(84, 3)

我将获得3个输出,这是完美的,因为我有3类标签。但是,正如我之前说的那样,这会导致错误,这确实令人惊讶,因为这对我来说很有意义。

完整的神经网络代码:

import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(44*44*16, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 3)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 *44*44)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x


net = Net()
net.to(device)

1 个答案:

答案 0 :(得分:2)

您的理解是正确且非常详细的。

但是,您已经使用了两个池化层(请参见下面的相关代码)。因此,第二步之后的输出将是具有44/2=22维的16张地图。

x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))

要解决此问题,请不要合并或将完全连接的图层的尺寸更改为22*22*16

要通过不合并解决此问题,请按以下说明修改转发功能。

def forward(self, x):
    x = self.pool(F.relu(self.conv1(x)))
    x = F.relu(self.conv2(x))
    x = x.view(-1, 16 *44*44)
    x = F.relu(self.fc1(x))
    x = F.relu(self.fc2(x))
    x = self.fc3(x)
    return x

要通过更改全连接层的尺寸进行修复,请如下更改网络声明。

def __init__(self):
    super(Net, self).__init__()
    self.conv1 = nn.Conv2d(3, 6, 5)
    self.pool = nn.MaxPool2d(2, 2)
    self.conv2 = nn.Conv2d(6, 16, 5)
    self.fc1 = nn.Linear(22*22*16, 120)
    self.fc2 = nn.Linear(120, 84)
    self.fc3 = nn.Linear(84, 10)