Pytorch NN和班级之间的交流

时间:2019-01-06 15:50:50

标签: python pytorch

我是python和pytorch的新手,在理解其工作方式时遇到问题。

    import torch.nn as nn
    import torch.nn.functional as F
    import torch.optim as optim

    class Net(nn.Module):
        def __init__(self):
            ..
        def forward(self, x):
            ..
            return x
    net = Net()


criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        inputs, labels = data
        optimizer.zero_grad()
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

enter image description here

所以,这是代码,我从图片中的代码中得出了我所理解的东西。 我有一些问题:

A)为什么我不能在代码中直接使用nn.CrossEntropy而不是“ criterion”?如果将其分配给变量,会有什么区别?我收到此错误:具有多个值的Tensor的布尔值不明确

B)为什么当Net类获得一个对象(nn)(我假设使用'as'时,会创建一个对象),那么Net类随后可以简单地向后使用吗?它应该是nn的一部分,而不是Net。你能帮我理解一下吗?

C)尽管优化是一个不同的对象,但优化优化的参数如何影响nn?我不明白他们如何传递变量并互相更新?

1 个答案:

答案 0 :(得分:1)

A)通过在一个位置将其设置为变量,可以帮助您更轻松地在一个位置更改损失函数,而不必在许多地方键入nn.MSELoss,因为代码的大小和复杂性增加了。基本上不会出错。
至于错误,将需要更多信息来解决该布尔错误。输入的内容在哪一行等。那里的信息很少。

B)Net(nn.Module)从nn.Module继承,它将向后添加到您添加到该类的所有操作中。有关更多信息,请参见docs

C)“ net”是一个对象。 net.parameters()是一个迭代器,它迭代网络对象中的所有参数。因此,它是通过引用传递的,而不是通过值传递参数的。

相关问题