从文档中了解PyTorch Bernoulli的发布情况

时间:2018-07-18 00:53:48

标签: python pytorch torch probability-theory probability-distribution

所以我正在阅读pytorch文档,试图学习和理解某些东西(因为我是机器学习的新手),我发现了torch.bernoulli()并且我理解(我想念它了)它近似于张量值介于1到0到1还是0取决于该值(例如经典学校小于0.5 = 0,大于或等于0.5 = 1)

经过我自己的实验,可以正常工作

 >>>y = torch.Tensor([0.500])
 >>>x
 >>>  0.5000
     [torch.FloatTensor of size 1]    
 >>> torch.bernoulli(x)
 >>> 1
     [torch.FloatTensor of size 1]

但是,当我查看文档时有些奇怪

>>> a = torch.Tensor(3, 3).uniform_(0, 1) # generate a uniform random matrix with range [0, 1]
>>> a

 0.7544  0.8140  0.9842
**0.5282** 0.0595  0.6445
 0.1925  0.9553  0.9732
[torch.FloatTensor of size 3x3]

>>> torch.bernoulli(a)

 1  1  1
 **0**  0  1
 0  1  1
[torch.FloatTensor of size 3x3]

在示例中, 0.5282 近似为0, 那是怎么发生的 ?或这是文档中的错误,因为我尝试了它,并且 0.5282 的估计值接近于1。

1 个答案:

答案 0 :(得分:3)

好吧,伯努利是一个概率分布。具体来说,torch.distributions.Bernoulli()从分布中采样并返回一个二进制值(即0或1)。在这里,它以概率 p 返回1,并以概率 1-p 返回0 strong>。

下面的示例将使理解更加清楚:

In [141]: m =  torch.distributions.Bernoulli(torch.tensor([0.63]))

In [142]: m.sample() # 63% chance 1; 37% chance 0
Out[142]: tensor([ 0.])

In [143]: m.sample() # 63% chance 1; 37% chance 0
Out[143]: tensor([ 1.])

In [144]: m.sample() # 63% chance 1; 37% chance 0
Out[144]: tensor([ 0.])

In [145]: m.sample() # 63% chance 1; 37% chance 0
Out[145]: tensor([ 0.])

In [146]: m.sample() # 63% chance 1; 37% chance 0
Out[146]: tensor([ 1.])

In [147]: m.sample() # 63% chance 1; 37% chance 0
Out[147]: tensor([ 1.])

In [148]: m.sample() # 63% chance 1; 37% chance 0
Out[148]: tensor([ 1.])

In [149]: m.sample() # 63% chance 1; 37% chance 0
Out[149]: tensor([ 1.])

In [150]: m.sample() # 63% chance 1; 37% chance 0
Out[150]: tensor([ 1.])

In [151]: m.sample() # 63% chance 1; 37% chance 0
Out[151]: tensor([ 1.])

因此,我们对其进行了10次采样,其中有7次1被采样,大约接近63%。我们需要对此有限的次数进行采样,以分别获得01的37和63的准确百分比;这是因为Law of Large Numbers