什么是2D浮动张量?

时间:2017-03-02 18:00:45

标签: tensorflow computer-vision deep-learning torch tensor

Disclamer:我知道没有关于CNN和深度学习,我不知道Torch

我正在使用SIFT作为我的对象识别应用程序。我发现这篇论文Discriminative Learning of Deep Convolutional Feature Point Descriptors特别有趣,因为它是基于CNN的,比经典的图像描述方法(例如SIFT,SURF等)更精确,但是(引用摘要):

  

在训练和测试期间使用L2距离我们开发   128-D描述符,其欧氏距离反映了斑块相似性,   它可以作为任何涉及的任务的替代品   SIFT

哇,这太棒了:这意味着我们可以继续使用任何基于SIFT的方法,但使用更精确的描述符!

但是,引用github code repository自述文件:

  

注意输出将是Nx128 2D浮点张量,其中每行是a   描述符。

那么,什么是“2D浮动张量”? SIFT描述符矩阵是Nx128浮点数,有什么我不知道的吗?

2 个答案:

答案 0 :(得分:1)

2D浮点张量= 2D浮点矩阵。

仅供参考:The meaning of tensors in the neural network community

答案 1 :(得分:0)

这是一个2-d浮动张量。

[[1.0,2.0],
 [3.0,4.0]]

这仍然是一个2-d浮动张量,即使它们有3个项目和3行!

[[1.0,2.0,3.0],
 [4.0,5.0,6.0],
 [7.0,5.0,6.0]]

支架的数量是重要的。

相关问题