朱莉娅对猫的命令很慢

时间:2015-02-16 10:31:50

标签: julia

我想看一下julia语言,所以我写了一个小脚本来导入我正在使用的数据集。但是,当我运行并分析脚本时,它发现它比R中的类似脚本慢得多。 当我进行性能分析时,它会告诉我所有cat命令的性能都很差。

文件如下所示:

#
#Metadata
#

Identifier1 data_string1
Identifier2 data_string2
Identifier3 data_string3
Identifier4 data_string4

//

我主要想获取data_strings并将它们拆分成单个字符的矩阵。 这是一个极少的代码示例:

function loadfile()
  f = open("/file1")
  first=true
  m = Array(Any, 1,0)

  for ln in eachline(f)

    if ln[1] != '#' && ln[1] != '\n' && ln[1] != '/'
      s = split(ln[1:end-1])
      s = split(s[2],"")

      if first
        m = reshape(s,1,length(s))
        first = false
      else
        s = reshape(s,1,length(s))
        println(size(m))
        println(size(s))
        m = vcat(m, s)
      end

    end
  end
end

任何想法为什么julia可能会因为cat命令而变慢,或者我怎么能以不同的方式做到这一点?

感谢您的任何建议!

1 个答案:

答案 0 :(得分:8)

像这样使用cat很慢,因为它需要大量的内存分配。每次我们执行vcat时,我们都会分配一个全新的数组m,它与旧的m大致相同。以下是我以更多Julian方式重写代码的方法,其中m仅在最后创建:

function loadfile2()
  f = open("./sotest.txt","r")
  first = true
  lines = Any[]

  for ln in eachline(f)
    if ln[1] == '#' || ln[1] == '\n' || ln[1] == '/'
      continue
    end

    data_str = split(ln[1:end-1]," ")[2]
    data_chars = split(data_str,"")
    # Can make even faster (2x in my tests) with
    # data_chars = [data_str[i] for i in 1:length(data_str)]
    # But this inherently assumes ASCII data
    push!(lines, data_chars)
  end
  m = hcat(lines...)'  # Stick column vectors together then transpose
end

我为您的示例数据制作了10,000行版本,并发现了以下性能:

Old version:
elapsed time: 3.937826405 seconds (3900659448 bytes allocated, 43.81% gc time)
elapsed time: 3.581752309 seconds (3900645648 bytes allocated, 36.02% gc time)
elapsed time: 3.57753696 seconds (3900645648 bytes allocated, 37.52% gc time)
New version:
elapsed time: 0.010351067 seconds (11568448 bytes allocated)
elapsed time: 0.011136188 seconds (11568448 bytes allocated)
elapsed time: 0.010654002 seconds (11568448 bytes allocated)