如何使用bash将大文件拆分成许多小文件?

时间:2013-01-31 00:45:18

标签: bash

我有一个文件,比如all,有2000行,我希望它可以分成4个小文件,行号为1~500,501~1000,1001~1500,1501~2000。

也许,我可以这样做:

cat all | head -500 >small1
cat all | tail -1500 | head -500 >small2
cat all | tail -1000 | head -500 >small3
cat all | tail -500 >small4

但是这种方式涉及行号的计算,当行数不是一个好数字时,或者当我们想要将文件拆分成太多小文件时(例如:file all),可能会导致错误有3241行,我们想把它分成7个文件,每个文件有463行)。

有更好的方法吗?

3 个答案:

答案 0 :(得分:37)

如果要拆分文件,请使用split

split -l 500 all all

将文件拆分为多个文件,每个文件有500行。如果要将文件拆分为大小相同的4个文件,请使用以下内容:

split -l $(( $( wc -l < all ) / 4 + 1 )) all all

答案 1 :(得分:10)

查看split命令,它应该做你想要的(以及更多):

$ split --help
Usage: split [OPTION]... [INPUT [PREFIX]]
Output fixed-size pieces of INPUT to PREFIXaa, PREFIXab, ...; default
size is 1000 lines, and default PREFIX is 'x'.  With no INPUT, or when INPUT
is -, read standard input.

Mandatory arguments to long options are mandatory for short options too.
  -a, --suffix-length=N   generate suffixes of length N (default 2)
      --additional-suffix=SUFFIX  append an additional SUFFIX to file names.
  -b, --bytes=SIZE        put SIZE bytes per output file
  -C, --line-bytes=SIZE   put at most SIZE bytes of lines per output file
  -d, --numeric-suffixes[=FROM]  use numeric suffixes instead of alphabetic.
                                   FROM changes the start value (default 0).
  -e, --elide-empty-files  do not generate empty output files with '-n'
      --filter=COMMAND    write to shell COMMAND; file name is $FILE
  -l, --lines=NUMBER      put NUMBER lines per output file
  -n, --number=CHUNKS     generate CHUNKS output files.  See below
  -u, --unbuffered        immediately copy input to output with '-n r/...'
      --verbose           print a diagnostic just before each
                            output file is opened
      --help     display this help and exit
      --version  output version information and exit

SIZE is an integer and optional unit (example: 10M is 10*1024*1024).  Units
are K, M, G, T, P, E, Z, Y (powers of 1024) or KB, MB, ... (powers of 1000).

CHUNKS may be:
N       split into N files based on size of input
K/N     output Kth of N to stdout
l/N     split into N files without splitting lines
l/K/N   output Kth of N to stdout without splitting lines
r/N     like 'l' but use round robin distribution
r/K/N   likewise but only output Kth of N to stdout

答案 2 :(得分:4)

与其他人已提到的一样,您可以使用split。接受的答案提到的复杂的命令替换不是必需的。作为参考,我正在添加以下命令,这些命令几乎完成了请求。请注意,使用-n命令行参数指定chuck数时,small*文件在使用split时不包含500行。

$ seq 2000 > all
$ split -n l/4 --numeric-suffixes=1 --suffix-length=1 all small
$ wc -l small*
 583 small1
 528 small2
 445 small3
 444 small4
2000 total

或者,您可以使用GNU parallel

$ < all parallel -N500 --pipe --cat cp {} small{#}
$ wc -l small*
 500 small1
 500 small2
 500 small3
 500 small4
2000 total

正如你所看到的,这种咒语非常复杂。 GNU Parallel实际上最常用于并行化管道。恕我直言,值得研究的工具。

相关问题