如何逐行处理大型CSV文件?

时间:2017-08-10 12:27:43

标签: php large-files fgetcsv csv-import

我已经成功编写了一个脚本,该脚本使用cURL下载CSV文件,然后将CSV解析为数组,如下所示:

$rows = array_map(function($a) {
    return str_getcsv($a, $delimiter);
}, explode("\n", $result));

然后我使用$rows迭代foreach以将某些内容保存到数据库中。

该脚本运行正常,但是当使用较大的CSV文件(> 10.000行)时,脚本变得相当慢并且会产生更多错误。

我想将CSV文件剪切成碎片,因此不会将整个文件导入变量。我找到了以下solution,但仍然会立即处理整个文件。

是否有方法将CSV剪切成碎片并多次运行数据库功能?或者有更好的方法来处理像这样的大型CSV文件吗?

我对处理大文件比较陌生,所以请善待!

0 个答案:

没有答案