快速运行高内存使用率Node.js

时间:2019-03-31 16:02:17

标签: node.js heroku memory statistics

我正在Heroku Hobby层dyno上运行小型Node.js服务器。该层分配512mb RAM。该服务接收中等大小的JSON数据(约5000个JSON对象,每个对象约5kb,5000 * 5kb = 25mb),对其进行一些分析并输出约20个指标。它不是少量的输入数据,但绝对不是GB的文件。我对这里遇到的内存限制感到困惑。我为所有20个指标连续发出了一个请求。直到请求结束才进行垃圾收集吗?我正在创建很多Date对象,每个JSON对象大约2个,所以总共约10,000个,我先进行了此操作并将其保存在整个过程中,所以我不会经常重新创建这些日期。这可能是我遇到的问题吗?关于如何在那里进行优化的任何建议?

顺便说一句,我知道Node.js通常并不是用于数据处理的最佳工具,我们已经在寻求针对库和多线程环境的基于Python的服务器。但是,在启动并运行之前,我很希望能够了解和改善我目前在Node.js上遇到的情况。

谢谢!

0 个答案:

没有答案