在 Nodejs 中解析大型 JSON 文件
我有一个文件,它以JSON形式存储了许多JavaScript对象,我需要读取该文件,创建每个对象,并对它们执行某些操作(在我的情况下将它们插入到数据库中)。JavaScript 对象可以表示为一种格式:
格式 A:
[{name: 'thing1'},
....
{name: 'thing999999999'}]
或格式 B:
{name: 'thing1'} // <== My choice.
...
{name: 'thing999999999'}
请注意,指示了很多 JSON 对象。我知道我可以将整个文件读入内存,然后像这样使用:...
JSON.parse()
fs.readFile(filePath, 'utf-8', function (err, fileContents) {
if (err) throw err;
console.log(JSON.parse(fileContents));
});
但是,文件可能非常大,我更喜欢使用流来完成此操作。我在流中看到的问题是,文件内容可以随时分解为数据块,那么我如何在此类对象上使用?JSON.parse()
理想情况下,每个对象都将作为单独的数据块读取,但我不确定如何执行此操作。
var importStream = fs.createReadStream(filePath, {flags: 'r', encoding: 'utf-8'});
importStream.on('data', function(chunk) {
var pleaseBeAJSObject = JSON.parse(chunk);
// insert pleaseBeAJSObject in a database
});
importStream.on('end', function(item) {
console.log("Woot, imported objects into the database!");
});*/
请注意,我希望防止将整个文件读入内存。时间效率对我来说并不重要。是的,我可以尝试一次读取多个对象并一次插入所有对象,但这是一种性能调整 - 我需要一种保证不会导致内存过载的方法,无论文件中包含多少对象。
我可以选择使用或其他东西,只是请在您的答案中指定。谢谢!FormatA
FormatB