微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

在 csv 解析流期间清除 node.js res.write 缓冲区

如何解决在 csv 解析流期间清除 node.js res.write 缓冲区

我正在尝试使用 node.js 和“csv-parse”库将 csv 文件转换为 HTML 表。 文件非常大,csv-parse 的解析速度比 res.write 可以传输缓冲区中发生的数据变得太大的速度快。 CSV 文件最大可达 2GB。

如何等待 res.write 完成写入然后继续解析 csv 文件

当前代码是:

const fs = require('fs');
const csv = require('csv-parser');
const catchAsync = require("../utils/catchAsync");
const { promisify } = require('util');

exports.transformHTMLAndServe = catchAsync(async (req,res,next) => {
  const {filename} = req.params;
  res.setHeader('Content-Type','text/html; charset=utf-8');
  res.setHeader('transfer-encoding','chunked');
  res.write('<!DOCTYPE html><html><body><table style="border-collapse: collapse;">');
  let head = [];
  fs.createReadStream(`./uploads/${filename}`)
    .pipe(csv({ mapHeaders: (header,index) => {head.push(header.header); return header.index; }}))
    .on('headers',(headers) => {
      res.write('<tr>');
      head.forEach(header => {
        res.write(`<th style="padding: 0.25rem; text-align: left; border: 1px solid #ccc;">${header}</th>`);
      });
      res.write('</tr>');
    })
    .on('data',async (row) => {
      res.write('<tr>');
      Object.values(row).forEach(el => {
        res.write(`<td style="padding: 0.25rem; text-align: left; border: 1px solid #ccc;">${el}</td>`);
      });
    })
    .on('end',() => {
      res.write('</table></body></html>');
      res.end();
    });
});

我正在修改标题,因为有一些重复的标题。 (这是打算) 在 350MB 的文件上,一旦使用 10GB 的 RAM 就会失败。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。