在 graphicsmagick 中从远程流创建 GIF

Creating a GIF from remote stream in graphicsmagick

我目前正在通过将每个图像下载到文件系统的 tmp 文件夹中,从节点中的远程文件创建 GIF。

我想绕过将图像保存到 tmp 文件夹,而是保存在内存中。这可能吗?

如您所见,我的 AWS class 中有一个下载功能,可以保存到 tmp 文件夹:

download(key){
    return new Promise((resolve, reject) => {
      request.head(`${this.base_url}/${this.bucket}/${key}`, (err, res, body) => {
        request(`${this.base_url}/${this.bucket}/${key}`)
            .pipe(fs.createWriteStream(`tmp/${key}`)).on('close', resolve )
      })
    })
};

一旦它们全部下载完毕,我的 GifService class 中就有一个 createGif 函数,它将每个文件路径添加为 gm 的自定义参数,添加 50 毫秒的延迟,调整大小然后输出为然后我上传到 AWS s3 的缓冲区。

import gm from 'gm';

...

constructor(){
    this.gm = gm()
}

generateGif(images, prefix){

    return new Promise((resolve, reject) => {

        // for each image we want in array, we pass to gm
        images.forEach(image => {
            this.gm.in(`tmp/${image.Key}`)
        })

        // Now we create the gif with 50sec delay between images, sized to 600px x 2
        this.gm
            .delay(50)
            .resize(600,600)
            .toBuffer('gif', async (err, buffer) => {
        if (err) reject(err)

        const params = {
                ACL: 'public-read',
                Bucket: config.aws_bucket,
                ContentType: 'image/gif',
                Key: `${prefix}/${uuid()}.gif`,
                Body: buffer
              }

              try{
                // uplaod to S3
            const upload = await this.aws.upload(params)

            // resolve s3 URL
            resolve(upload)

              }catch(err) {
                console.log('err', err)
                reject(err)
              }

      });
    })

}

理想情况下,如果我可以将远程文件流作为自定义参数传递,或者将缓冲区作为自定义参数传递,而不是我当前传递 tmp 文件路径的方式:

images.forEach(image => {
    this.gm.in(`tmp/${image.Key}`)
})

我通过先将图像转换为 miff 并将它们连接成单个流,设法仅使用 streams 使其工作。然后使用 delay 再次将 bufferstream 传递给 gm 就可以了。

您需要安装 concat-stream npm 才能正常工作。

抱歉,混合 ES5 代码。

import gm from 'gm';
var concat = require('concat-stream');
...

constructor() {
    this.gm = gm()
}

start() {

    return getYourReadAbleStreamsSomehow().then(streams => {

        return generateGif(streams);

    }).then(gifBuffer => {

        return uploadToAWS(gifBuffer, prefix);

    }).catch(err => {
        console.log(err)
    })

}

uploadToAWS(buffer, prefix) {
    const params = {
        ACL: 'public-read',
        Bucket: config.aws_bucket,
        ContentType: 'image/gif',
        Key: `${prefix}/${uuid()}.gif`,
        Body: buffer
    }

    try {
        // uplaod to S3
        const upload = await this.aws.upload(params)

        // resolve s3 URL
        resolve(upload)

    } catch (err) {
        console.log('err', err)
        reject(err)
    }
}

generateGif(imageStreams, delay) {

    return new Promise((resolve, reject) => {

        var write = concat(function(buffer) {
            gm(buffer)
                .delay(delay)
                .toBuffer('gif', function(err, buffer) {

                    if (err) 
                        reject(err);

                    resolve(buffer);

                })
        })

        //Convert to miff and concat streams
        var i = 0;
        var streamHandler = function() {

            gm(imageStreams[i])
                .resize('600', '600')
                .stream('miff', function(err, stdout, stderr) {
                    if (err)
                        reject(err)

                    var lastOne = i === streams.length - 1;

                    if (!lastOne)
                        stdout.once('end', streamHandler)

                    stdout.pipe(write, {
                        end: lastOne
                    });

                    i++;

                });
        }

        streamHandler();

    })

}