iOS AVFoundation 如何转换相机每秒帧数以使用 CMTime 创建延时摄影?

iOS AVFoundation how to convert camera frames per second to create a timelapse using CMTime?

我有一个 iPhone 相机附件,可以以 9FPS 的速度捕捉视频,并将其作为单独的 UIImages 提供。我正在尝试将这些图像拼接在一起,以使用 AVFoundation 创建相机所见内容的延时视频。

我不确定如何正确转换帧和时序以实现我想要的时间压缩。

例如 - 我想将 1 小时的真实生活片段转换为 1 分钟的延时摄影。这告诉我我需要每 60 帧捕获一次并将其附加到延时摄影。

下面的代码是否完成了 60 秒到 1 秒的延时转换? 或者我需要通过 kRecordingFPS 添加更多的 multiplication/division 吗?

#define kRecordingFPS 9
#define kTimelapseCaptureFrameWithMod 60
//frameCount is the number of frames that the camera has output so far
if(frameCount % kTimelapseCaptureFrameWithMod == 0)
{
    //...
    //convert image and prepare it for recording
    [self appendImage:image 
               atTime:CMTimeMake(currentRecordingFrameNumber++, kRecordingFPS)];
}

您的代码将每 1/9 秒让 60 帧中的 1 帧进入您的电影,并且每次将 frameIndex 增加一。

结果应该是 [frameCount 的最大值] / (60 * 9) 的影片。如果你有 32400 帧(1 小时 9fps 的电影),电影将是 {540:9 = 60s}。

尝试在每次调用 appendImage:atTime: 时使用 CMTimeShow() 打印 CMTime 以进行检查。

//at 5 fps, 300 frames recorded per 60 seconds
//to compress 300 frames into 1 second at 5 fps, we need to take every 300/5 = 60th frame
//to compress 300 frames into 1 second at 15 fps, take every 300/15 = 20th frame
//to compress 300 frames into 1 sec at 30 fps, take every 300/30 = 10th frame

#define kReceivedFPS 9
#define kStoreFPS 9
#define kSecondsPerSecondCompression 60

#define kTimelapseCaptureFrameWithMod (kSecondsPerSecondCompression * kReceivedFPS) / kStoreFPS