ts文件中的叠加图像
Overlay image in ts file
我在 Android 中使用 FFmpeg 库。
我可以生成一个 .ts 文件,以后可以使用 VLC 播放器播放。但现在我希望我的应用程序在整个视频上叠加一个 .png 图像。
我想在其中叠加图像的 .ts 文件称为 "out.ts"。名字可能有点乱,但是因为是我相机的输出所以这么叫。
这是我正在使用的线路:
ffmpeg -i /storage/emulated/0/out.ts -i /storage/emulated/0/mustache.png -filter_complex "overlay=10:10" /storage/emulated/0/newout.ts
这是我收到的输出:
ffmpeg version n2.4.2 Copyright (c) 2000-2014 the FFmpeg developers
built on Oct 7 2014 15:08:46 with gcc 4.8 (GCC)
configuration: --target-os=linux --cross-prefix=/home/sb/Source-Code/ffmpeg-android/toolchain-android/bin/arm-linux-androideabi- --arch=arm --cpu=cortex-a8 --enable-runtime-cpudetect --sysroot=/home/sb/Source-Code/ffmpeg-android/toolchain-android/sysroot --enable-pic --enable-libx264 --enable-libass --enable-libfreetype --enable-libfribidi --enable-fontconfig --enable-pthreads --disable-debug --disable-ffserver --enable-version3 --enable-hardcoded-tables --disable-ffplay --disable-ffprobe --enable-gpl --enable-yasm --disable-doc --disable-shared --enable-static --pkg-config=/home/sb/Source-Code/ffmpeg-android/ffmpeg-pkg-config --prefix=/home/sb/Source-Code/ffmpeg-android/build/armeabi-v7a-neon --extra-cflags='-I/home/sb/Source-Code/ffmpeg-android/toolchain-android/include -U_FORTIFY_SOURCE -D_FORTIFY_SOURCE=2 -fno-strict-overflow -fstack-protector-all -mfpu=neon' --extra-ldflags='-L/home/sb/Source-Code/ffmpeg-android/toolchain-android/lib -Wl,-z,relro -Wl,-z,now -pie' --extra-libs='-lpng -lexpat -lm' --extra-cxxflags=
libavutil 54. 7.100 / 54. 7.100
libavcodec 56. 1.100 / 56. 1.100
libavformat 56. 4.101 / 56. 4.101
libavdevice 56. 0.100 / 56. 0.100
libavfilter 5. 1.100 / 5. 1.100
libswscale 3. 0.100 / 3. 0.100
libswresample 1. 1.100 / 1. 1.100
libpostproc 53. 0.100 / 53. 0.100
Input #0, mpegts, from '/storage/emulated/0/out.ts':
Duration: 00:00:02.79, start: 0.000000, bitrate: 1118 kb/s
Program 1
Stream #0:0[0x1e1]: Video: h264 (Constrained Baseline) ([27][0][0][0] / 0x001B), yuv420p, 640x480, 32 tbr, 90k tbn, 180k tbc
Input #1, png_pipe, from '/storage/emulated/0/mustache.png':
Duration: N/A, bitrate: N/A
Stream #1:0: Video: png, ya8, 1848x580 [SAR 2835:2835 DAR 462:145], 25 tbr, 25 tbn, 25 tbc
[AVFilterGraph @ 0x2b411ec0] No such filter: '"overlay'
Error configuring filters.
关于如何告诉 ffmpeg 将 .png 图像放置在何处的一些解释将不胜感激。
你可以使用类似这样的东西。
ffmpeg -i input_video -i input_image -filter_complex "[0:v][1:v]overlay=(main_w-overlay_w)/2:(main_h-overlay_h)/2[outv]" -c:v libx264 -map [outv] -map 0:a -c:a copy output_video
这里可以使用filter_complex
和map
,这样就可以操作filter_complex
中的每个输入流,并将相应的流映射到输出文件。0:v
指的是输入视频,1:v
指的是输入图像。上面的命令会将图像定位到视频的中心。 Overlay 将相应地定位相关来源。 -map [outv]
将获取经过处理的视频流,-map 0:a
将从视频中获取原始音频流并将其映射到输出。
如果您需要更改图像比例,则对 filter_complex
中的输入图像使用 scale,例如 [1:v]scale...
希望对您有所帮助!
我在 Android 中使用 FFmpeg 库。
我可以生成一个 .ts 文件,以后可以使用 VLC 播放器播放。但现在我希望我的应用程序在整个视频上叠加一个 .png 图像。
我想在其中叠加图像的 .ts 文件称为 "out.ts"。名字可能有点乱,但是因为是我相机的输出所以这么叫。
这是我正在使用的线路:
ffmpeg -i /storage/emulated/0/out.ts -i /storage/emulated/0/mustache.png -filter_complex "overlay=10:10" /storage/emulated/0/newout.ts
这是我收到的输出:
ffmpeg version n2.4.2 Copyright (c) 2000-2014 the FFmpeg developers
built on Oct 7 2014 15:08:46 with gcc 4.8 (GCC)
configuration: --target-os=linux --cross-prefix=/home/sb/Source-Code/ffmpeg-android/toolchain-android/bin/arm-linux-androideabi- --arch=arm --cpu=cortex-a8 --enable-runtime-cpudetect --sysroot=/home/sb/Source-Code/ffmpeg-android/toolchain-android/sysroot --enable-pic --enable-libx264 --enable-libass --enable-libfreetype --enable-libfribidi --enable-fontconfig --enable-pthreads --disable-debug --disable-ffserver --enable-version3 --enable-hardcoded-tables --disable-ffplay --disable-ffprobe --enable-gpl --enable-yasm --disable-doc --disable-shared --enable-static --pkg-config=/home/sb/Source-Code/ffmpeg-android/ffmpeg-pkg-config --prefix=/home/sb/Source-Code/ffmpeg-android/build/armeabi-v7a-neon --extra-cflags='-I/home/sb/Source-Code/ffmpeg-android/toolchain-android/include -U_FORTIFY_SOURCE -D_FORTIFY_SOURCE=2 -fno-strict-overflow -fstack-protector-all -mfpu=neon' --extra-ldflags='-L/home/sb/Source-Code/ffmpeg-android/toolchain-android/lib -Wl,-z,relro -Wl,-z,now -pie' --extra-libs='-lpng -lexpat -lm' --extra-cxxflags=
libavutil 54. 7.100 / 54. 7.100
libavcodec 56. 1.100 / 56. 1.100
libavformat 56. 4.101 / 56. 4.101
libavdevice 56. 0.100 / 56. 0.100
libavfilter 5. 1.100 / 5. 1.100
libswscale 3. 0.100 / 3. 0.100
libswresample 1. 1.100 / 1. 1.100
libpostproc 53. 0.100 / 53. 0.100
Input #0, mpegts, from '/storage/emulated/0/out.ts':
Duration: 00:00:02.79, start: 0.000000, bitrate: 1118 kb/s
Program 1
Stream #0:0[0x1e1]: Video: h264 (Constrained Baseline) ([27][0][0][0] / 0x001B), yuv420p, 640x480, 32 tbr, 90k tbn, 180k tbc
Input #1, png_pipe, from '/storage/emulated/0/mustache.png':
Duration: N/A, bitrate: N/A
Stream #1:0: Video: png, ya8, 1848x580 [SAR 2835:2835 DAR 462:145], 25 tbr, 25 tbn, 25 tbc
[AVFilterGraph @ 0x2b411ec0] No such filter: '"overlay'
Error configuring filters.
关于如何告诉 ffmpeg 将 .png 图像放置在何处的一些解释将不胜感激。
你可以使用类似这样的东西。
ffmpeg -i input_video -i input_image -filter_complex "[0:v][1:v]overlay=(main_w-overlay_w)/2:(main_h-overlay_h)/2[outv]" -c:v libx264 -map [outv] -map 0:a -c:a copy output_video
这里可以使用filter_complex
和map
,这样就可以操作filter_complex
中的每个输入流,并将相应的流映射到输出文件。0:v
指的是输入视频,1:v
指的是输入图像。上面的命令会将图像定位到视频的中心。 Overlay 将相应地定位相关来源。 -map [outv]
将获取经过处理的视频流,-map 0:a
将从视频中获取原始音频流并将其映射到输出。
如果您需要更改图像比例,则对 filter_complex
中的输入图像使用 scale,例如 [1:v]scale...
希望对您有所帮助!