In diesem Artikel lernen Sie einige gängige Befehle zum Konvertieren und Bearbeiten bestimmter Eigenschaften von Mediendateien kennen. Obwohl wir versucht haben, für alle Verfahren gleichwertige Vorgänge anzuzeigen, sind nicht alle Vorgänge in beiden Anwendungen möglich.
In vielen Fällen können die hier gezeigten Befehle in einem einzigen Befehlszeilenvorgang kombiniert werden, wenn sie tatsächlich verwendet werden. Sie können die Bitrate einer Ausgabedatei beispielsweise nicht im selben Vorgang wie bei einer Dateikonvertierung festlegen. In diesem Artikel werden diese Vorgänge aus Gründen der Übersichtlichkeit häufig als separate Befehle angezeigt.
Die Konvertierung erfolgt mit folgenden Anwendungen:
Displaymerkmale
Sowohl Shaka Packager als auch FFmpeg können verwendet werden, um den Inhalt einer Mediendatei zu prüfen und dann die Eigenschaften eines Streams anzuzeigen. Beide liefern jedoch unterschiedliche Ausgaben für dasselbe Medium.
Merkmale bei der Verwendung von Shaka Packager
packager input=glocken.mp4 --dump_stream_info
Die Ausgabe sieht so aus:
File "glocken.mp4":
Found 2 stream(s).
Stream [0] type: Video
codec_string: avc1.640028
time_scale: 30000
duration: 300300 (10.0 seconds)
is_encrypted: false
codec: H264
width: 1920
height: 1080
pixel_aspect_ratio: 1:1
trick_play_factor: 0
nalu_length_size: 4
Stream [1] type: Audio
codec_string: mp4a.40.2
time_scale: 48000
duration: 481280 (10.0 seconds)
is_encrypted: false
codec: AAC
sample_bits: 16
num_channels: 2
sampling_frequency: 48000
language: eng
seek_preroll_ns: 20833
Merkmale mit FFmpeg
ffmpeg -i glocken.mp4
Die Ausgabe sieht so aus:
Input #0, mov,mp4,m4a,3gp,3g2,mj2, from 'glocken.mp4':
Metadata:
major_brand : isom
minor_version : 512
compatible_brands: isomiso2avc1mp41
encoder : Lavf57.83.100
Duration: 00:00:10.03, start: 0.000000, bitrate: 8063 kb/s
Stream #0:0(eng): Video: h264 (High) (avc1 / 0x31637661), yuvj420p(pc), 1920x1080, 7939 kb/s, 29.97 fps, 29.97 tbr, 30k tbn, 59.94 tbc (default)
Metadata:
handler_name : VideoHandler
Stream #0:1(eng): Audio: aac (LC) (mp4a / 0x6134706D), 48000 Hz, stereo, fltp, 127 kb/s (default)
Metadata:
handler_name : SoundHandler
At least one output file must be specified
Audio- und Videostreams demux (getrennt)
Shaka Packager erfordert beim Konvertieren von Dateien eine Trennung. Dies ist auch für die Verwendung von Medien-Frameworks erforderlich.
Shaka Packager demuxen
MP4
packager input=myvideo.mp4,stream=video,output=myvideo_video.mp4
packager input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
Oder:
packager \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
input=myvideo.mp4,stream=audio,output=myvideo_audio.m4a
WebM
packager \
input=myvideo.webm,stream=video,output=myvideo_video.webm \
input=myvideo.webm,stream=audio,output=myvideo_audio.webm
FFmpeg-Demuxing
MP4
ffmpeg -i myvideo.mp4 -vcodec copy -an myvideo_video.mp4
ffmpeg -i myvideo.mp4 -acodec copy -vn myvideo_audio.m4a
WebM
ffmpeg -i myvideo.webm -vcodec copy -an myvideo_video.webm
ffmpeg -i myvideo.webm -acodec copy -vn myvideo_audio.webm
Audio- und Videostreams noch einmal kombinieren (remux)
In einigen Situationen müssen Sie die Audio- und Videoinhalte wieder in einem einzigen Container zusammenführen. Vor allem, wenn Sie kein Media-Framework verwenden. FFmpeg kann das recht gut verarbeiten und wird von Shaka Packager derzeit nicht unterstützt.
ffmpeg -i myvideo_video.webm -i myvideo_audio.webm -c copy myvideo.webm
Eigenschaften ändern
Bitrate
Bei FFmpeg können wir dies bei der Konvertierung in .mp4
oder .webm
tun.
ffmpeg -i myvideo.mov -b:v 350K myvideo.mp4
ffmpeg -i myvideo.mov -vf setsar=1:1 -b:v 350K myvideo.webm
Abmessungen (Auflösung)
ffmpeg -i myvideo.webm -s 1920x1080 myvideo_1920x1080.webm
File type
Shaka Packager kann keine .mov
-Dateien verarbeiten und daher nicht zum Konvertieren von Dateien aus diesem Format verwendet werden.
.mov
bis .mp4
ffmpeg -i myvideo.mov myvideo.mp4
.mov
bis .webm
ffmpeg -i myvideo.mov myvideo.webm
Audio und Video synchronisieren
Damit Audio und Video während der Wiedergabe synchronisiert werden, können Sie Keyframes einfügen.
ffmpeg -i myvideo.mp4 -keyint_min 150 -g 150 -f webm -vf setsar=1:1 out.webm
MP4/H.264
ffmpeg -i myvideo.mp4 -c:v libx264 -c:a copy myvideo.mp4
Audio für eine MP4-Datei
ffmpeg -i myvideo.mp4 -c:v copy -c:a aac myvideo.mp4
WebM/VP9
ffmpeg -i myvideo.webm -v:c libvpx-vp9 -v:a copy myvideo.webm
Audio für ein WebM
ffmpeg -i myvideo.webm -v:c copy -v:a libvorbis myvideo.webm
ffmpeg -i myvideo.webm -v:c copy -v:a libopus myvideo.webm
Video-on-Demand und Livestreaming
In diesem Artikel werden zwei Arten von Streamingprotokollen erläutert. Das erste ist Dynamic Adaptive Streaming over HTTP (DASH). Dabei handelt es sich um eine Technologie für das adaptive Bitrate-Streaming und die auf Webstandards basierende Methode zur Darstellung von VOD-On-Demand-Videos. Die zweite Option ist HTTP Live Streaming (HLS), der Standard von Apple für Livestreaming und Video-on-Demand im Web.
DASH/MPD
In diesem Beispiel wird die MPD-Ausgabedatei (Media Presentation Description) aus den Audio- und Videostreams generiert.
packager \
input=myvideo.mp4,stream=audio,output=myvideo_audio.mp4 \
input=myvideo.mp4,stream=video,output=myvideo_video.mp4 \
--mpd_output myvideo_vod.mpd
HLS
Diese Beispiele generieren eine M3U8
-Ausgabedatei aus den Audio- und Videostreams, bei der es sich um eine UTF-8-codierte Multimediaplaylist handelt.
ffmpeg -i myvideo.mp4 -c:a copy -b:v 8M -c:v copy -f hls \
-hls_time 10 -hls_list_size 0 myvideo.m3u8
ODER:
packager \
'input=myvideo.mp4,stream=video,segment_template=output$Number$.ts,playlist_name=video_playlist.m3u8' \
'input=myvideo.mp4,stream=audio,segment_template=output_audio$Number$.ts,playlist_name=audio_playlist.m3u8,hls_group_id=audio,hls_name=ENGLISH' \
--hls_master_playlist_output="master_playlist.m3u8"
Da wir jetzt hoffentlich ein gutes Verständnis für die Konvertierung von Dateien haben, können wir auf dem in diesem Artikel Gelernten aufbauen und uns als Nächstes mit der Medienverschlüsselung befassen.