Bessere Streaming-Qualität: AV2-Codec soll Ende des Jahres vorgestellt werden

Thread Starter
Mitglied seit
06.03.2017
Beiträge
113.712
AOMedia hat angekündigt, dass die nächste Version des AV-Codecs, nämlich AV2, zum Ende des Jahres angekündigt werden soll. AV2 bleibt lizenzkostenfrei und soll eine verbesserte Unterstützung für AR/VR-Anwendungen, eine Split-Screen-Unterstützung und allgemeine Verbesserungen in der Darstellungsqualität erhalten. Technische Details zu AV2 gibt es zum aktuellen Zeitpunkt noch nicht.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Der größte Nachteil ist die extrem langsame Kodiergeschwindigkeit - AV1 ist deutlich rechenintensiver als andere Codecs und benötigt leistungsstarke Hardware für praktische Anwendungen.
...es sei denn, die Grafikhardware unterstützt diesen Codec. Die meisten aktuellen (i)GPUs dekodieren AV1 zumindest, und das Encodieren ist ebenfalls oft schon implementiert. Jedenfalls beherrschen die aktuellen Grafikkarten von Intel, Nvidia und AMD (und ich glaube auch die jeweiligen Vorgänger-Serien) bereits diesen Codec voll.

Problematisch wird es bei Geräten mit längeren Produktzyklen, wie Fernsehern, die oft noch nicht mal alle HEVC können. Ein AV1-kodiertes Video ist dann zwar nochmals kleiner, kann aber eben nicht auf solchen Geräten wiedergegeben werden.

AV2 kann dann aber erst mal wieder keiner... Dennoch gut, daß weiterentwickelt wird.
 
Zuletzt bearbeitet:
Und oft nur 8 bit. AV1 ist immer noch nicht viel verbreitet. Nach wie vor meist VP9 oder gar H.264. Das ist wie mit Lumen bei UE5. Wenn meine Karte es nicht packt, ist es kein Fortschritt für mich. Kann mich noch an hevc Implementierung erinnern, als die GK es technisch nicht unterstützte und die damalige C2D CPU total überfordert mit war.
 
Die Encodierung kostet zwar Rechenleistung und damit Strom, aber damit sich ein Codec durchsetzt, muss vorallem die Decodierung am Client schnell genug sein und dafür muss sie in Hardware stattfinden.
Das dürfte auch das Problem bei AV1 sein... es können nur die Zuschauer nutzen, die Hardware haben die das kann. Da sind die Content-Creator und Platformen praktisch irrelevant. Aber ist klar, das die keinen Riesenaufwand in Encodierung in ein Format stecken wollen, was dann nur ein Bruchteil auch wirklich angucken kann.
 
Und oft nur 8 bit. AV1 ist immer noch nicht viel verbreitet. Nach wie vor meist VP9 oder gar H.264. Das ist wie mit Lumen bei UE5. Wenn meine Karte es nicht packt, ist es kein Fortschritt für mich. Kann mich noch an hevc Implementierung erinnern, als die GK es technisch nicht unterstützte und die damalige C2D CPU total überfordert mit war.
Das kann man in Handbrake schön nachvollziehen. x.264 (Software-basiertes Defacto-H.264) kann eine moderne CPU noch ganz gut wuppen. Die Grafikkarte ist aber mindestens dreimal so schnell fertig. x.265 dagegen, und erst echt 10bit, zieht sich eeewig hin. Auf der Grafikkarte ist H.265 dagegen genauso fix encodiert, wie H.264.

Es steht und fällt also alles mit der Hardware-Unterstützung. Eines muß man aber auch sagen, bei kritischem Material (Bildrauschen etwa bzw. körnige Filme, die noch auf Film gedreht wurden) ist der Softwarecodec meist noch besser als Hardware. Aber es dauert eben und frißt Leistung (Strom). Auch kann man beim Hardware-Codec meist kaum etwas an der Encodingqualität schrauben. Die GPU-Encoder arbeiten intern offenbar mit fixen Profilen.
 
Es kommt sehr auf die Qualität des Ausgangsmaterials an. Ich nehme viel vom TV auf (720p vom Satelliten). Und da ist es so, daß die Qualitätseinbußen bei "sauberem" Material, also aktuelle TV-Produktionen, gering sind. Nur in kritischen Bereichen (wabernde Wiesen, bewegtes Laub im Baum), also immer dort, wo sich sehr viele Bildinhalte gleichzeitig ändern, kommt der Codec kompressionsbedingt an seine Grenzen. Und bei Bildrauschen matscht es eben meist sehr, weil aus den Körnern beim Umrechnen Klötzchenartefakte werden.

Positiv macht sich übrigens 10bit in HEVC bemerkbar, da verschwinden Farbtreppen in dunklen Bildbereichen, die im Original (H.264 8bit) noch sichtbar sind, fast vollständig. Also ja, ich codiere fast nur noch in GPU, einfach weil das schnell geht und damit sehr viel Strom spart. Und 720p in 4000kBits ist in der Regel ok. Aber ich bin doch wieder zu einer 12-Kern-CPU zurückgekehrt (hatte beim Umstieg auf AM5 eine 6-Kern), weil sich manche Dinge halt mit Software besser machen.
 
Und das Resultat ist meist viel schlechter, als mit CPU.

Viel schlechter ist übertrieben. Ich nehme an dein Vergleich bezieht sich auf Nvidia GPUs und nicht Intel ARC GPUs. Die Intel AV1 Encodierung hat eine bessere Bildqualität. Was bei GPU Encodierung einen Unterschied macht ist die Speichergröße. GPU Encodierung resultiert in größeren Ausgabedateien als via CPU encodiert.

Ich habe meine komplette Blu-Ray Sammlung in AV1 mit einer Intel ARC 310 GPU encodiert, das hat je nach Länge des Films immer zwischen etwa 15-35 Minuten benötigt da diese GPU 2 Encoder Engines besitzt, mit der CPU sind das hingegen viele Stunden.

Bei Handbrake konnte ich auch noch mit einem Parameter target-usage=1 die AV1 Qualität aufs Maximum setzen (was Standardmäßig nicht der Fall ist) und ich habe auch einen eher unnötigen RF Wert eingestellt für noch bessere Qualität (für das bessere Gewissen und sicher eher Placebo).
Das muss jeder für sich abwägen ob man so viel Zeit und Strom für geringe sichtbare Qualitätsunterschiede in Kauf nehmen möchte. Der höhere Speicherplatzbedarf ist auch zu verkraften, die Zeitersparnis und weniger Stromverbrauch sind mir da deutlich wichtiger.
 
Zuletzt bearbeitet:
Ja, Nvidia.
RF Wert ist ein Kompromiss. Hochqualitativ ist und bleibt eine 2-Pass Kodierung. Da geht es nicht um die Grösse des Videos danach, sondern um einer viel besseren Bitraten-Verteilung. Mit ein paar Filter ist das Resultat meist besser, als das Original.
 
Und das spiel geht wieder von vorne los, es fehlt zuerst wieder die HW dafür das es dann auch verbreitet wird. Schade ist auch das neue Codecs rein garnichts mit vorherigen HW einheiten anfangen können-.- So ist es dauerhaft nen katz und maus game
 
Na ja... so ist das eben leider....

Letzen Endes geht es ja immer um Kompression. Wie intelligent man die macht, was man überhaupt machen kann, und das können eben Geräte, die vor Jahren konstruiert wurden, nicht schaffen. Gerade nicht, wenn der Codec in Hardware programmiert ist. Da kann man ja kein Update einspielen.

Man könnte auch einfach unkomprimierte Filme machen. Aber die 25/50 Einzelbilder pro Sekunde nehmen eben einen Irsinnsplatz ein. Wer noch mit DV gearbeitet hat, weiß das. Die ersten digitalen Videokameras hatten das, und da mußte man den ganzen Film in Echtzeit per Firewire-Kabel auf den PC rüberspielen. Das waren unkomprimierte Videos mit (allerdings Jpeg-)komprimierten Einzelbildern. Und die hatten eine Datenrate von 25Mbit/s!! Das ist die doppelte Datenrate von heutigem H.264-TV via Satellit! Und das, wohlgemerkt in SD-Auflösung. Das war ein Fünftel der Bildinformationen von FullHD. Da kan man sich vorstelen, wie groß da die Dateien wären, wenn kein Mpeg-Codec verwendet würde. Roh waren die DV-Filme bis zu mehreren zig Gigabyte groß. Da mußte man vor dem Einspielen des Filmes erst mal Platz schaffen, denn Festplatten faßten damals so zwischen 40 und 200GB. Eine DVD, die das damalige Zielformat war, hatte aber nur 4,7 GB Platz.... Also komprimieren. Damals Mpeg2. Und so ging das weiter....
 
Zuletzt bearbeitet:
Was bei GPU Encodierung einen Unterschied macht ist die Speichergröße. GPU Encodierung resultiert in größeren Ausgabedateien als via CPU encodiert.
Macht bei mir via Handbrake (H.265 10-bit NVEnc) GPU (RTX4060) zu CPU (13600K) den Braten bei einen 90min. Movie aber auch nicht wirklich fett. Sind allenfalls ein paar hundert MB mehr via GPU Encoding.

Ich habe meine komplette Blu-Ray Sammlung in AV1 mit einer Intel ARC 310 GPU encodiert, das hat je nach Länge des Films immer zwischen etwa 15-35 Minuten benötigt da diese GPU 2 Encoder Engines besitzt, mit der CPU sind das hingegen viele Stunden.
Bei mir, mit obigen Settings, dauerts via CPU ca. Faktor x4 länger.

Bei Handbrake konnte ich auch noch mit einem Parameter target-usage=1 die AV1 Qualität aufs Maximum setzen (was Standardmäßig nicht der Fall ist)
Habe ich noch nicht gewußt, danke für den Tipp.

Das muss jeder für sich abwägen ob man so viel Zeit und Strom für geringe sichtbare Qualitätsunterschiede in Kauf nehmen möchte. Der höhere Speicherplatzbedarf ist auch zu verkraften, die Zeitersparnis und weniger Stromverbrauch sind mir da deutlich wichtiger.
So ist es!
Ich merke qualitativ auch keinen Unterschied zwischen GPU vs. CPU Encoding, erst recht, wenn man die Ausgabe dann auf einen 65" Smart Tivi anschaut, wohl aber die enorme Zeit- und Stromersparnis. (y)

ps. @ OT: Alien Earth Folge 7 war ja mal so richtig schlapp. Hat schwer nachgelassen die Staffel, dachte das wird ein stimmungsvoller Vorglüher, bevor dann Stranger Things Staffel 5 das Jahresende würdevoll einläutet.

...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh