> > > > AMD arbeitet mit nur 8 statt 10 Bit für HDR über HDMI 2.0

AMD arbeitet mit nur 8 statt 10 Bit für HDR über HDMI 2.0

Veröffentlicht am: von

Das Thema HDR wird uns in Zukunft immer wieder beschäftigen und das nicht nur, weil womöglich immer mehr Inhalte auf den größeren Dynamikumfang setzen, sondern auch weil es hier keinen echten Standard gibt und sowohl auf Seiten der Inhalte-Anbieter wie auch auf Seiten der Hardware-Hersteller keine einheitliche Vorgaben gemacht werden. Dies gilt sowohl für die maximale Helligkeit eines Displays, wie auch für den Farbraum, der dargestellt werden kann. Angaben wie P3 Digital Cinema und Rec. 2020 geben bei den Farben zumindest den genauen Farbraum an, ein HDR-Standard sind sie damit aber noch lange nicht.

Wie die Kollegen der c't nun herausgefunden haben, bedient sich auch AMD einiger Tricks bei der Wiedergabe von HDR-Inhalten. So geben die aktuellen Radeon-RX-Grafikkarte mit Polaris-GPU in PC-Spielen nur Frames mit einer Farbtiefe von 8 Bit statt 10 Bit pro Farbkanal aus, wenn die Ausgabe per HDMI 2.0 erfolgt. Um die fehlenden zwei Bit zumindest etwas zu kompensieren, wird ein Dithering-Verfahren im Bezug auf die Gamma-Kurve eingesetzt – eine sogenannte Perceptual Curve. Damit sind die Farbverläufe dann dennoch ohne sichtbare Abstufungen, wenngleich die eigentliche HDR-Farbwiedergabe nur berechnet wird und nicht aus dem Quellmaterial, in diesem Fall der Berechnung durch die Engine, stammt.

Polaris-Architektur - DisplayPort 1.3/1.4, HDMI 2.0b und HDR
Polaris-Architektur - DisplayPort 1.3/1.4, HDMI 2.0b und HDR

Bei der Übertragung mittels DisplayPort 1.3/1.4 besteht dieses Problem nicht, allerdings nutzen die meisten Fernseher den HDMI-Anschluss. DisplayPort stellt in dieser Version eine ausreichende Bandbreite zur Verfügung, um 4K-HDR-Bilder mit 10 Bit, 60 Hz und voller YCrBr-4:4:4-Farbabtastung zu übertragen. Bei HDMI 2.0 ist dies nicht der Fall, zumindest nicht, ohne die Abtastung auf 4:2:2 oder 4:2:0 zu reduzieren. Beim Launch der Radeon RX 480 als erste Grafikkarte der Polaris-Generation sprach AMD noch von der vollen Unterstützung von 10 Bit HDR mit einer Abtastung von 4:4:4 und sogar von 12 Bit HDR ist hier die Rede. Allerdings wird auch einmal deutlich, von welchen weiteren Faktoren die Wiedergabe in HDR abhängig ist. Offen ist noch die Frage, ob die Farbtiefe von 8 Bit sich nur auf HDR-Spiele bezieht oder auch Filme in HDR.

Rechnen die anderen Hersteller auch anders?

Nachdem das Verhalten bei den Karten von AMD nun bekannt ist, stellt sich die Frage, wie sich die Grafikkarten mit NVIDIA-GPU oder Konsolen verhalten. NVIDIA reagierte bisher nicht auf die Anfrage der c't. In einem optischen Test konnten die Redakteure allerdings keinerlei Unterschiede zwischen einer GeForce- und einer Radeon-RX-Grafikkarte feststellen. Allerdings soll die Leistung bei den NVIDIA-Grafikkarten beim Zuschalten der HDR-Darstellung etwas einbrechen, während die AMD-Grafikkarte stabil bleiben.

Die gleiche Frage stellt sich natürlich auch bei der PlayStation 4 Pro, denn auch hier kommt eine Polaris-GPU von AMD zum Einsatz. Derzeit kann davon ausgegangen werden, dass auch hier 8 anstatt 10 Bit verwendet werden. Eine Bestätigung dafür gibt es bisher aber nicht.

Social Links

Ihre Bewertung

Ø Bewertungen: 3

Tags

Kommentare (25)

#16
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Leutnant zur See
Beiträge: 1044
Zitat Cippoli;25078360
Dann hast du wahrscheinlich in der Suchmaske etwas falsch eingegeben. Geht nämlich schon bei unter 400,- Euro los...

hdr fernseher in Fernseher mit Panel: HDR Preisvergleich


Ähm... das sind TVs - 10 ms Reaktionszeit, keine Sync-Technologie, kein Display Port und fangen bei 40" an... Wäre zwar interessant für Wohnzimmer-daddeln, aber wenn du richtig zocken willst sind die alle no-go.
#17
customavatars/avatar199366_1.gif
Registriert seit: 30.11.2013

Bootsmann
Beiträge: 719
"In einem optischen Test konnten die Redakteure allerdings keinerlei Unterschiede zwischen einer GeForce- und einer Radeon-RX-Grafikkarte feststellen. Allerdings soll die Leistung bei den NVIDIA-Grafikkarten beim Zuschalten der HDR-Darstellung etwas einbrechen, während die AMD-Grafikkarte stabil bleiben."

Warum dann einen Artikel verfassen, der sich im Titel wie eine AMD Kritik liest?
Das ergibt doch mal wieder keinen Sinn.
Wenigstens ist HWLux integer genug auch im Text ausgewogen zu berichten, anders als so manche anderen.

Noch dazu ist bei Displayport kein Problem vorhanden. Wer nutzt denn bitteschön HDMI 2.0 mit HDR an einem PC? Wenn dann werden da doch eher displayport Monitore dran gehängt. Dass HDMI 2.0 weniger Bandbreite als Displayport 1.3(und 1.2) hat ist doch auch bekannt.
#18
customavatars/avatar259313_1.gif
Registriert seit: 24.08.2016

Banned
Beiträge: 745
HDR über HDMI ist eh eher etwas für die Konsolen.

Gibt es überhaupt einen HDR-Monitor, der kein DP hat?

Gibt es von AMD eine Grafikkarte, die HDR über HDMI kann, aber kein DP bietet?
#19
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33036
Neja, die Anwendungsfälle (egal ob NV oder AMD) in einem HTPC sind zweifelsfrei vorhanden...
Erschwerend kommt hinzu, dass es ausschließlich ne Hand voll GPUs aktuell gibt, die überhaupt HDMI 2.0 und HDCP 2.2 können und damit potentiell in Frage kommen... APUs im Moment Fehlanzeige, IGPs im Moment Fehlanzeige -> einzig ein paar recht teure Boards sollen wohl HDMI 2.0 + HDCP 2.2 bei Skylake können über irgend so ne externe Lösung.


Für die Masse wird das aber warscheinlich völlig irrelevant sein würde ich behaupten...
#20
Registriert seit: 07.11.2006

Obergefreiter
Beiträge: 77
Mit der SDK im folgenden Link kann HDR mit Nvidia Grafikkarten getestet werden.
https://developer.nvidia.com/high-dynamic-range-display-development
Mir zeigt der TV, der an einer 1080 hängt HDR an. Soll auch mit Maxwell funktionieren jedoch kann ich das nicht testen.
Da es sich um einen Standard handelt, müssten AMD Karten auch funktionieren.
#21
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8756
Unterstützt die GTX 1080 HDCP 2.2?
A: Ja, der HDMI-Ausgang entspricht dem 2.0b-Standard und unterstützt HDCP 2.2.

How The New Pascal Architecture Supports Next-Generation Video Playback | GeForce
#22
Registriert seit: 08.11.2015

Banned
Beiträge: 1381
Zitat KeinNameFrei;25078199
Was auch gute Gründe hat! Deswegen ist mir diese ganze HDR-Geschichte zemlich suspekt. Erscheint mir etwas, was die Branche entschieden hat uns zu verkaufen, und nicht nach etwas, as wir entschieden haben zu wollen...


Die 3D Geschichte von Ende 2010 war etwas was man als aufgehalst bezeichnen könnte doch mit HDR (10Bit für rec.2020 bei einem Kontrast >5000:1) sind das alles traumhafte Werte nicht nur im Fernsehunterhaltungsbereich, sondern vor allem wenn es um Grafikengines, also die Darstellung von Licht und Texturen (Specularmaps sowie tausenderlei lustige Techniken hierzu (PBR)) geht.

Als überzeugter Pessimist sehe ich das erste mal hierin eine Pipeline die Sinn macht und der Konsument auch was davon haben wird, auch wenn man sich hierbei wohl noch bis zum vollen Entfalten bis 2019/20 gedulden darf.

Ich freue mich schonmal drauf :D (vorallem auf HDR Monitore mit IPS Panels...)
#23
customavatars/avatar238840_1.gif
Registriert seit: 04.01.2016

Korvettenkapitän
Beiträge: 2356
Zitat fdsonne;25078583
Auf der deutschen NV Seite im Produktvergleich für Pascal steht, dass nur die 1050/1050TI HDMI 2.0b nutzen würde! Bei den anderen -> 1060, 1070 und 1080 wird nur 2.0 geschrieben.
Zumindest steht bezüglich meiner Zotac 1070 mit dabei dass HDMI2.0b unterstützt wird.
https://www.zotac.com/us/product/graphics_card/zotac-geforce-gtx-1070-amp-extreme
#24
customavatars/avatar199564_1.gif
Registriert seit: 02.12.2013
München
Oberleutnant zur See
Beiträge: 1292
Zitat
In einem optischen Test konnten die Redakteure allerdings keinerlei Unterschiede zwischen einer GeForce- und einer Radeon-RX-Grafikkarte feststellen.


Also viel heiße Luft um nichts?
#25
customavatars/avatar28023_1.gif
Registriert seit: 04.10.2005
Münster
Kapitän zur See
Beiträge: 3612
Zu der Abbildung "HDR drives more colors".
Diese Grafik sieht ja ganz schön aus, aber wieso zum Teufel werden die Achsen nicht beschriftet? Das bekommt man doch schon in der Schule eingetrichtert, dass jegliche Diagramme/Graphen ohne Beschriftung wertlos sind...

Ich persönlich verstehe zumindest die Aussage dahinter nicht ganz, außer allgemein, dass die verschiedenen Technologien im Bezug zum menschlichen Auge verglichen werden und die eine besser ist als die andere (vielleicht auch anders herum? Ohne Beschriftung weiß man ja eigentlich nicht, was nun "0,9" oder "0,4" etc. zu bedeuten haben).
Ausserdem scheinen x- und y-Achse jeweils andere Kennzahlen darzustellen.. aber welche?

Natürlich ist einem die Art der Abbildung irgendwie bekannt und man kommt schnell darauf, dass es sich um eine CIE-Normfarbtafel handelt - das könnte man aber genauso gut in der Grafik irgendwo vermerken ;-)
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]