• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

nVidia: 10Bit-Farbtiefe jetzt auch bei GeForce-Karten?

Marteng

Enthusiast
Thread Starter
Mitglied seit
04.04.2002
Beiträge
625
Hallo,

ich habe eine kurze Frage. Mir ist gerade aufgefallen, dass ich in den nVidia-Einstellungen bei einem PC (Haswell Celeron, GTX 1080 Ti (MSI), LG 34UM95-P (34", 3440x1440, IPS, 10 Bit-Farbtiefe unterstützt, DP 1.2), welcher per DP-Kabel am Monitor angeschlossen ist, mir die Option "Ausgabe-Farbtiefe: 10 bpc" zulässt. Mit einer älteren Quadro-Karte (K620) funktionierte dieses per DP-Kabel ebenfalls. Allerdings ist mir der 10Bit-Support bei den "Consumerkarten" bisher neu. Leider kann ich an meinem Bildschirm im OSD keine Informationen diesbezüglich abrufen.

=> Wird die 10Bit-Farbtiefe inzwischen mit Consumerkarten unterstützt? (GTX1080Ti mit aktuellem 390.65er GeForce-Treiber im Einsatz)

Gruß
Martin

10Bit.JPG
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das ist nur die Unterstützung des displayports Standards
Grafikkarten konnten schon immer 10bit nur bisher hatte man davon wenig weil überwiegend 6bit und 8bit Monitore gab.
Es geht hier um den Farbraum je gespeicherten video
Was wir als monitore haben sind im Grunde rgb farben + kontrast + helligkeit und frequenz
sRGB ist 0-255 in 8bit und 16 Millionen Farben
RGB ist TV standard 35-235 in etwa 12,8 Millionen Farben
Der unterschied zu 10 bit liegt in der Helligkeit und Kontrast
Damit wird nichts schärfer aber durch die feinere Farbeinstufung deutlich kontrastreicher
also ein grau kann sich von einen anderen grau unterscheiden andere Helligkeit indirekt beleuchtet und co.

In games wurde mal das Simuliert scheiterte aber an den Monitoren die folge ist Überblendung und Unschärfe
Mit 10 bit Monitore wird das behoben aber dieser Effekt tritt erst nach einer bestimmten Größe auf
nen 24 zoll Kiste kann niemals 10bit es würde auch keinen Effekt haben
erst ab 32zoll kommt langsam ein Effekt, deutlicher wird es ab 40 zoll
Die 4K Auflösung versteht sich von Selbst

Der große Unterschied ist die Auflösung und die pixeldichte was die Bildschärfe angeht
32 zoll UHD etwa 0,17mm
32 zoll FHD etwa 0,34mm
24 zoll FHD etwa 0,254mm
Windows standard 96dpi = 0,265mm
Dem Mäusekino bei UHD will man sich nicht antun
 
Mein Kenntnisstand:
Mittlerweile können auch Consumerkarten 10bit ausgeben und nicht nur Workstationkarten. Nur ist das Ganze nicht so trivial. Es reicht nicht eine 10-bit GPU und einen 10-bit LCD zu haben. (Dein Monitor macht keine 10-bit.) Treiber und Anwendung/Game müssen auch zusammen arbeiten können in 10-bit. Auch bei Workstationkarten muss die Anwendung 10-bit beherrschen (Photoshop über OpenCl z.B.) und mit dem Treiber zusammen arbeiten.

Das kommt jetzt erst so langsam alles ins Laufen mit 10-bit HDR/Game/LCD.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh