[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Das ist ja wirklich interessant, da würde mich wirklich interessieren wie man das macht. Ich hab jetzt Affinity Photo hier, aber das kann sowas bestimmt auch.
Musste mich auch einlesen, aber ist nicht so schwer, man muss das Bild einfach in GIMP einlesen und dann kann man ein Histogramm einblenden und dort steht dann der Helligkeitswert in einer Dezimalzahl, also z.B. 0.50 für 50%. Geht aber aktuell natürlich nur für SDR, für HDR ist das ganze wesentlich komplexer, da hatte mal @Stagefire was gepostet.

Also wenn ich euch nun richig verstehe geht es nun darum die einzelnen Helligkeitsbereiche einzusehen oder ?

Da gibts halt 2 Methoden die beide in HDR funkionieren.

Methode 1 :

Mit Nvidia Ansel nen HDR Bild erstellen ( glaub das war das .jxr oder .exr Format oder sowas ) und das Bild dann mit dem HDR + WCG Image Viewer öffnen


dann sieht man die Heatmap und sieht wie groß die Hellle Fläche ist ... hier zb mal ne helle Fläche von würde mal sagen 75 % Window ...
in dem Fall würde der OLED eben nur noch hell werden wie es der 75 % Window Nit Wert währe also hätte man da nur noch so 300 Nits

Screenshot 2024-01-18 005854.png
--
Screenshot 2024-01-18 005905.png


Methode 2 :

Reshade + Lilium HDR Analyse ( ich nutze da grad die HDR Nativ MOD daher is Control bei mir in HDR ) .. da kann man auch Live Tracking der einzelnen Bereiche machen.
Wenn man mit der Maus Bereiche anschaut zeigt er ja die Helligkeit des Cusors an ( CursorCLL ) und da kann man dann punkt genau schauen wie hell der jeweilige Bereich is

Reshade Hauptprogramm :


Die Lilium Reshade Sachen :



Screenshot 2024-01-18 012632.png



Das währe vielleicht so der 10 - 20 % Window Bereich ... bei den QD-OLED Monitor hätte man in der Scene also nur noch so max 400 Nits da die QD-OLED Monitore ja schon vor 10 % Window einbrechen

2.jpg
---
1.jpg
--
3.jpg



Mag aber auch sein das ich euch beiden da grad missverstanden habe und ihr meint was ganz anderes
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also wenn ich euch nun richig verstehe geht es nun darum die einzelnen Helligkeitsbereiche einzusehen oder ?
Also mir gings nur um die APL (Durchschnittliche Helligkeit) in SDR, also das was die immer mit ihren weißen Rechtecken messen mit 1% bis eben 100%.
HDR funzt ja ganz anders durch das ganze Tone-Mapping und die theoretisch mögliche Helligkeit von 10.000 Nits.
In den Tests geben die halt volle Helligkeit drauf, also vmtl. die 10.000 Nits und schauen halt, wie hell er dann wird.
Aber das kannst du ja null auf eine Spielszene übertragen, wo du ja übers ganze Bild immer andere Werte hast von der Helligkeit.

Aber danke trotzdem, die Heatmap in Kombination mit einem Colorimeter ist sicher nützlich, wenn man mal selbst Szenen messen will.

Wenn ich den Alienware mal habe, kann ich ja bei Interesse gerne ein paar Werte von Game-Szenen posten, da ich ein Colorimeter habe.
 
Zuletzt bearbeitet:
Also mir gings nur um die APL (Durchschnittliche Helligkeit) in SDR, also das was die immer mit ihren weißen Rechtecken messen mit 1% bis eben 100%.

In SDR wird doch eh kaum abgedunkelt da dimmt das ABL eines LG OLED ja zb nur ne Handvoll Nits ab auch der 49" 32:9 Gen 2 QD-OLED is da keine Ausnahme
Somit is die Durschnittshelligkeit bei 50 % in SDR halt so bei 240 Nits genau wie eben bei 2 % oder 100 % beim 49" QD-OLED und beim 42" LG OLED halt bei 190 Nits


Screenshot 2024-01-18 020314.png
--
Screenshot 2024-01-18 020252.png




Nur bei HDR gehts wegen des krassen ABLs halt krass abwärtz :

Screenshot 2024-01-18 021851.png
--
Screenshot 2024-01-18 021803.png





HDR funzt ja ganz anders durch das ganze Tone-Mapping und die theoretisch mögliche Helligkeit von 10.000 Nits.
In den Tests geben die halt volle Helligkeit drauf, also vmtl. die 10.000 Nits und schauen halt, wie hell er dann wird.
Aber das kannst du ja null auf eine Spielszene übertragen, wo du ja übers ganze Bild immer andere Werte hast von der Helligkeit.

Die nutzen ja dieses Calman Tool zum testen der % Window Bereiche der geht dann die einzelnen Weissen Vierecke durch. Ich weiss aber nich ob die auf 10.000 Nits hochgehen können währe aber logisch

Screenshot 2024-01-18 020933.png



Spielscnene sind halt dynamischer genau wie eben Film Scenen ... in einer Sekunde hast du mal ein 2 % Window dann plötzlich nen 50 % Window und dann nen 10 % Window oder halt was dazwischen
kommt halt auf die Scene an die grad gezeigt wird daher hab ich bei meinem anderen Post ja auch 2 unterschiedliche Beispiele genommen einmall Battlefield 2042 ne Sonnige Schnee Map und einmal
Control mit nem dunkleren Gang und nem Krassen HDR Highlight in der Mitte.

Aber danke trotzdem, die Heatmap in Kombination mit einem Colorimeter ist sicher nützlich, wenn man mal selbst Szenen messen will.

Kein Thema ... die ganze Reshade Sache is generell sehr nützlich da leider sehr viele Games an den Raised Blacks leiden aber auch der ganze andere Kramm wie eben die Heatmap Sache
is mal ganz interessant sich anzuschauen bei unterschiedlichen Games vorallem da es ja auch Live is

Wenn ich den Alienware mal habe, kann ich ja bei Interesse gerne ein paar Werte von Game-Szenen posten, da ich ein Colorimeter habe.

Ja mach das mal ein paar mehr Game Real Scenen währen interessant
 
Zuletzt bearbeitet:
In SDR wird doch eh kaum abgedunkelt da dimmt das ABL eines LG OLED ja zb nur ne Handvoll Nits ab auch der 49" 32:9 Gen 2 QD-OLED is da keine Ausnahme
Somit is die Durschnittshelligkeit bei 50 % in SDR halt so bei 240 Nits genau wie eben bei 2 % oder 100 % beim 49" QD-OLED und beim 42" LG OLED halt bei 190 Nits
Ja ich spreche da ja von Bildschirmen die keinen SDR-Helligkeitslock haben oder wo er abschaltbar ist. Siehe ein LG G3, der kann auch in SDR höhere Helligkeiten fahren und entsprechend ABL.
Solange Apex kein HDR kann, wird das mit der SDR-Helligkeit für mich leider ein Thema bleiben.
Bei Bildschirmen ohne SDR-Lock wie meinem QN90A ist es halt auch einfacher, anhand der gemessenen Weißwerte in Prozent (wie eben aus den Screenshots in GIMP herausgelesen) die effektive Helligkeit zu messen.

in einer Sekunde hast du mal ein 2 % Window dann plötzlich nen 50 % Window und dann nen 10 % Window oder halt was dazwischen


Bei HDR ist die ganze Sache eben deutlich komplexer, du kannst ja im Gegensatz zu SDR nicht sagen "Die Szene entspricht jetzt 10% oder 50% Window", weil das würde ja nur gehen, wenn wir einen hypothetischen 10.000 Nits Bildschirm hätten und 100% Window würden eben 10.000 Nits auf der ganzen Fläche entsprechen.
Die Szene in Battlefield z.B. in der Schneemap. Bei SDR wäre das halt einfach 8-Bit "255-255-255"-Vollweiß und dann schaust du halt welchen Helligkeitsdurchschnitt du übers ganze Bild hast.
SDR ist also relativ, Vollweiß kann 250 Nits bedeuten (beim QD-OLED) oder 1400 Nits (beim Mini-LED).
Bei HDR haste aber ne absolute Helligkeitsinformationen, sagen wir mal das Game sagt es soll 2.000 Nits hell sein, dann muss der Bildschirm jetzt schauen, wie er die Helligkeiten verteilt, weil er wird die 2.000 Nits nicht erreichen, also muss er das ganze Bild runterdimmen und verfehlt damit das eigentliche vom Autor (Vom Game oder Film) gedachte Bild.
Aber du kannst halt nicht sagen "das sind jetzt 50% Window", weil HDR eben nicht diese % kennt sondern eben absolute Helligkeitswerte.
Du kannst lediglich eine durchschnittliche, absolute Helligkeitsinformation herauslesen.
Aber damit kannst du wenig anfangen, wie willst du damit jetzt die Leistung des Bildschirms messen?

Daher schicken die halt eben diese weißen Quadrate unterschiedlicher Größe in max Helligkeit und schauen, was die Fernseher daraus machen.
Aber du kannst es leider nicht auf Real Scene extrapolieren und daher muss rtings zB diese konkreten Szenen nochmal zusätzlich messen.

Daher ist HDR ja so ein Chaos, weil jeder Bildschirm komplett anders damit umgeht, die Game-Entwickler wissen nicht wirklich wies geht (Raised Blacks), die Mini-LED-Panels performen extremst unterschiedlich (wann soll er die Dimming-Zone boosten und wann nicht?) und auch die OLEDs haben manchmal Schwierigkeiten die EOTF richtig zu tracken (siehe Asus und Dell). Und dann darfste als Nutzer auch noch ewig viel einstellen, in Windows, im Spiel usw.

Hoffe du verstehst etwas was ich meine.
 
Ja ich spreche da ja von Bildschirmen die keinen SDR-Helligkeitslock haben oder wo er abschaltbar ist. Siehe ein LG G3, der kann auch in SDR höhere Helligkeiten fahren und entsprechend ABL.


Stimmt ... dat hatte ich schon wieder vergessen .. die gehen in SDR ja auch höher das hatte ich garnich mehr auf dem Schirm. Da greift dann leider das ABL auch in SDR stärker ein

Allerdings is der G3 bei 50 % sogar heller in SDR als in HDR .. in HDR packt er 448 Nits und in SDR sinds 501 Nits auch strange.


Screenshot 2024-01-18 024705.png
--
Screenshot 2024-01-18 024753.png



Solange Apex kein HDR kann, wird das mit der SDR-Helligkeit für mich leider ein Thema bleiben.


Win 11 Auto HDR oder SpecialK kein Thema ? Oder zb der HLG Mode ?


Bei HDR ist die ganze Sache eben deutlich komplexer, du kannst ja im Gegensatz zu SDR nicht sagen "Die Szene entspricht jetzt 10% oder 50% Window",

Eigentlich kann man genau das machen siehe mein Post mit den Heatmap Bildern.

Man kann zwar nich sehen was dann dein Monitor / TV mit seinem Tone Mapping daraus macht aber man sieht was der Content an dieser Stelle fordert und wo der Peak Lock is und ob es Elevated Blacks gibt.

Ah okay hab nochmal weiter gelesen du meintest das anders also mehr was dann das Gerät raushaut am ende und nich was die Scene will

weil das würde ja nur gehen, wenn wir einen hypothetischen 10.000 Nits Bildschirm hätten und 100% Window würden eben 10.000 Nits auf der ganzen Fläche entsprechen.
Die Szene in Battlefield z.B. in der Schneemap. Bei SDR wäre das halt einfach 8-Bit "255-255-255"-Vollweiß und dann schaust du halt welchen Helligkeitsdurchschnitt du übers ganze Bild hast.
SDR ist also relativ, Vollweiß kann 250 Nits bedeuten (beim QD-OLED) oder 1400 Nits (beim Mini-LED).

Die Battlefield Scene dürfte aber nich 100 % sein eher 75 % Window da ka noch dunkle Bereiche vorhanden sind da währe m,an dann mit nem G3 zwischen 500 Nits und 305 Nits in SDR


Bei HDR haste aber ne absolute Helligkeitsinformationen, sagen wir mal das Game sagt es soll 2.000 Nits hell sein, dann muss der Bildschirm jetzt schauen, wie er die Helligkeiten verteilt, weil er wird die 2.000 Nits nicht erreichen, also muss er das ganze Bild runterdimmen und verfehlt damit das eigentliche vom Autor (Vom Game oder Film) gedachte Bild.

Jupp daher wird zb 4.000 Nit oder 2.000 Nit Content auf einem Gerät das 1000 Nits kann nie Akkurat dargestellt .. aber das gilt dann natürlich auch nur für die Scenen wo der Content eben auch die
4.000 oder 2.000 Nit haben will as ja auch nich dauerhafft is gibt ja auch viele Scenen wo der Content nur 100 - 200 Nits haben will oder eben nur 40 Nits


Aber du kannst halt nicht sagen "das sind jetzt 50% Window", weil HDR eben nicht diese % kennt sondern eben absolute Helligkeitswerte.

Mithilfe der Heatmap geht das schon da sind ja die Helligkeitsbereiche Farblich markiert und wenn die Hellen Bereiche dort zb 50 % des Bildes entsprechen dann weiss man das es der 50 % Window Wert is

Sprich :

Game Scene Suchen wo per Heatmap eben zb 25 % des Bildes Gelb / rot / Lila sind und dann auf Normal Sicht umschalten und dann mitm Hardware Messgerät ran und schon hat man zb nen 25 % Real Game Scene Wert
von dem Monitor / TV


Daher schicken die halt eben diese weißen Quadrate unterschiedlicher Größe in max Helligkeit und schauen, was die Fernseher daraus machen.
Aber du kannst es leider nicht auf Real Scene extrapolieren und daher muss rtings zB diese konkreten Szenen nochmal zusätzlich messen.

Jepp man kann mit den Quadraten nur schätzen was das dann in einer Real Scene währe eben zb bei dem Control Bild der Dunklere Gang mit dem 10 - 20 % Highlight in der mitte
was ja im Grunde ein 10 - 20 % großes Viereck in der mitte des Bildes is und daher in etwa dem 10 - 20 % Window HDR Wert entsprecen müsste.


Daher ist HDR ja so ein Chaos, weil jeder Bildschirm komplett anders damit umgeht, die Game-Entwickler wissen nicht wirklich wies geht (Raised Blacks), die Mini-LED-Panels performen extremst unterschiedlich (wann soll er die Dimming-Zone boosten und wann nicht?) und auch die OLEDs haben manchmal Schwierigkeiten die EOTF richtig zu tracken (siehe Asus und Dell). Und dann darfste als Nutzer auch noch ewig viel einstellen, in Windows, im Spiel usw.

Ja es sind halt viele einzelne unterschiedliche Baustellen .. manche kann man als Nutzer selber reparieren ie die Raised Blacks aber andere nicht.

Hoffe du verstehst etwas was ich meine.

Ich glaub insgesamt nur so halb ... is grad viel Input zu später stunde und muss gleich pennen gehen.

Aber so grob hab ichs zumindest verstanden was du meinst
 
Zuletzt bearbeitet:
Ich hab das Mal so aufgeschnappt das wen die Helligkeit in einer Szene nicht gehalten werden kann der OLED dann über den gesamten Bereich die Szene neue Verrechnet samt Tonmapping Helligkeit und schwarz Werte um die Scene auf der herunter geregelten Helligkeit wieder richtig darzustellen.

Bei meinem C1 sehe ich das echt gut gerade wie beschrieben man ist in einem Gebäude mit wenig Helligkeit und kleinen Lichtquellen alles wirkt wie Hochglanz HDR und man stiefelt dann raus wo es Tag hell ist und das ganze Bild verliert stark an Punsh weil alles z.b auf 150-300 nits runter gerechnet wird.
Die Highlights sind keine mehr .
Die Plastizität scheint Optisch abzubauen und auch die Durchzeichnung ist dann in so einem engeren Spektrum nicht mehr so überzeugend weil die ganze Scene in dieses enge Helligkeitsfenster gestreckt wird.
Gerade wen man noch etwas mehr Fremdlicht im Raum hat.

@Stagefire hat das mit den Bildern oben genau richtig ausgeführt.

Die Software und Elektronik arbeitet ständig um das auszugleichen und ein zu pegeln.
Nach 6 Jahren OLED kennt man das zu genüge.
Der Momentum den jetzt meine Tochter hat liefert laut Messung an die 900-1000nits mit 100% wen man den über ein Menü frei schaltet.
Und da kann der OLED dann richtig einpacken jedoch ist die Ausleuchtung extrem schlecht in dunklen Szenen blooming usw. Viel zu wenig zonnen.
Hatte mal nen 34 Zoll mit 1156 Zonnen gesehen ist auch noch viel zu wenig.

Und so hat man immer noch das Dilemma bis heute .
IPS geht für mich wegen seinem niedrigen Kontrast bis heute nicht klar.
Wen dan VA aber da fehlen Geräte mit 10000 Zonnen die gut angesteuert werden können.


Gruß an alle.
 
Zuletzt bearbeitet:
Ich hab das Mal so aufgeschnappt das wen die Helligkeit in einer Szene nicht gehalten werden kann der OLED dann über den gesamten Bereich die Szene neue Verrechnet samt Tonmapping Helligkeit und schwarz Werte um die Scene auf der herunter geregelten Helligkeit wieder richtig darzustellen.

Jup jedes Objekt im Bild wird dann angepasst ausgehend vom Hellsten HDR Highlight im Bild und dann wird auf alles andere runtergerechnet auf die Nits die dein Gerät kann bzw
auf das Nit Cap was man eben eingestellt hat soweit mir zumindest auch bekannt.

Man kann genau das auch per Liliums HDR Analyse Reshade Live nachvollziehen wenn man den Nit Cap ( enteweder per In Game Menu oder per Prod80 Reshade ) niedriger setzt wie dann der Helligkeits Graph rechts unten sich anpasst und alles nach unten wandert und nich nur das HDR Highlight.

Bei meinem C1 sehe ich das echt gut gerade wie beschrieben man ist in einem Gebäude mit wenig Helligkeit und kleinen Lichtquellen alles wirkt wie Hochglanz HDR und man stiefelt dann raus wo es Tag hell ist und das ganze Bild verliert stark an Punsh weil alles z.b auf 150-300 nits runter gerechnet wird.
Die Highlights sind keine mehr .
Die Plastizität scheint Optisch abzubauen und auch die Durchzeichnung ist dann in so einem engeren Spektrum nicht mehr so überzeugend weil die ganze Scene in dieses enge Helligkeitsfenster gestreckt wird.
Gerade wen man noch etwas mehr Fremdlicht im Raum hat.

Genau so isses und das stöhrt mich ja eben auch. Man verliert dadurch halt so den HDR Punch und alles wirkt dann flacher fast SDR mässig da es kaum noch Nits gibt um HDR Highlights zu betonen.

Was eben der Grund is warum wir ja auch wollen das auch die höheren % Window Bereiche ( 25 - 100 % WIndow ) eben steigen also die Nits und nich nur der Peak der eh nur
bei kleinen 2 - 10 % Großen hellen Objekten genutzt wird.

Weil is ja schön wenn der bei 1-10 % halt die 3000 Nits schafft nur wenn das bei 25 % großen hellen Objekten auf dem Bild dann wieder auf zb 400 Nits runter geht hat man von den 3000 Nits eben garnix mehr
und bei den QD-OLED Monitoren passiert dieser Punkt ja schon bei 10 % Großen Hellen Objekten auf dem Bild.


Der Momentum den jetzt meine Tochter hat liefert laut Messung an die 900-1000nits mit 100% wen man den über ein Menü frei schaltet.
Und da kann der OLED dann richtig einpacken

Jepp das is halt dan nen ganz anderes Level war bei mir beim Asus PG43UQ HDR 1000 Monitor ja ähnlich ... aber das is halt der Kompromiss den man bei OLED und QD-OLED eingeht die frage is halt wie Kompromiss bereit man is oder wie lange man bereit ist diesen Kompromiss einzugehen.

Ich wars beim 2020er LG 48" CX OLED nun lange aber mein nächster soll halt wieder mehr HDR Punch haben und das wird dann halt erst passieren wenn der 42" MLA bekommt was wiederrum wohl erst passiert wenn
die G Serie das Phosphor Blue bekommt wie es den anschein hat auch wenn LG noch andere Möglichkeiten hätte aber LG will noch nich.
Oder wenn Samsung halt mal nen 42" 4K QD-OLED raushaut mit Phosphor Blue

Und so hat man immer noch das Dilemma bis heute .... IPS geht für mich wegen seinem niedrigen Kontrast bis heute nicht klar.....Wen dan VA aber da fehlen Geräte mit 10000 Zonnen die gut angesteuert werden können.

Und bei OLED und QD-OLED muss man mit dem aggressiven ABL klar kommen.

Nichts is perfekt ... welches Gift darf es sein ?? :LOL:
 
Zuletzt bearbeitet:
Ja genau echt schwierig.
Wo bei mir der gute Kontrast und das Tiefe schwarz sehr wichtig sind.
Die guten Reaktionszeiten des OLED gepaart mit 240HZ Stelle ich mir auch Klasse vor .
Gerade wen man Shooter am Limit spielt merkt man die 120 HZ mehr bestimmt.
Gruß
 
Zuletzt bearbeitet:
Allerdings is der G3 bei 50 % sogar heller in SDR als in HDR .. in HDR packt er 448 Nits und in SDR sinds 501 Nits auch strange.
Denke mal im SDR kann er konstanter Helligkeit halten, weil er nicht so extrem auf Burn-In achten muss weil er ja nicht auf über 1000 Nits boosten muss sondern da die 650 Nits eh nicht übersteigt auch bei 1%.

Win 11 Auto HDR oder SpecialK kein Thema ? Oder zb der HLG Mode ?
Naja hab noch Win10. AutoHDR hatte ich mal getestet auf Win11, aber mich hatte das gar nicht überzeugt, der würfelt ja die Helligkeitswerte, bei Apex schwankt die Helligkeit ja teils sehr stark (wie bei vielen Action-Spielen). Außerdem sind die Farben blass weil er die ja vom sRGB-Farbraum nicht zu sehr hochkonvertieren will wegen Übersättigung. Aber ich spiel ja immer im vollen, nativen Panelfarbraum.
Was man machen kann ist das HDR zu aktivieren und in der Nvidia-Systemsteuerung Farben und Helligkeit bis kurz vors Clipping hochzuziehen, das funzt super. Man muss aber aufs ABL achten.

Aber danke für die Hinweise auf SpecialK, werde ich mir mal anschauen. Sieht sehr interessant aus!

Musst halt bedenken, da mein Fernseher ja kein SDR-Lock hat, ist das Thema eigentlich aktuell nicht wirklich wichtig, wird es erst wieder, wenn ich den AW habe.


Jupp daher wird zb 4.000 Nit oder 2.000 Nit Content auf einem Gerät das 1000 Nits kann nie Akkurat dargestellt ..
Ja aber selbst die 1.000 Nits kann er ja auch nur darstellen, wenn der Rest vom Bild fast schwarz ist. Ist es eine normal helle Szene muss er ja wieder ordentlich runterdimmen.

Mithilfe der Heatmap geht das schon da sind ja die Helligkeitsbereiche Farblich markiert und wenn die Hellen Bereiche dort zb 50 % des Bildes entsprechen dann weiss man das es der 50 % Window Wert is
Ja aber genau das ist ja so gesehen falsch, weil es gibt ja kein absolutes Weiß bei HDR, absolutes Weiß wären 10.000Nits. Man müsste das Weiß auf 4000, 2000 oder 1000 Nits festlegen aber wer entscheidet das?
Gibt ja auch Content der auf 400 Nits gemastert ist, ist dann ein 50% Window mit 400Nits ausreichend? Für den Content ja, dann würde ein G3 z.B. ein fast kompromissloses HDR-Display sein. Für 2000 Nits Content wiederum nicht.

Das mein ich halt, bei SDR gibts schon max weiß, weil SDR relativ ist, HDR absolut (mit Helligkeitsangabe in Nits).

Ich hab das Mal so aufgeschnappt das wen die Helligkeit in einer Szene nicht gehalten werden kann der OLED dann über den gesamten Bereich die Szene neue Verrechnet samt Tonmapping Helligkeit und schwarz Werte um die Scene auf der herunter geregelten Helligkeit wieder richtig darzustellen.
Ich weiß, aber dann wird das Signal eben wieder relativ, wie SDR. Klar, die Verhältnisse stimmen noch, aber die vom Autor gewünschte Helligkeit wird nicht mehr erreicht. Der ganze Sinn von HDR, die Helligkeiten wirklich absolut festzulegen, geht flöten.

Wie du auch später schreibst: Spielst du zB Warzone an einem Mini-LED-Screen mit G-Sync-Modul, so wird die Sonne im Himmel draußen sehr hell sein, auch wenn sie die Hälfte vom Bild abdeckt. Dafür wird die Lampe im Innenraum Blooming um sich herum haben, was vom Autor ja auch nicht gewünscht ist. Beim OLED dagegen wird die Lampe im Innenraum durch pixelgenaues Dimming so aussehen wie vom Autor gedacht, allerdings wird die Sonne draußen ziemlich dunkel sein, was halt aus "künstlerischer Sicht" natürlich total falsch ist, und mal abgesehen davon auch jeglicher Logik der Realität entbehrt.

Dadurch sieht eine solche Szene auf dem einen Bildschirm komplett(!) anders aus als auf dem anderen. Die ganzen Edge-Led-Krücken, die dann trotz "HDR" kein Schwarz darstellen können, machen das Chaos dann komplett.

Daher halte ich von HDR in der jetzigen Form nur wenig. Den meisten Wow-Effekt hats bei den OLED-Nutzern durch den Wegfall des SDR-Locks und durch kleine Highlights, aber das wäre mit SDR genauso möglich. HDR wird seine Stärken erst dann entfalten, wenn die Bildschirme die geforderten Helligkeiten zumindest mal im Ansatz erfüllen.
 
Denke mal im SDR kann er konstanter Helligkeit halten, weil er nicht so extrem auf Burn-In achten muss weil er ja nicht auf über 1000 Nits boosten muss sondern da die 650 Nits eh nicht übersteigt auch bei 1%.

Macht Sinn is aber dennoch irgendwie seltsam weil ob nun 50 % in HDR oder SDR is ja egal 50 % sind halt 50 % würde halt andersrum mehr Sinn ergeben
wenn er in SDR eben dunkler währe als in HDR bei 50 % ... aber is ja eh nur ein relativ marginaler Unterschied bzgl der Nits.

Naja hab noch Win10. AutoHDR hatte ich mal getestet auf Win11, aber mich hatte das gar nicht überzeugt, der würfelt ja die Helligkeitswerte

Nunja würfeln würde ich dazu nun nich grad sagen is ja ne AI die das Bild analysiert.

Das Problem bei Auto HDR das es eben auch wieder zu Raised Blacks führt wo man dann mit dem Prod80 Curved Levels Reshade wieder gegensteuern muss aber
an Natives HDR kommt es logischerweise nicht rann dennoch find ichs besser als SDR Only.

Außerdem sind die Farben blass weil er die ja vom sRGB-Farbraum nicht zu sehr hochkonvertieren will wegen Übersättigung.

Dürfte sich auch alles per Prod80 Curved Levels Reshade einstellen lassen

Is dann natürlich etwas fummelei

Ich zock zumindest nun im grunde kein Game mehr in SDR allerdings haben von den Games die ich so zocke die meisten nun eh schon HDR Nativ drinn.


Aber danke für die Hinweise auf SpecialK, werde ich mir mal anschauen. Sieht sehr interessant aus!

Vergiss halt den HLG Mode nicht ... aber leider hat nich jedes Gerät den HLG Mode und man muss halt dauernt dann in das TV Menu um das umzustellen is aber dennoch wesentlich leichter als zb SpecialK


------------------------------------------------------------ da gibts auch n Extra Icon für rechts oben

Screenshot 2024-01-18 224705.png
--
Screenshot 2024-01-18 224044.png



Ich hatte Elex 2 zb mit HLG Mode durchgezockt und Octopath Traveller 2 sieht im HLG Mode auch super aus


Musst halt bedenken, da mein Fernseher ja kein SDR-Lock hat, ist das Thema eigentlich aktuell nicht wirklich wichtig, wird es erst wieder, wenn ich den AW habe.


Stimmt aber man kann so halt SDR Games in HDR zocken is ja nochmal was anderes da es ja nich nur um Helligkeit geht sondern auch um HDR Highlight betonung.
Aber wenns dich aktuell nich weiter stöhrt dann ja dann isses ja nich weiter wild. :giggle:


Ja aber selbst die 1.000 Nits kann er ja auch nur darstellen, wenn der Rest vom Bild fast schwarz ist. Ist es eine normal helle Szene muss er ja wieder ordentlich runterdimmen.

Das is richtig wenn es scenen sind die halt nur 1-10 % Helle Highlights haben würde der Film dauerhafft Akkurat dargestellt werden können
hat er aber auch helle Scenen die mit 1000 nits leuchten sollen die aber 25 % groß sind kann er nich mehr akkurat dargestellt werden

Is halt interessant das viele ( nun jetzt nich nur hier ) immer so bzgl der Farbdarstellung pingelich sind das diese akkurat sein müssen aber bei der Helligkeit kanns ruhig Unakkurat sein :ROFLMAO:

Ja aber genau das ist ja so gesehen falsch, weil es gibt ja kein absolutes Weiß bei HDR, absolutes Weiß wären 10.000Nits.

Das sagst du .. aber was is wenn Absolutes Weiß nun 100.000 Nits sind ?? :ROFLMAO:

Ich kenn mich da 0 aus wieviel Nits nun Absolutes Weiss sind ... würde halt sagen das was das jeweilige Gerät an Max Nits kann is dementsprechend absolutes Weiss
is also eher ein Variabler Wert wo ich Persönlich nun auch kein Problem drinn sehe


Man müsste das Weiß auf 4000, 2000 oder 1000 Nits festlegen aber wer entscheidet das?

Das Gerät selbst

Gibt ja auch Content der auf 400 Nits gemastert ist, ist dann ein 50% Window mit 400Nits ausreichend?

Absolut da das Gerät ja dann sogar mehr könnte als eigentlich gebraucht wird warum sollte das dann nicht ausreichend sein ?

Das heisst ja dann nur dass das HDR Highlight was am helsten sein soll mit max 400 Nits leuchten soll und der Rest is ja dann dunkler sonst hätte ja alles 400 Nits und das will man ja auch nich
weil es dann kein Richtiges Schwarz mehr gibt.

Für den Content ja, dann würde ein G3 z.B. ein fast kompromissloses HDR-Display sein. Für 2000 Nits Content wiederum nicht.

Richtig zumindest eben in den Scenen wo mehr als 1500 Nits gefordert werden aber in den anderen Scenen währe der G3 dann wieder ok
 
Nunja würfeln würde ich dazu nun nich grad sagen is ja ne AI die das Bild analysiert.
Naja aufjedenfall sah es in Apex sehr komisch aus, manchmal blitzt zB den Bildschirm hell auf und das war deutlich heller als der gesamte Rest vom Game, dabei ist das nur der Übergang in den Spectator-Mode. Er kann ja nicht wissen, was UI ist und was Game-Content ist. So wie ein richtiges HDR-Game weiß, dass das HUD halt nur mittelhell sein muss und nicht maximal hell, so wie es bei SDR immer der Fall ist.

Ich zock zumindest nun im grunde kein Game mehr in SDR allerdings haben von den Games die ich so zocke die meisten nun eh schon HDR Nativ drinn.
Ja, bei den Story-Games bleibt man ja rein von der Logik mehr auf dem aktuellen Stand. Apex ist halt Release 2019 und da hat sich seitdem technisch nix getan. Es hat ja bis heute nicht mal 120FPS-Support auf der Konsole (was alle Konkurrenzspiele schon seit vielen Jahren bieten). Hat sogar nen harten FPS-Cap von inzwischen lächerlichen 300FPS :ROFLMAO: Nen 540Hz-Gaming-monitore (den es ja schon gibt) könntest damit net mal auslasten.
Aber bringt halt alles nix wenn es am meisten meinen Geschmack trifft.

Vergiss halt den HLG Mode nicht ... aber leider hat nich jedes Gerät den HLG Mode und man muss halt dauernt dann in das TV Menu um das umzustellen is aber dennoch wesentlich leichter als zb SpecialK
Werd ich aufjedenfall bedenken, bin froh, dass es da doch noch ein paar Optionen gibt! Dank HLG kann man ja wirklich mit wenigen Klicks den SDR-Lock umgehen.

Stimmt aber man kann so halt SDR Games in HDR zocken is ja nochmal was anderes da es ja nich nur um Helligkeit geht sondern auch um HDR Highlight betonung.
Aber wenns dich aktuell nich weiter stöhrt dann ja dann isses ja nich weiter wild. :giggle:
Klar wäre mir natives HDR auch lieber. Warzone, was ich auch spiele, hat z.B. auch top HDR, sieht echt klasse aus. Aber naja, da braucht man dann halt nen G-Sync-Ultimate-Display, denn mein QN90A kann eigentlich HDR nicht wirklich gut und die OLEDs dimmen halt zu stark runter. Aber klar, gutes HDR auf einem guten Display sieht natürlich besser aus als gestrecktes SDR, da brauchen wir nicht diskutieren.
Aber ich komm auch ohne zurecht, alles gut.

Is halt interessant das viele ( nun jetzt nich nur hier ) immer so bzgl der Farbdarstellung pingelich sind das diese akkurat sein müssen aber bei der Helligkeit kanns ruhig Unakkurat sein :ROFLMAO:
Das ist mir halt immer das Riesen-Rätsel, ich vergleich das wie gesagt immer gerne mit der Hifi-Welt, da ist auch das absolute Traumziel, dass man das Konzert bis ins kleinste Detail in der gleichen Dynamik und damit auch Lautstärke hört wie in echt, darüber wird ja gar nicht mal diskutiert und oft Tausende Euro in tonnenschwere Boxen und Equipment dafür gesteckt, um dem näher zu kommen.

Aber helle Bildschirme, die auch die Dynamik der Realität ansatzweise(!) darstellen können? Neeee, das blendet ja... Ich erinnere da nur an das Video von Vincent von HDTVTest zu dem Thema.

Das sagst du .. aber was is wenn Absolutes Weiß nun 100.000 Nits sind ?? :ROFLMAO:
Nene ich geh ja schon von den HDR-Standards, das hört ja bei max 10.000 Nits auf. Könnte ja dann noch nen XDR-Standard kommen mit 100.000 Nits.

Das Gerät selbst
Ne ne ich rede wie gesagt vom Signal, vergiss das Gerät.

Mir gehts darum, dass du nicht zB den Screenshot von Battlefield nehmen kannst und sagen kannst "so, das entspricht dem 50% weißen Quadrat", weil das 50% Quadrat keine definierte Signalhelligkeit hat.
Somit kannste nicht den BF-Screenshot nehmen, eine Prozentwert festlegen und dann in den rtings-Test gucken und sagen "Der Fernseher, den ich mir kaufen will, wird in dieser HDR-Szene zwischen 400 und 500 Nits leisten", weil du aus der Szene einen Wert von 40% herausgelesen hast und der Fernseher zwischen 25% und 50% das leistet. Du kannst eben keinen Prozentwert rauslesen, das geht nur bei SDR.
Aus dem Grund muss rtings auch drei Szenen nehmen und dort drei definierte(!!) Punkte messen und vergleichen, wie hell diese laut Content/Signal hätten sein sollen und wie hell der TV an den Stellen nun ist.
Wäre mir eh lieber die würden die ganzen Prozentwerte ganz rauswerfen und lieber 20 Szenen testen, davon gerne 5 Games, von dunkelsten Szenen bis hin zu Schneemaps in Battlefield sollte da alles bei sein.
 
Naja aufjedenfall sah es in Apex sehr komisch aus, manchmal blitzt zB den Bildschirm hell auf und das war deutlich heller als der gesamte Rest vom Game, dabei ist das nur der Übergang in den Spectator-Mode.

Also ich hab nun nicht viel mit AutoHDR gezockt vielleicht so 30 std oder so aber ein aufblitzen hab ich bisher nie gesehen mag also sein das es eher ein Game Spezifisches Problem bei dir war.

Find eher das AutoHDR halt das Bild generell zu sehr aufhellt und nicht nur die HDR Highlights betont was eben zu Raised Blacks führt was man dann mit Prod80 Curved Levels Reshade aber wieder regeln kann

Links is immer das Auto HDR Bild ( Raised Blacks ) und Rechts das HDR Nativ Bild der Directors MOD ( Inoffizieller Patch eines Control Mitentwicklers der unter anderem auch Natives HDR einfügt )

Screenshot 2024-01-19 041039.png
--
Screenshot 2024-01-19 041055.png
--
Screenshot 2024-01-19 041151.png
Screenshot 2024-01-19 041349.png


und HDR Highlights werden halt nich ganz so gut betont oder überbetont das macht HDR Nativ natürlich besser aber solche Grafikfehler wie du sie hattest hatte ich bisher da noch nie.
Denke daher das es dann wohl eher ein Game Spezifisches Problem bei dir war mit dem blitzen.

Er kann ja nicht wissen, was UI ist und was Game-Content ist. So wie ein richtiges HDR-Game weiß, dass das HUD halt nur mittelhell sein muss und nicht maximal hell, so wie es bei SDR immer der Fall ist.

Is aber leider anders ... zum glück haben aber einige HDR Games ein HUD Helligkeits Slider entweder im Game Menu oder bei der Game HDR Kalibrierung
bei Alan Wake 2 is das zb so oder bei Cyberpunk 2077 jeweils im HDR Kalibrierungsmenu. Oftmals wird das auch mit dem Paper White Slider mit geregelt.


Cyberpunk 2077 : --------------------------------------------------------------------------------------------------- Alan Wake 2 :

cyberpunk-2077-hdr-einstellung-gp_6258105.jpg
----
Screenshot 2024-01-19 015253.png


Werd ich aufjedenfall bedenken, bin froh, dass es da doch noch ein paar Optionen gibt! Dank HLG kann man ja wirklich mit wenigen Klicks den SDR-Lock umgehen.

Jepp und liefert eben auch brauchbare ergebnisse ab siehe eben die beiden Videos woraus ich die 2 Bilder hier verlinkt hatte

Von der Einfachheit her also so rein Plug and Play mässig würde ich es so auflisten :

1. Win 11 Auto HDR
2. HLG Mode
3. SpecialK



Aber klar, gutes HDR auf einem guten Display sieht natürlich besser aus als gestrecktes SDR, da brauchen wir nicht diskutieren. Aber ich komm auch ohne zurecht, alles gut.

Is bei mir anders .... wenn es ein SDR Only Game is zock ichs halt mit einer der eben genannten Methode in "HDR" meisst dann aber per HLG Mode

Das ist mir halt immer das Riesen-Rätsel, ich vergleich das wie gesagt immer gerne mit der Hifi-Welt, da ist auch das absolute Traumziel, dass man das Konzert bis ins kleinste Detail in der gleichen Dynamik und damit auch Lautstärke hört wie in echt, darüber wird ja gar nicht mal diskutiert und oft Tausende Euro in tonnenschwere Boxen und Equipment dafür gesteckt, um dem näher zu kommen.

Nich nur Hifi Welt auch halt zb Musik Welt ... Thema Verstärker oder Gitarre

Aber ich mags zwar nun natürlich auch hell aber ich brauchs da nun nich unbedingt akkurat Hell genauso seh ichs halt bei der Farb akkuratheit ... es soll einfach nur mich Persönlich zufrieden stellen
muss aber nich auf teufel komm raus krass akkurat sein.

Als ich diese HDR Scene

Screenshot 2024-01-19 003132.png


zb auf dem Asus PG43UQ ( der ja kein ABL hat ) mit HDR 1000 in HDR mit nem HDR fähigen Browser gesehen hab dachte ich ich währe ( ja mit "H" meine Freunde auch wenn ihr das nich mögt :ROFLMAO: )
einfach grad dort am Strand ... das Sonnenlicht oben hat sich so schön Plastisch vom Sandboden abgehoben wie halt son 3D Effekt

Als ich die selbe Scene aber auf dem LG 48" CX gesehen hab war der HDR Punch Weg .. die Scene sieht immernoch ok aus aber nich mehr so umwerfend wie auf dem Asus 43" PG

Das selbe hatte ich ja auch mit dem Mond bei Borderlands 3 über den ich hier damals schon ausführlich genug geschrieben hatte

Dieses wirklich "da sein" Gefühl is beim LG 48" CX halt nich so wie damals beim PG 43" mit seinen ABL losen HDR 1000

Der PG43" is nun auch nich krass Akkurat hell aber die Scene hat mir da halt echt gefallen auch wenn die Sonnenstrahlen nun keine 10.000 Nits hatten :giggle:

Ich erinnere da nur an das Video von Vincent von HDTVTest zu dem Thema.

Das wo er mit dem Messgerät die Realen Objekte abmisst die er im Garten hat oder das "Nits Nut" Video wo er sich Outet das er auch auf krasse HDR Helligkeit steht wie wir auch ?


Nene ich geh ja schon von den HDR-Standards, das hört ja bei max 10.000 Nits auf. Könnte ja dann noch nen XDR-Standard kommen mit 100.000 Nits.

Das heisst doch aber nich das Absolutes Weiss 10.000 Nits sein muss sondern halt nur dass das das Aktuelle Limit is was ja noch erweitert werden könnte bis ins unentliche
oder richtung Sonnenhelligkeit

Screenshot 2024-01-19 005201.png




Wobei hier wieder 10.000 Nits angegeben werden für das Sonnenlich .. wobei das Sonnenlicht is ja nich die Sonne selbst aber vielleicht kommen daher die 10.000 Nits im Bereich HDR.


Screenshot 2024-01-19 005013.png



Ne ne ich rede wie gesagt vom Signal, vergiss das Gerät.


Nunja aber das Gerät gibt halt das Limit vor wie hell das Weiss sein kann




Mir gehts darum, dass du nicht zB den Screenshot von Battlefield nehmen kannst und sagen kannst "so, das entspricht dem 50% weißen Quadrat

Nich die helligkeit des Weissen Quadrats sondern das Bild was man an Gerät X bei dieser Scene sieht hat nur noch die Helligkeit von Gerät X welche Gerät X bei 50 % Window noch darstellen kann
du hattest das vielleicht eingangs falsch verstanden

Man sieht ja die Helle Fläche in der BF 2042 Scene Farblich markiert .. man kann also sehen wieviel helle Fläche auf dem Gesamt Bild vorhanden ist und das war eben der Bereich 75 % helle Fläche des Gesamt Bildes
also kann man das ja dann auf das Gerät beziehen und sich dann den Wert von Gerät X hernehmen und weiss dann das man bei der Scene eben nur noch soviel Nits hat wie bei 75 % weiss

Gelb und Rot/Orange is so der Hellste Bereich in dem Bild und das dürften so 50 - 75 % des Bildes sein ... und bei 75 % Window schafft Gerät X nur noch Menge X an Nits somit weiss man dann das bei dieser Scene
auf x Nits gedrosselt wird für die Highlights

------------------------------------------------------------------------------------------------- Der Graph is nun aus ner anderen Scene von nem anderem Game aber nur mal um die Farbe dem Nit Bereich zuzuordnen

Screenshot 2024-01-18 005905.png
--
Screenshot 2024-01-19 032513.png




Weiss = 0 - 100 Nits
Blau / Cyan = 100 - 150 Nits
Grün = 150 - 250 Nits
Gelb = 350 - etwa 700 Nits
Orange = etwa 700 Nits - etwa 900 Nits
Rot = etwa 900 Nits - etwa 1900 Nits
Pink = etwa 1900 - 4.200 Nits
Lila = 4.200 - 10.000 Nits



Heatt.jpg


Somit kannste nicht den BF-Screenshot nehmen, eine Prozentwert festlegen und dann in den rtings-Test gucken und sagen "Der Fernseher, den ich mir kaufen will, wird in dieser HDR-Szene zwischen 400 und 500 Nits leisten", weil du aus der Szene einen Wert von 40% herausgelesen hast und der Fernseher zwischen 25% und 50% das leistet. Du kannst eben keinen Prozentwert rauslesen, das geht nur bei SDR.

Hmm eigentlich dachte ich das man das genauso machen kann auch bei HDR.

Ich kann es halt leider nich selbst überprüfen da ich hier keine MessHardware zuhause habe sonst würd ich das einfach mal gegentesten

Aus dem Grund muss rtings auch drei Szenen nehmen und dort drei definierte(!!) Punkte messen und vergleichen, wie hell diese laut Content/Signal hätten sein sollen und wie hell der TV an den Stellen nun ist.

Die aber auch aus einem Blauen Pool und einem Gelben Wolkenkratzer bestehen nicht aber aus Weisem Eis

Die Pool und Wolkenkratzer Scenen testet ja eher die Farbhelligkeit also "Gelb" Helligkeit und eben "Hell Blau" Helligkeit


In etwa 1 % Gelb Helligkeitsmessung einer Dunklen Real Scene --------- In etwa 2 % Hell Blau / Cyan Helligkeitsmessung einer mittlel hellen Real Scene

Screenshot 2024-01-19 010559.png
--
Screenshot 2024-01-19 010602.png
--
Screenshot 2024-01-19 010802.png



Screenshot 2024-01-19 011541.png



nicht aber die Helligkeit von Weiss wie zb dem Eis bei Battlefield ......Die Deckenlicht Real Scene wiederrum zeigt weiss helligkeit in dem Gößenbereich
die Testen da ja nich das Gesamt Bild sondern nur Exakt den einen Punkt den sie ja auch direkt beschreiben


In etwa 10 % Weiss Helligkeitsmessung einer recht hellen Real Scene --------------------------------------------------- Sehr viel Weiss im Bild wie vorhin schon geschrieben vielleicht eben so 75 % Weiss oder 50 %

Screenshot 2024-01-19 010556.png
--
Screenshot 2024-01-19 010931.png
---
Screenshot 2024-01-18 005854.png



Screenshot 2024-01-19 011424.png


Wir haben also einmal "Gelb" einmal "Hell Blau" und einmal "Weiss" und einmal ne "Dunkle Scene" und ne "mittle helle Scene" und eine "helle Scene"
 
Zuletzt bearbeitet:
Merkt man einen Unterschied zwischen den LG C1 48 Zoll oder den C3 42 Zoll bild technisch bin um jede Info dankbar.

Lg
 
Zuletzt bearbeitet:
Merkt man einen Unterschied zwischen den LG C1 48 Zoll oder den C3 42 Zoll bild technisch bin um jede Info dankbar.

Lg
Im grossen und ganzen wird sich bei einem wechsel wenig tun.

Worin der C3 besser ist :

Helligkeitsstufen
Farbsättigung
Hochskalierungsalgorithmen

Kommt eben auch darauf an für was du ihn verwendest, bei einem guten Angebot von einem C2/3 könntest du allerdings darüber nachdenken.
 
Im grossen und ganzen wird sich bei einem wechsel wenig tun.

Worin der C3 besser ist :

Helligkeitsstufen
Farbsättigung
Hochskalierungsalgorithmen

Kommt eben auch darauf an für was du ihn verwendest, bei einem guten Angebot von einem C2/3 könntest du allerdings darüber nachdenken.
Ich hab ihn gewonnen bei einem Preisausschreiben und bin jetzt am überlegen, ob der C1 in die Bucht geht.

Lg
 
aktuell ist der Alienware AW2725DF mein Favorit, weil man da ja guten Rabatt bekommt. Aber im Prinzip käme jeder 360Hz OLED in Frage, da die ja alle das gleiche Glossy QD-OLED-Panel haben aktuell.
360HZ auf OLED muss absolut irre sein. Aber die fps muss man auch erstmal generieren. Zum Glück wqhd. Aber ne Grafikkarte kann ja immer mal nachrücken.
Den 27er würde ich dann ersetzen eben durch den QD-OLED in der gleichen Größe. Problem ist, der LC-Power ist mit der hellste von den Edge-Lit-Monitoren mit satten 650 Nits, also selbst da wäre es ein ordentliches Downgrade. Aber das QD-OLED wird natürlich massiv schneller schalten als das träge VA-Panel. Außerdem wäre er, wie der Fernseher, endlich glossy statt matt wie der LC-Power.
Interessantes Teil der LC. Könnte mir aber gut vorstellen dass die Kombination aus OLED Reaktionszeit,Glossy,360HZ dich trotz des Helligkeitsverlust überzeugt. An die "Dynamische Helligkeitsverteilung" des OLED muss man sich zwar etwas gewöhnen aber das wird schon. Bin auf jeden Fall gespannt auf dein Fazit.
Ja ich spreche da ja von Bildschirmen die keinen SDR-Helligkeitslock
Hast du ne Ahnung was dieser Elende SDR Helligkeitslock überhaupt soll? Nicht nur dass ich meinen C2 zwingend mit Windows HDR Betreiben muss um eine für mich ausreichende Helligkeit zu erhalten, aber das gilt ja selbst für IPS standard Monitore wie z.B. den LG 32gq950. Das teil drückt laut rtings nur 360Nits in SDR und gibt dann im HDR richtig gas. Warum wird dem user für ausreichende Helligkeit HDR aufgezwungen. Ich kenne mich mit HDR nicht besonders aus, aber jegliche Standard Monitore sahen bei mir alle gruselig mit HDR aktiviert aus. Der C2 hingegen sieht mit HDR keinen deut anders aus als mit SDR. Warum habe ich keine Ahnung. Hgig?
 
Zuletzt bearbeitet:
Hast du ne Ahnung was dieser Elende SDR Helligkeitslock überhaupt soll? Nicht nur dass ich meinen C2 zwingend mit Windows HDR Betreiben muss um eine für mich ausreichende Helligkeit zu erhalten, aber das gilt ja selbst für IPS standard Monitore wie z.B. den LG 32gq950. Das teil drückt laut rtings nur 360Nits und gibt dass im HDR richtig gas. Warum wird dem user für ausreichende Helligkeit HDR aufgezwungen. Ich kenne mich mit HDR nicht besonders aus, aber jegliche Standard Monitore sahen bei mir alle Gruselig mit HDR aktiviert aus. Der C2 hingegen sieht mit HDR keinen deut anders aus als mit SDR. Warum habe ich keine Ahnung. Hgig?
Also bei mir sieht der c2 in HDR farbenforher aus grad im desktop seh ich da guten unterschied (natürlich auch heller daher für mich immer hdr an lieber kaufe ich mir alle 3 jahre neuen oled als in sdr zu verwenden)
 
Also bei mir sieht der c2 in HDR farbenforher aus grad im desktop seh ich da guten unterschied
Das liegt aber auschließlich an der Helligkeit. Der C2 ist in SDR ja nur nen besserer Glimmstängel. Farben brauchen Helligkeit um zu leuchten. Jeder IPS/VA Monitor den ich so bisher mal getestet habe sieht total blass und verwaschen aus sobald Windows HDR aktiviert wird. Das hat der C2 überhaupt nicht. SDR und HDR Bild sind qualitativ identisch.
(natürlich auch heller daher für mich immer hdr an lieber kaufe ich mir alle 3 jahre neuen oled als in sdr zu verwenden)
😁 (y)
So mache ich es auf jeden Fall auch. Mit der SDR Helligkeit hätte ich den C2 gar nicht behalten. Nich auszuhalten. Auf welche Stufe stellst du bei dir den Windows HDR Helligkeitsregler?
 
360HZ auf OLED muss absolut irre sein. Aber die fps muss man auch erstmal generieren. Zum Glück wqhd. Aber ne Grafikkarte kann ja immer mal nachrücken.
Ja, ich mein es bringt ja vorallem bei kompetitiven Ego-Shootern was, da kriegst die 300fps auch mit einer 3080 gut hin. Ob ich nun 280fps oder 360fps hab ist ja dann auch egal.

Interessantes Teil der LC. Könnte mir aber gut vorstellen dass die Kombination aus OLED Reaktionszeit,Glossy,360HZ dich trotz des Helligkeitsverlust überzeugt. An die "Dynamische Helligkeitsverteilung" des OLED muss man sich zwar etwas gewöhnen aber das wird schon. Bin auf jeden Fall gespannt auf dein Fazit.
Ich berichte sehr gerne!

Hast du ne Ahnung was dieser Elende SDR Helligkeitslock überhaupt soll?
Drei Theorien:
- Energieeffizienklassen, also damit er in SDR (da wo er bei 90% der Nutzer ja laufen wird) ne gute Einstufung bekommt
- Burn-In-Schutz, da der HDR-Content ja bei den meisten die Ausnahme ist
- Wow-Effekt wenn man HDR anmacht, weil er ja jetzt viel heller ist.

Aber ist ja nur bei den kleinen OLEDs und der C-Reihe so, der G3 erreicht ja auch im SDR ordentliche Werte.

Das teil drückt laut rtings nur 360Nits in SDR und gibt dann im HDR richtig gas.
Find ich halt mega nervig, der LC-Power drückt eben auch in SDR seine 650 Nits und der QN90A auch. Da muss ich dann nix frickeln. Denn auch bei mir ist HDR-Content leider die Ausnahme. Man kann sich seine Games ja leider nicht nach HDR-Support aussuchen.

aber jegliche Standard Monitore sahen bei mir alle gruselig mit HDR aktiviert aus.
Das ist normal, die versuchen dann das gesamte Dynamikspektrum auf ihren geringen Kontrast zu komprimieren, also praktisch skalieren sie 10.000 Nits max und 0 Nits min (also das was der HDR-Standard vorsieht) auf ein kontrastarmes 1000:1-IPS-Panel, dadurch wird alles extrem farblos und milchig. Ist beim LC-Power zB auch so. Er kann halt nicht dimmen. Windows in HDR wird ja im SDR-Farbraum gezeigt und dadurch sieht das dann eben so milchig aus.
Erst ein echtes HDR-Display wie der OLED kann die Kontraste überhaupt darstellen und wird deshalb nicht milchig. Aber auch am QN90A oder einem anderen FALD-Display wird auch da nix milchig
 
Hi
Habe den LG C3 42 Zoll kann mir einer vernünftige Bild Einstellung für Desktop Betrieb sowie HDR und SD genauso wie im Spielbereich zur Verfügung stellen das wär sehr nett gerne auch per PN

Lg
 
schau dir mal diese Seite an. Da sind viele Infos zur Einstellung. Da Bildeinstellungen auch was mit pers. Vorliebe zu tun haben, würde ich nicht stur alles so übernehmen. Ich habe z.B. "nur Warm 15" und nicht optimal bei 6500K "Warm 50" - das wird zu gelblich. Mag ein kühleres Bild.
 
.... Da Bildeinstellungen auch was mit pers. Vorliebe zu tun haben,...
Und wo der Oled eben steht. Hab kein Fenster in dem Raum, somit ist mein Zockerzimmer sehr dunkel. Da hab ich am Oled sogar Gamma 2.4 aktiv.

Besonders für SDR nutze ich immer den Farbumfang Dynamisch. Ohne sind mir die Farben zu blass bzw da sehen die Farben bei meinem IPS sogar kräftiger aus.

Mit sieht es zu gunsten vom Oled wieder besser aus. Gamma 2.4 oder bt1886 hilft auch. Bei einem sehr hellen Raum eher nicht zu empfehlen.

Muss man halt bisschen rum spielen bis es passt. Mit z.b. Eizomonitortest oder dergleichen kann man die Abstufungen gegen kontrollieren damit die noch erkennbar bleiben...
 
Zuletzt bearbeitet:
die Farben bei meinem IPS sogar kräftiger aus.
Ist ja klar wenn dein OLED dann nur auf SRGB läuft und dein IPS nicht.

Ursprünglich oder dynamisch ist halt auch eig falsch..aber begrenzt auf SRGB sieht das echt nicht mehr schön aus obwohl es korrekt ist^^.
 
Ist ja klar wenn dein OLED dann nur auf SRGB läuft und dein IPS nicht.
Wenn ich Vergleiche an stelle dann mit gleichem Gamma, RGB Full, usw. Meine beiden IPS sind heller und ergo die Farben in den Grundeinstellungen besser als aufm C2.

Der OLED ist ja eigentlich ein TV und da braucht es ein paar Kniffe mehr für ein gutes Bild am PC. RGB full über HDMI 2.1 z.b muss man im Treiber aktivieren beim Oled.

Für ein korrektes Bild und Vergleiche müsste man eh kalibrieren. Jeder hat andere Vorlieben und in Games ist mir das Wumpe ob dass korrekt ist oder nicht.

Es muss mir gefallen, ohne Gelbstich, mit knalligen Farben, sattem Schwarz. Graustufen, Farbabstufungen, etc. kontrolliere ich gegen bzw ob ich sie noch unterscheiden kann anhand von Testbildern. Bin ich dann damit zufrieden bleibt es dabei für jedes Game.

Helligkeit, Gamma wenn wirklich nötig passe ich dann im Spiel selber an. In 99% der Games passt es mir auf Anhieb. Das war mit dem LCD/LED anders. Da war ich nie wirklich zufrieden.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh