[Sammelthread] LG OLEDs, ab C9, als PC- Bildschirm, HDMI 2.1, VRR

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Es wäre mir aber neu, dass die Auflösung jetzt einen Einfluss darauf hat, ob ein Monitor/TV den Test von NVIDIA besteht. Das beschriebene Problem wäre ja auch nicht auf VRR zurückzuführen, sondern eben auf 4K@120 und die dafür notwendige Rechenleistung. Die Zuspielung in 4K@120 würde ja dennoch gehen und auch VRR sollte wohl ohne zu flackern dargestellt werden. Dass viele Hersteller sich es sparen ihre TVs bei NVIDIA einzureichen wird eher an anderen Punkten liegen.


Wenn Panasonic den TV bei Nvidia Gsync zertifizieren will und die feststellen dass nur mit der halbierten Auflösung Gsync funktioniert, bezweifle ich dass Nvidia eine Freigabe dafür gibt.
Kann natürlich auch eine Kostenfrage sein weil Nvidia zu viel dafür verlangt, aber wird nicht ohne Grund sein warum ein Großteil der am Markt erhältlichen Monitore und TV´s keine Gsync Freigabe haben. welchen Grund genau würden uns nur die Hersteller selben sagen können, alles andere ist spekulieren unsererseits.



Sag das mal den 2019er OLED Besitzern, bei denen LG scheinbar kein Interesse mehr hat DV Gaming nachzurüsten :d

Da wären wir wieder beim Chipsatz Problem. Das DV Gaming kommt ja "angeblich nicht" weil 2019 eben noch ein anderer Chipsatz verwendet wurde, ob es Softwareseitig trotzdem machbar wäre und LG die alten Modelle künstlich beschneidet werden wir vielleicht nie erfahren, wobei ICH sagen muss dass kein DV Gaming mit 4k 120Hz für MICH vernachlässigbar ist da am PC momentan sowieso HDR der Standard ist und wenn man sich diverse HDR, HDR10+ und DV Vergleiche so ansieht wird man außer im direkten AB Vergleich mit freiem Auge sowieso keine gravierenden Unterschiede feststellen da die Content Anbieter halt auch vieles nur so dahin schluddern.
Da wären MIR PERSÖNLICH 12 Bit Aufgrund der 48Gbit Bandbreite wichtiger (und vor allem der noch vorhandene DTS Support).
Bis da wirklich was ins Gewicht fällt optisch werden die C9 eh schon einige Jahre am Buckel haben und dann kann man bei den stetig fallenden Preisen einfach neu kaufen wenn einem DV Gaming so wichtig sein sollte (nur meine Meinung).
 
Sag das mal den 2019er OLED Besitzern, bei denen LG scheinbar kein Interesse mehr hat DV Gaming nachzurüsten :d

Kann denn der C9 DV @ 60HZ bei der Xbox ?

Also mein BX kann bisher nur bis 60 HZ , aber irgendwie finde ich es nicht schlimm , da bei 120 HZ wahrscheinlich die Bildquallität mangels Bandbreite am HDMI Ausgang der Xbox SX
eh beschnitten ist ?
 
Der 32er wird halt ein richtiger Monitor und kein Fernseher ich gehe da von deutlich niedrigerer Helligkeit aus in der Spitze!
Der einzigste wen der den kommt wird wohl der 42Zoll werden der dann auch alls TV kommt und eventuell werden von dem dann auch noch reine Monitore folgen.
 
Naja, der 32EP950-B hat 540nits angegeben und eine HDR400 Zertifizierung, wäre Interessant wieviel Serienstreuung da vorhanden ist, was wieder FÜR MICH gar nicht geht, ist leider das nicht Glossy Coating.
Da merkt man selbst bei Oled dass es sehr wohl auf die Beschichtung ankommt.

Man kann nur hoffen, dass, wenn LG mit den 42" wirklich auf den Monitor Markt kommen, das Glossy Coating beibehalten wird von den TV´s.
 
Wenn Panasonic den TV bei Nvidia Gsync zertifizieren will und die feststellen dass nur mit der halbierten Auflösung Gsync funktioniert, bezweifle ich dass Nvidia eine Freigabe dafür gibt.

Dann guck dir mal die Sachen an die NVIDIA eigentlich nur testet.
Von irgendeiner Mindesauflösung oder einem"Auflösungsverlust" ist da nicht die Rede.


Das DV Gaming kommt ja "angeblich nicht" weil 2019 eben noch ein anderer Chipsatz verwendet wurde, ob es Softwareseitig trotzdem machbar wäre und LG die alten Modelle künstlich beschneidet werden wir vielleicht nie erfahren, wobei ICH sagen muss dass kein DV Gaming mit 4k 120Hz für MICH vernachlässigbar ist da am PC momentan sowieso HDR der Standard ist und wenn man sich diverse HDR, HDR10+ und DV Vergleiche so ansieht wird man außer im direkten AB Vergleich mit freiem Auge sowieso keine gravierenden Unterschiede feststellen da die Content Anbieter halt auch vieles nur so dahin schluddern.

Das sind so oder so alles nur faule Ausreden.
Das gesamte Tone Mapping wird bei "DV Gaming" auf Seiten der Quelle gemacht, da es ja nur die Low Latency Version ist.
Der TV bekommt da also schon ein bereits vorgekautes Signal serviert. Theoretisch kann man DV Low Latency ja auch bei jedem "Nicht-DV-Gerät" nachrüsten. Geht bspw. mit einigen von den HD Fury Boxen. Ist relativ witzig, wenn dann die Beamer plötzlich DV können.
Eine Limitierung der Leistungsfähigkeit können wir abgesehen davon eben auch ausschließen. 4K@120@12Bit@HDR10 geht ja ohne Probleme.

Unterm Strich ist mir DV Gaming tatsächlich auch egal. Bietet halt keinerlei Mehrwert gegenüber HDR10+HGiG. Und wird wahrscheinlich in der Praxis so oder so dunkler sein. Das Problem hatten ja damals auch die Sony TVs, da die ja lange Zeit nur LL unterstützt haben. In diesem Zusammenhang ein weiterer Fun Fact: Die Low Latency Version gibt es ja insbesondere eben deshalb, wenn der TV eben nicht genug Leistung hat/die DV Hardware nicht hat.
In dem Zusammenhang ist es auch irgendwie lachhaft, dass sich andere Hersteller da versuchen rauszureden.

Zumindest LG will sich mittelfristig nur nicht die Blöße geben wegen den 40 Gbps Chipsätzen. Aktuell geht das ja alles noch auf, da die Series X auch nur 40 Gbps hat. Spätestens der Mid-Gen-Refresh wird da aber garantiert 48 Gbps haben. Und dann ist eben auch 4K@120@12Bit@RGB möglich. Und dann ist der TV halt der Flaschenhals. Da wäre es doch peinlich, wenn die TVs aus 2020/2021 etc. auf 422 zurückgreifen müssen, während die 2019er Geräte da ein RGB Signal durchbekommen :d


Kann denn der C9 DV @ 60HZ bei der Xbox ?

Ja, Bis 60 Hz kann er das.
 
Flaschenhals sind meiner Meinung nach schon die Displays selbst wen es um 12 Bit geht !
Allein die Farbraum Abdeckung in Bt 2020 muss erstmal um die 90% erreichen wovon man aktuell noch ne große Ecke entfernt ist!
Das ist doch jetzt schon alles zurecht geschummelt.
 
Heute hatte ich den TV am laufen und habe die PS5 eingeschaltet .
Bin auf den HDMI und Bild blieb Schwarz.

Ton war da und dann zurück auf Live TV und Bild war weiterhin Schwarz.

Einstellungen vom TV wurden angezeigt nur halt kein Bild ob TV oder Quelle HDMI .

TV ausgeschaltet und Stecker gezogen und etwas gewartet .

Wieder eingesteckt und auf HDMI Port 4 gegangen und Bild PS5 war da.

Schonmal Jemand gehabt ?

jup, ein einziges mal... einfach auf TV wechseln und wieder zurück, dann ging es bei mir.
 
Dann guck dir mal die Sachen an die NVIDIA eigentlich nur testet.
Von irgendeiner Mindesauflösung oder einem"Auflösungsverlust" ist da nicht die Rede.


Das Video kannte ich schon, danke trotzdem.
Aber nachdem Nvidia Equipment im Wert von zig Tausend Dollar verwendet um ein Display zu testen glabust du nicht ernsthaft dass Ihnen eine z.b halbierte Auflösung nicht auffallen oder egal sein würde?
Außerdem glaube ich nicht dass wir in einem 15 Minuten LTT Werbevideo ALLE Details erfahren die dort bei Wochenlangen Testungen bewertet werden, aber genug OT.
 
glaubst du nicht ernsthaft dass Ihnen eine z.b halbierte Auflösung nicht auffallen oder egal sein würde?

Auffallen tut das sicherlich. Dennoch ist das aber kein Punkt, der eine Rolle für das Zertifikat spielt spielt. Der Hintergedanke hinter des Tests eben die Prüfung ist, ob VRR ohne Flackern/Ausfälle klappt. Die Auflösung ist dabei halt latte. Als Bonus testen sie für manche Stufen dann eben noch HDR und anderen Kleinkram.
 
obwohl es mich eigentlich nicht gejuckt hat, ob ich mit VRR oder komplett ohne sync shootere, bin ich inzwischen echt froh, dass gsync einfach so funktioniert.. an meinem alten 43 zoll philips war im freesync-betrieb die range so gering, dass es für mich nicht sinnvoll einsetzbar war. zusammen mit HDR hat es erst gar nicht funktioniert und flackerte ständig. damals war die beste option: scheiss drauf, abschalten und ggf. auf fastsync wechseln; eine treiberfunktion, die unabhängig vom verwendeten display angeboten wird und die auch als alternative auf dem OLED nicht grundsätzlich schlecht ist, wenn man gsync nicht nutzen möchte und man mit einer geeigneten framerate unterwegs ist.

mein c9 ist übrigens seit dem grakawechsel auf die 3090 frei von jedem fehlverhalten.. funktioniert einfach.. ausser ihn als monitor für die PS5 und den PC zu verwenden mache ich damit allerdings auch nichts.


(..)

mfg
tobi
 
Dennoch ist das aber kein Punkt, der eine Rolle für das Zertifikat spielt spielt. Der Hintergedanke hinter des Tests eben die Prüfung ist, ob VRR ohne Flackern/Ausfälle klappt. Die Auflösung ist dabei halt latte. Als Bonus testen sie für manche Stufen dann eben noch HDR und anderen Kleinkram.

Worauf stützt sich deine Annahme/Aussage? Quelle?
 
Worauf stützt sich deine Annahme/Aussage? Quelle?

Auf alles was ich, seit es G-Sync compatible gibt, so mitbekommen habe.
NVIDIA beschreibt es auf der eigenen Website zwar kurz, aber dennoch aussagekräftig, was G-Sync compatible eben meint:
"Validiert - keine Artefakte". Das ist in der Summe eben nur der Test, ob das HDMI VRR/Adaptive Sync Signal störungsfrei übertragen wird.

 
Ich sags mal so

Sollte sowas im PC Monitor Bereich passieren das die Auflösung nun halbiert währe wenn man Gsync Nutzt dann gehts glaub ich rund.
Wie damals mit den 3GB bei Nvidia.


Das is ja auch ein Markensschaden der dann entsteht also denk ich mal das wenn die einen Gsync Test machen , werden die da schon genauer hinschauen.
Ob nun Nvidia oder die Marke des Monitors.

Weil im PC Bereich geht ein Shitstorm schnell los.

Und da muss auch nich der Kunde nett bei der Marke ne Mail schreiben oder anrufen ehe was passiert .. das geht durch die Medien durch und dann entsteht der Druck.
 
Zuletzt bearbeitet:
wenn man Gsync Nutzt

Das hat ja immer noch nichts mit G-Sync zu tun, sondern mit 4k@120. Ob nun GSync aktiv ist oder nicht spielt keine Rolle. Sobald du 4k@120 zuspielst halbiert sich die Auflösung.

Beim 60 Hz Limit hast du das Problem grundsätzlich nicht. Sony hat beim XH90 ja auch einen riesen Shitstorm kassiert.
 
Ok das is ja dann noch schlimmer.

Denkst du kaufst ein 4K 120hz Monitor/TV und hast mit 120hz dann aber nur 1440p.
Voll Katastrophe.
 
Jap. Das ist natürlich ein absoluter Witz.
Gibt deswegen auch sau viele XH90 die zurückgegangen sind.
 
Und Panasonic

ratrax berichtete das es dort ja auch so der Fall is.
Sofern man den Berichten in dem Thread den ratrax verlinkt hat glauben schenken darf.

Sind aber 2 Probleme

1. Kein VRR bei 4K 120hz sondern nur bei 4K 60hz
2. Auflösungshalbierung bei 4k 120hz

Sprich gehen dann nur :

4K mit 60hz oder 1440p mit 120hz was dann ja dem HDMI 2.0 Standart entsprich und nich dem HDMI 2.1

1.JPG



Also Teuer und die 48" Version hat die neue Technik nicht sondern erst ab 55" + das Auflösungshalbierungs Problem + VRR Problem

10/10 reingekackt.
 
Zuletzt bearbeitet:
G-sync-kompatibel hat ja keinen strikten Anforderungskatalog wie G-sync; ob die fehlende Zertifizierung deswegen nicht erteilt wurde?

Panasonic wird da wohl einfach keinen Sinn drinne gesehen haben. Unterm Strich sind die ja ähnlich wie Sony noch relativ konservativ gegenüber Neuerungen eingestellt. Der Einzige Mehrwert für die wäre halt, dass sie das G-Sync Compatible Logo draufkleben können. Und für den Kunden eben, dass sie G-Sync nicht manuell aktivieren müssen. Zudem ist es ja anders als wie bei FreeSync via HDMI, das etwas anders in den EDID ausgweisen wird und daher explizit unterstützt werden muss. NVIDIA hat sich bei G-Sync via HDMI ja strikt an die Vorgaben seitens des HDMI Forums gehalten.

Ich selber gehe auch davon aus, dass die meisten neuen Geräte der "größerem" Hersteller auch keine Probleme mit NVIDIA Karten machen werden oder nicht. Unabhängig davon, ob sie zertifiziert sind oder nicht. Einfach weil es jetzt entsprechende Quellen gibt, an denen die Hersteller selber sehen können, ob etwas geht oder nicht. Dafür werden ja auch immer wieder Plug-Fests veranstaltet.

Bei Samsung ist es ja recht ähnlich. Deren 2019er TVs haben Bildaussetzer in Kombination mit HDMI VRR und NVIDIA Karten. Aber seit den 2020er Modellen funktioniert es einwandfrei. Auch ohne Zertifizierung. Da fällt halt auf, dass die Geräte noch relativ viele Probleme gemacht haben, die vor NVIDIAs "HDMI VRR Implementierung" auf dem Markt waren. Auf der anderen Seite ist es im Monitormarkt mit Adaptive Sync wohl vergleichbar. Wirkliche Probleme habe ich da eigentlich nur mit Monitoren gesehen, die bereits am Markt waren bzw. kurz nach NVIDIAs Vorstoß gekommen sind. Aber bei neueren Monitoren habe ich es bisher eigentlich nur noch so vernommen, dass Adaptive Sync via DP halt auch problemlos mit den entsprechenden Displays klappt.


Sony A90J hat den Mediatek MT5895 SoC, welcher von Haus aus diese Limitierungen mit sich bringt. Da kann Sony nichts machen.

Ach, der 2021er von Sony hat die Limitierung weiterhin? Spannend. Hatte eigentlich gehofft, dass die bei den 2021ern einen ordentlichen Chipsatz verwenden :d
 
Zuletzt bearbeitet:
Ach, der 2021er von Sony hat die Limitierung weiterhin? Spannend. Hatte eigentlich gehofft, dass die bei den 2021ern einen ordentlichen Chipsatz verwenden :d

Leider nicht (Ab 16:49):

Daher wäre Sony auch für mich nie eine Alternative gewesen. Ich will echtes 4K120Hz + HDR und bitte ohne (color)banding.

Ich bin so sehr auf das JZ2000 review gespannt xD
 
 
166-250nits ist halt schon wirklich extrem wenig.

Und warum wird das Teil dunkler im Spielemodus? War das nicht gerade eine Schwäche der FALD-Fernseher, an der OLED nicht litt?

Aber Rest ist natürlich top, schön, mal vergleichbare Messungen der Schaltzeiten zu haben.

Schade dass das "Glossy-Coating" kritisiert wird, typische Sicht von PC-Monitor-Testern. Dabei ist ein solches AR-Coating nachweislich objektiv einfach besser für die Bildqualität
 
Ja von 10%auf 25% Fläche bricht die Helligkeit schon fast um 400nits ein.
 
Interessant :


1.JPG



Denke die HDR 1000 hat er wohl deswegen bekommen weil er mit 800 - 900 Nits mehr richtung HDR 1000 is als an HDR 600

"While there is a limited 130 – 150 cd/m2 typical brightness spec Gigabyte later also added a “800-900 cd/m2 (@3% peak)” spec which is impressive if achieved."

Ausserdem wohl kein Gsync sondern nur Freesync Premium


 
Zuletzt bearbeitet:
Denke die HDR 1000 hat er wohl deswegen bekommen weil er mit 800 - 900 Nits mehr richtung HDR 1000 is als an HDR 600

Ne, der OLED Monitor würde niemals im Leben durch den VESA DisplayHDR 1000 Test kommen.
An die Anforderungen kannst du dich da ja ggf. noch von unserer Unterhaltung im letzten Jahr leicht erinnern.
Ich habe auch bisher nicht gesehen, dass Gigabyte den Monitor mit VESA DisplayHDR 1000 bewirbt.

Hier lässt sich aber wohl der Grund finden in der Behauptung der einen Website:

Wenn du da mal etwas googelst findest du dort den Eintrag zum "GigaByte AORUS FV43U".
Und der ist wohl HDR1000 zertifiziert. Der OLED gehört aber, wieso auch immer scheinbar zu gleichen Familie.
Siehe: "Family Models: FI32U, FO48U, M27U". Genau so gehört der aber auch zur gleichen Familie wie der GigaByte M28U, welcher
nur HDR 400 zertifiziert ist. Anders ausgedrückt: Da hat wohl einfach irgendein Redakteur mal wieder schlecht recherchiert.

Für OLEDs gibt es nicht ohne Grund die VESA DisplayHDR 400 bzw. 500 True Black Tests:

Viel spanneder als das finde ich da eher den Punkt "Note" in den Specs auf der offiziellen Seite:
*HDMI2.1 supports PS5 and Xbox Series X at 4K UHD@120Hz (4:2:0)


Schaut mir ja fast so aus, als hätten wir es hier nicht mit richtigem HDMI 2.1 zu tun, sondern mit einem normalen 18 Gbps Chipsatz.

Ja von 10%auf 25% Fläche bricht die Helligkeit schon fast um 400nits ein.

Von den "künstlichen Tests" mit den X% Fenstern würde ich mich so oder so nicht wirklich beeindrucken lassen.
Weder positiv, noch negativ. Selbst im LCD Bereich optimieren da viele Hersteller darauf, dass
diese halt besonders toll im 10% Window sind. Und dann aber in allen anderen Sachen trotzdem kacke sind.
Samsung ist da vor ein paar Jahren mal unter Beschuss geraten.

Insgesamt ist Helligkeit bei HDR eh nur ein untergeordnetes Kritierum. Natürlich ist das immer eine Angabe mit der die
Hersteller ihren virtuellen Penis verlängern können. Aber in der Realität geht es halt um den Dynamikumfang und damit insbesondere
um den Kontrast. Es heißt ja nicht High Brightness Range.

Und unterm Strich sind OLEDs da tatsächlich ganz weit vorne. Nicht ohne Grund haben OLEDs in den letzten Jahren in diversen unabhängigen TV Shootouts selbst die HDR Kategorie gewonnen:

Klar bringt eine hohe Spitzenhelligkeit in bestimmten Szenen noch etwas mehr "Pop". Insbesondere wenn wir wirklich von sehr hellen, vollflächigen Umgebungen sprechen. Das ist aber halt auch nur eine Seite der Medaille. Sobald es dann mal etwas dunkler im Bild zugeht stehen LCDs vor der großen Herausforderung, dass sie einerseits bestimmte Bildelemente noch möglichst hell darstellen sollen. Andererseits soll es auch nicht zu Blooming kommen. LCDs werden in solchen Szenen also niemals die Spitzenhelligkeit erreichen, die sie vielleicht auf dem Papier in einem künstlichen <10% Window erreichen. Insbesondere Samsungs LCDs nicht, da die darauf getrimmt sind lieber das Backlight auszuschalten, damit man möglichst gut gegen OLEDs dasteht. OLEDs auf der anderen Seite haben mit solchen Szenen dafür absolut kein Problem und können selbst die kleinsten Bildelemente in Sachen Helligkeit aufdrehen. Dann hast du dort den wesentlich besseren "Pop". Auch wenn Gemini Man jetzt ein Film ist, kann man das beschriebene dort aus meiner Sicht sehr gut nachstellen, da es sehr helle, aber auch sehr dunkle Szenen gibt.

Solange es also keine eierlegende Wollmilchsau gibt, muss man sich halt entscheiden was einem lieber ist. Ich persönlich entscheide mich dann eher für einen OLED. Einfach weil solche Szenen wo wirklich das gesamte Bild die ganze Zeit sehr hell ist eher selten sind. Von dem guten Kontrast profitiert man da schon deutlich öfter.
 
166-250nits ist halt schon wirklich extrem wenig.

Das klingt auf dem Papier echt verdammt wenig. Ich hatte mir mal vor zwei Jahren aus Langeweile den MSI Optix MAG341CQ gekauft, der nur max. 250 nits schafft. Das Ding war so unfassbar dunkel und scheiße, dass ich den sofort zurückgeschickt habe. In Bezug auf reine Desktop-Nutzung stelle ich den C1 tagsüber auf höchstens 30-40 OLED-Light. Abends sogar nur auf 20. Wenn ich nicht überall wo es geht dark themes und reader nutzen würde, würde ich Abends die Helligkeit auf 0 stellen, weil bei hellen Inhalten auf ca. etwas über 1m Augen-Bildschirm Abstand merke wie mir die Augen weh tun. Wahrscheinlich spielt hier auch einfach die wahrgenommene Helligkeit in Bezug auf die schiere Größe des Displays und der Sitzabstand eine große Rolle.

Tagsüber mache ich auch gerne mal die Rollos hoch und lasse Licht durch meine zwei Fenster, wodurch der Raum hier bei mir echt ziemlich hell wird. Ich habe trotzdem nie das Gefühl, dass ich mehr als 40 OLED-Licht brauche, von ABL-dimming merke daher auch nichts (ASBL und Logo-Dimming habe ich jedoch vorsichtshalber deaktiviert). Nach meiner Erfahrung ist es mir völlig schleierhaft wie jemand die Helligkeit für die Desktop-Nutzung als unzureichend ansehen kann.

Ich nutze übrigens für Desktop-Nutzung ausschließlich den Spiele-Modus.
 
Zuletzt bearbeitet:
Abends sogar nur auf 20. Wenn ich nicht überall wo es geht dark themes und reader nutzen würde, würde ich Abends die Helligkeit auf 0 stellen,

Wie kannst du denn da überhaupt noch was sehen? :d
Das sind dann ja nicht mal mehr 100 Nits und der Content sieht doch dann selbst in SDR meh aus.

Bei mir ist OLED Light 40 in SDR Standard im ISF Expert Dark Room. Das müssten so unterm Strich ~150 Nits sein und liegt damit auch ca. auf dem Niveau
auf den der Modi kalibriert ist. Die 100 Nits wären ja wirklich nur für die Referenzbetrachtung in einem restlichtoptimierten Raum mit schwarzen Wänden. usw.. Deswegen finde ich den Filmmaker Modus auch etwas Schwachsinn für Normalos.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh