LG 34GP950G-B im Test

Vermutlich wird auch dieses drölfdaudenste Monimodell nur über krüppelhafte HDMI-Eigenschaften verfügen.
(max. OC-Hertz an DP, max 120Hz an HDMI)
Ergo (und mein Mantra): DP und Punkt und gut.
hatte ich mir schon gedacht, aber wurde im Review nicht extra erwähnt. Da echtes 2.1 mehr und mehr Einzug hält, fehlte mir eine Erwähnung im Review.
DP und gut ist auch mein Credo ;)
hoffe DP2.0 ist auch günstig produzieren, dann hätten wir in ca 2-3 Jahren alles auf DP2.0 was knorke wäre.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
hatte ich mir schon gedacht, aber wurde im Review nicht extra erwähnt. Da echtes 2.1 mehr und mehr Einzug hält, fehlte mir eine Erwähnung im Review.
Na siehste, und ich hätte gedacht, Du sagst wo HDMI2.1 denn Einzug hält.
Info: Dass hier ist die Moni-Abteilung.

Mein Credo: DP für den PC
und HDMI für die Tonne. (Wegen meiner noch fürs heimische Spiel&Spaß-Kabinett, um dem neurotischen HDCP-'Kopierschutz' ein Zuhause zu geben.)
 
Sobald DP 2.0verfügbar wird, rechne ich mit es einer regelrechten Schwemme neuer Moni in allen nur erdenklichen Kombinationen. Herbst wird heiß
 
Hab die Kiste grade hier zum testen, schaut soweit ganz gut aus nur bekomme ich kein Bild über den Displayport. HDMI klappt ohne Probleme und wie es ausschaut ist der Port defekt. Jeah :coffee2:
 
Sobald DP 2.0verfügbar wird, rechne ich mit es einer regelrechten Schwemme neuer Moni in allen nur erdenklichen Kombinationen.
Glaub' ich nich…
Auch den 'Sprung' von DP1.2 auf DP1.4 benötigen nur eine handvoll Monis (z.B. UHD@144Hz-Monis).
Den meisten Monis reicht auch fürhin DP1.2.
DP1.4 steht zwar in den Specs und auf dem Karton, aber wirklich brauchen tun's die wenigsten Monis.
Selbst für die Topic-Device-Auflösung von 3.440x1.440@144Hz(@8Bit) reicht DP1.2 (nur HDMI2.0 mit seinen 3.440x1.440@120Hz hängt hier wiedermal hinterher).

[…] neuer Moni in allen nur erdenklichen Kombinationen.
Wenn Du von den 'allen erdenklichen Kombinationen' das abziehst, was keinen Einfluss auf den Datenstrom hat, wird’s recht schnell übersichtlich im Preisvergleicher.
 
Hab die Kiste grade hier zum testen, schaut soweit ganz gut aus nur bekomme ich kein Bild über den Displayport. HDMI klappt ohne Probleme und wie es ausschaut ist der Port defekt. Jeah :coffee2:
Dachte du kannst VA/IPS schrott nicht mehr nutzen und sehen?
Und bestellt dann den LG lol.
 
Glaub' ich nich…
Auch den 'Sprung' von DP1.2 auf DP1.4 benötigen nur eine handvoll Monis (z.B. UHD@144Hz-Monis).
LG 38GN950 (3840x1600) ist nicht ganz UHD, wird aber bereits ab 120Hz @10bit Bandbreiten_limitiert. 8bit 160Hz HDR sehen nicht wirklich gut aus. Jedes mal auf 120Hz manuell umstellen ist nicht so toll....
Der Moni ist seiner Zeit eben voraus... es braucht DP 2.0
Ich bin mir sicher das Hersteller eben aus diesem Grund noch abwarten
 
Klar bestell ich immer neue sachen obwohl ich weis das se mir eh nicht taugen, nur um trotzdem zu testen,dann schick ich se immer wieder zurück.

Tut dem Händler und der Umwelt richtig gut.

Das Essen bsp,dazu sage ich mal nix.
 
Zuletzt bearbeitet:
Ich bin mir sicher das Hersteller eben aus diesem Grund noch abwarten
Joa, das klingt plausibel… (Ich habe einen Neffen, der ist acht. Der würde wohl auch zustimmen.)
Aber trotzdem werden sich die meisten Monis auch künftig mit DP1.2 begnügen. Der DP1.4-Aufdruck ist nur Show, um den Käufer glauben zu machen, dassada was ganz toll 'zukunftssiches' erworben hat.
Nicht umsonst ist DP sowohl auf- als auch abwärtskompatibel (was man von HDMI nicht immer behaupten kann).
 
DP 2.0 Kabel an der 4080 dran gibt einem DP 1.4 Moni jetzt nicht plötzlich mehr Bandbreite? oder ODER?
Zumal DP, egal ob nun in der 1.1 oder in der 5.9-Version, weder im Kabel noch im Stecker …steckt, sondern in der GraKa.:d
Das DP1.4-Enblem auf dem MoniKarton sagt erstmal nur, dass der Moni darin an jeder DP1.4-GraKa in den ihm gegebenen Spezifikationen funzen wird.
Und vermutlich auch an jeder DP2.0-GraKa.
Ob der Moni überhaupt die Bandbreite von DP1.4 oder höher benötigt, ist damit nicht gesagt.
Drum sag' ich es: Den meisten Monis mit DP1.4-Aufdruck setzen nicht mehr Bandbreite um, als in DP1.2 sowieso schon drinsteckt.
 
Zumal DP, egal ob nun in der 1.1 oder in der 5.9-Version, weder im Kabel noch im Stecker …steckt, sondern in der GraKa.:d
Das DP1.4-Enblem auf dem MoniKarton sagt erstmal nur, dass der Moni darin an jeder DP1.4-GraKa in den ihm gegebenen Spezifikationen funzen wird.
Und vermutlich auch an jeder DP2.0-GraKa.
Ob der Moni überhaupt die Bandbreite von DP1.4 oder höher benötigt, ist damit nicht gesagt.
Drum sag' ich es: Den meisten Monis mit DP1.4-Aufdruck setzen nicht mehr Bandbreite um, als in DP1.2 sowieso schon drinsteckt.
Schon klar, nicht jede Auflösung lastet DP 1.2/1.4 aus aber immer öfter!
UHD 10Bit @ 144Hz bräuchte quasi 2x DP 1.4 wegen nötiger 39.19 Gbit/s

Gesamtleistung DP 1.4 sind 25.92 Gbit/s
Zum Glück ist mein Monitor nicht ganz UHD, es kann sogar 120Hz 10Bit ansteuern.

3840x1600 10Bit @120Hz > 23.91 Gbit/s
3840x1600 10Bit @144Hz > 29.03 Gbit/s

Ernst gemeinte Frage:
Werden aktuelle Monitore, die ja verständlicherweise DP 1.4 spezifiziert sind, vom neuen 2.0 Standard profitieren können? (an ieiner DP2.0-GraKa)
 
der rng_agesa hat es doch mit sein post nr 34 genau auf den punkt gebracht in sache kombinations möglichkeiten dank dp2.0.

und ja spätestens 2023 werden einige hersteller diesen markt voll ausnutzen !!!

den man bedenke auch was eine gebalte gpu power dieses und nächstes jahr uns zur verfügung stehen wird 😍

fullHDade,​


auserdem hier redet kein schwein von stand der dinge, ich habe die ganze zeit eigentlich nur über möglichkeiten diskutiert, was hersteller uns in 1 bis 2 jahren anbieten werden mit oled und dank dp 2.0.

und ihr schiesst völlig den vogel oder bocks voll ab, mit 10 bis 20 jahre bla bla usw.
 
Zuletzt bearbeitet:
gpu power zur verfügung stehen
Mit dem dazugehörigen 1000Watt+ NT.
Ausserdem geht hier eh bald das Licht aus,unsere Politik arbeitet ja fleißig dahin.

Da bringt dir 8K und DP 2.0 auch nix.

23 ist auch nur nen Wunschdenken,das wirste nicht sehen,oder weist du mehr als wir?
Dann lass mal hören^^
 
DisplayPort 2.0 > 77.37 Gbit/s
DisplayPort 1.3–1.4a > 25.92 Gbit/s
DisplayPort 1.2 > 17.28 Gbit/s
 

Blood1988,​


tja wer sich das nicht leisten kann oder sich von 1000watt sich abschrecken lässt wegen geiztum oder sonst was, dann wird das nichts mit den genuss.

im übrigens ich habe seit 10 jahren 1200watt netzteil im einsatz gehabt wegen dual gpu usw und seit 1 jahr nun 1000w in betrieb, da nur noch single gpu und genug reserven für maximale stabilität und effizient usw mein lieber. 🤫

ich meine ich kann mir auch kein bugatti oder sonst was leisten, denoch gibt es millionen von menschen die sich das leisten können und es geniessen !!!

verstehste worauf ich hinaus will ?
 
Vor 10Jahren lagen auch die Strompreise ganz woanders.
Und nen NT verbraucht nur das was gefordert wird,aber ne 3090TI zieht gerne mal 500Watt+,und die Lastspitzen nicht vergessen.
Das wird mit der nachsten Gen nochmal deutlich höher werden,das einzige was gut ist du hast de Heizung gleich inkl.

Wenn de dir das noch leisten kannst in deinen 2Jahre wo uns die Hersteller dann fluten werden mit OLED 8K und DP2.0 dann ist doch ok,für de Mittelschicht wirds dann aber dunkel wenns so weiter geht.
 
Zuletzt bearbeitet:
Ernst gemeinte Frage:
Werden aktuelle Monitore, die ja verständlicherweise DP 1.4 spezifiziert sind, vom neuen 2.0 Standard profitieren können? (an ieiner DP2.0-GraKa)
Du willst anscheinend partout nicht über das Stöckchen springen, dass die allermeisten Monis nie auch nur in die Nähe der jeweils aktuellen Übertragungsbandbreite kommen.
Und wenn doch, heult sich der passionierte Gamer mit 300Hz und ohne Luft zu holen über den Fluch stotternder GraKas aus.
Aber auf die Idee, dass das Sync-Loch für ein wenig Luft im Übertragungsstrom sorgt, kommt er nicht. Egal was der Moni an Bandbreite zu reissen vermag, es ist immer die GraKa, die den Flaschenhals definiert.
Die Dinger -dito zu blood- verbrauchen, na sagen wir wie es ist: vernichten, eh zuviel Strom.
 
fakt ist, soll kommen was es wolle, den der verbraucher entscheidet immer am ende !!!
 
Erstmal werden de Fossilien wiederbelebt TN und FullHD*hust.
Wenn dann die verstaubten Panels die noch im Keller gefunden wurden,verarbeitet wurden,dann erbarmt sich eventuell mal einer und bringt nen Fortschritt.

500000Hz vk sich halt besser als OLED und 8K.
Der Monitormarkt läuft etwas anders ab als der TV Markt.
 
Du willst anscheinend partout nicht über das Stöckchen springen, dass die allermeisten Monis nie auch nur in die Nähe der jeweils aktuellen Übertragungsbandbreite kommen.
Und wenn doch, heult sich der passionierte Gamer mit 300Hz und ohne Luft zu holen über den Fluch stotternder GraKas aus.
Aber auf die Idee, dass das Sync-Loch für ein wenig Luft im Übertragungsstrom sorgt, kommt er nicht. Egal was der Moni an Bandbreite zu reissen vermag, es ist immer die GraKa, die den Flaschenhals definiert.
Die Dinger -dito zu blood- verbrauchen, na sagen wir wie es ist: vernichten, eh zuviel Strom.
so sieht Bandbreitenlimitierung aus
2.jpg
es ist nicht möglich auf 10Bit umzustellen
1.jpg
10Bit gehen bis 120Hz

Die Frage ist immer noch; wird es mit DP 2.0 GPU möglich sein 144Hz 10Bit anzusteuern oder brauche ich dafür einen neuen Monitor aus der Zukunft mit DP 2.0?
 
Räusper, also der erste sowie letzte als auch einziger taugliche Post übers Topic-Device war von @villaiNs.:wink:
Das war der Post #2.
Alles danach, inkl. meines eigenen Zeugs, ist für den Thread, gelinde gesagt, unnütz.

Wer also ausgerechnet hier den Thread betritt: Lies den Monitest und vielleicht noch den Post #2 und dann ströber woanders weiter.
 
Zuletzt bearbeitet:
Ich verstehe die ganze Bandbreiten-Diskussion nicht. Dank DSC reicht DP1.4 die nächsten Jahre mehr als aus.
Ich zitiere die Wikipedia: Durch DSC ist DisplayPort 1.4 in der Lage, 8K UHD (7680 × 4320 Pixel) mit 60 Hz und mit 10 Bit HDR Video[10] bzw. 12 bit wiederzugeben. Für 4K UHD (3840 × 2160 Pixel) und 12 Bit-HDR sind Bildwiederholungsraten bis 240 Hz möglich.

 
Ich verstehe die ganze Bandbreiten-Diskussion nicht. Dank DSC reicht DP1.4 die nächsten Jahre mehr als aus.
Ich zitiere die Wikipedia: Durch DSC ist DisplayPort 1.4 in der Lage, 8K UHD (7680 × 4320 Pixel) mit 60 Hz und mit 10 Bit HDR Video[10] bzw. 12 bit wiederzugeben. Für 4K UHD (3840 × 2160 Pixel) und 12 Bit-HDR sind Bildwiederholungsraten bis 240 Hz möglich.

Ja und nein. Dank DSC sieht HDR wie S* aus, denn es braucht volle 10Bit.

Räusper, also der erste sowie letzte als auch einziger taugliche Post übers Topic-Device war von @villaiNs.
:wink:

Das war der Post #2.
Alles danach, inkl. meines eigenen Zeugs, ist für den Thread, gelinde gesagt, unnütz
Das Topic wurde tatsächlich zweckentfremdet. Weil auf einfache Fragen zusammenhanglose Antworten kamen. Sag doch das nächste mal einfach; ich weiß es nicht.
 
Ja und nein. Dank DSC sieht HDR wie S* aus, denn es braucht tatsächlich volle 10Bit
Belege? DSC hat keine sichtbare Auswirkung auf das Bild und selbst Vince von HDTV-Test sagt, dass das Dithering von 8-Bit (was nichts mit DSC zu tun hat übrigens) so gut ist, dass sich 10-Bit nicht lohnen.
10/12-Bit wird in meinen Augen erst Sinn machen, wenn wir eine Helligkeitsdynamik von 10.000Nits haben, da braucht es dann wirklich mehr Abstufungen. Nicht für die 500Nits üblicher Displays.
 
@SynergyCore sag,was ist los :confused:? Da ist ein matter Moni im Test und Du schimpst nicht gleich los wie ein Rohrspatz?
Das ist doch d i e Steilvorlage für Dein One-And-Only-Mantra, dem glossy-Display.
Sag, fühlst Du Dich heut' nicht so recht?:lol:


Sag doch das nächste mal einfach; ich weiß es nicht.
Na okay: Du weißt es nicht.🤪 Zufrieden?
 
Zuletzt bearbeitet:
@fullHDade
Wozu, irgendwann wirds doch langweilig und es ändert sich doch sowieso nicht. Hab jetzt einen Fernseher, der ist glossy und ich bin zufrieden.
Das Thema bei jedem Monitorthread neu aufzurollen ist einfach nur Zeitverschwendung.
 
Belege? DSC hat keine sichtbare Auswirkung auf das Bild und selbst Vince von HDTV-Test sagt, dass das Dithering von 8-Bit (was nichts mit DSC zu tun hat übrigens) so gut ist, dass sich 10-Bit nicht lohnen.
10/12-Bit wird in meinen Augen erst Sinn machen, wenn wir eine Helligkeitsdynamik von 10.000Nits haben, da braucht es dann wirklich mehr Abstufungen. Nicht für die 500Nits üblicher Displays.
DP 1.4 triggert mich seit ich den Moni habe. Ich denke mir jedes mal –egal wie glücklich ich damit bin– hätte warten sollen bis DP 2.0 Release. Schwamm drüber. LG ist so oder so geil...
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh