Corsair Xeneon Flex 45WQHD240: Krummes oder flaches OLED

Thread Starter
Mitglied seit
06.03.2017
Beiträge
69.366
corsair_2022.jpg
Nachdem Corsair im letzten Jahr in den Monitor-Markt eingestiegen war und damit endgültig den Weg zum Vollsortimenter für Gaming-Komponenten einschlug, hat man zur heute gestarteten Gamescom 2022 in Köln eine echte Neuheit parat, die es in sich hat. So stellte man in Zusammenarbeit mit LG den Xeneon Flex 45WQHD240 vor, einen OLED-Gaming-Monitor mit individuell anpassbarer Krümmung.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Oled ist was reaktionszeit anfeht wirklich eine messlatte die ihresgleichen sucht.
 
Was das einbrennen angeht auch.
Wir haben nocht mehr 2012. Zumal es auch billig panele gibt, die da deutlich empfindlicher sind als qualitätsprodukte. Wir werden es ja dann eh sehen. Solange man jedoch sein spiel nichr 5 tage im dauerbetrieb, unangerührt laufen lässe, habe ich persönlich da kaim bedenken.
 
Das wäre ein Monitor für mich.

 
Da bin ich auf die Testberichte gespannt, von den groben Spezifikation geht es schon sehr nach meinen Geschmack.

Schön wäre es, wenn sich die Griffe versenken lassen würden.
 
Wird vermutlich nicht gerade günstig werden. Da wären mir einfachere Modelle mit OLED Panel lieber. Ein 27-32 Zoll 1440p 144 Hz OLED unter 500€ wäre doch ein Traum.
 
FInde die Option an sich halt gut, zusätzlich werden Monitore auch immer mehr Schnittstelle für Peripherie, was ebenso gut ist.

2 von den Dingern übereinander und ab die Post.
 
Ich -wahrlich kein Freund breiter oder/und gecurvter Monis- finde das Teil höchst interessant.
Es passt zwar nicht zu in meinem Usecase, aber der gezeigte Moni ist ja nur das erste (Serien-)Modell seiner Art.

Vielleicht ist der biegbare Moni nicht mehr als ein weiterer Holzweg auf dem Fortschrittsweg -ein Strohfeuer von dem bald niemand mehr redet…
aber vielleicht bereitet die OLED-Technologie den Weg in eine bisher nicht gekannte Moniwelt.
Die Specs des Displays -also z.B Solution, g2t und auch der Endkundenpreis- sind mir dabei vollkommen wayne.
Der für mich ist der interresante Aspekt ist die Mechanik des Monirahmens und nicht die schnöde Spec-Liste des Displays, mit ihren immer gleichen Höher-Schneller-Weiter-Werbesprech-Worthülsen.
 
Zuletzt bearbeitet:
Prototype laut @bauer
Teil kommt Anfang 2023 auf dem Markt!




Wäre 3840 x 1600 würde sichs weitaus besser lohnen!
 
Zuletzt bearbeitet:
Das Ding bräuchte 5120x2160, dann wäre es porentiell ein "Shut up and take my money" Monitor für mich.

Aber 3440x1440 in 45" sind 84 ppi, diesen Pixelbrei Müll können sie behalten.
 
Aber 3440x1440 in 45" sind 84 ppi, diesen Pixelbrei Müll können sie behalten.
Ein -wie ich beobachtet habe- verbreiteter Käufer-Reflex:
Stellt das 'das-hat-die-Welt-noch-nicht-gesehen-Konsumgut' nicht ausnahmslos alle! vorherigen Specs locker in den Schatten, isses Müll.
Typische weitere Varianten der Pixelbrei-Haltung lauten: 'kriech ich volle Pulle Augnkrebz fonn' oder auch 'braucht kein Mensch'.

Ich könnte mir vorstellen, das die (für 2022) geringe Auflösung bzw. ppi mit der mechanischen Verformbarkeit zusammen hängt.
Aber naja, wen schert schon technische Machbarkeit, das Ding hat gefälligst daherzukommen wie's meiner Phantasie 'grad entspringt.
 
Zuletzt bearbeitet:
was soll das denn ? kannste direkt in die tonne hauen das ding. steuerung am monitor bitte und nicht am fuß.

zur not per fernbedienung aber das ist wirklich crap

1661447993394.png


1661447709914.png


sieht ja klasse aus beim max curved.

schön wellig. hält 3 monate dann isser kaputt.

1661448086617.png
 
Zuletzt bearbeitet:
Bin hier auch erstmal auf vernünftige Tests gespannt, wie gut das Ding letztlich wirklich wird.

Für mich aber wieder ein absolutes Failprodukt, weil nur 3440x1440 Pixel gezeigt werden können und das ist bei ganzen 45 Zoll nicht mal mehr ein schlechter Witz, sondern einfach nur eine Beleidigung. Das ist ein ähnlich schlechtes bzw. unscharfes Bild wie 1080p auf einem 27 Zoll Monitor und wer das Mal gesehen hat, weiß dass es absoluter Schwachsinn ist. Soweit kannst dich als PC Nutzer gar nicht wegsetzen, damit es einigermaßen scharf aussieht.

Keine VESA Unterstützung und die Anschlüsse unten am Fuß geben einem dann halt noch den Rest.
 
Ich sehe sowas immer als Machbarkeitsstudie und möglichen Fortschritt, denn ohne derartige Versuche wird sich nie etwas ändern., selbst wenn die meisten Versuche fehl schlagen.
 
Zuletzt bearbeitet:
Ist es wirklich so schwer einfach ein 32" 4k 144hz oled panel zu bauen?

So wie ich das damals gelesen habe, ist nicht die Pixeldichte an sich das Problem sondern die Hitzeentwicklung. Dahingehend halt auch die Haltbarkeit.
 
Und dann einen PC der an einem eigenen Kraftwerk angeschlossen ist.

Aber vielleicht reicht dann ja eine 4090 TI bei allem auf min.
facepalm.PNG


Herr lass Hirn regnen....

Ich habe meinen Acer X34 jetzt seit 7 Jahren.
Dieser wurde seit dem Kauf von einer 780Ti, 980Ti, 1080Ti und derzeit von einer 3080 Ti befeuert.
Und weißte was? Die 780Ti war in 2015 mehr als stark genug um die Spiele der damaligen Zeit in 3440x1440 und hohen Settings dazustellen im 60FPS Bereich.

Eine 3080Ti ist bereits ausreichned stark um 4k Spiele der heutigen Zeit in hohen FPS und Details dazustellen, auch dank DLSS & Co.
Warum denkst du also das 30% mehr Pixel als 4k für diese Karte ein Problem sein sollten. Oder für eine 4080, 5080 oder 6080.

Wenn ich mich also entschließe irgendwann meinen X34 in Rente zu schicken (sofern er nicht von selbst irgendwann den Geist aufgibt) dann möchte ich ein fucking großes Update nach 7+ Jahren.
Und das ist mittlerweile nicht noch mal ein 3440x1440 Bildschirm und schon gar nicht mit ner deutlich geringeren PPI :rolleyes:
 
Anhang anzeigen 787536

Herr lass Hirn regnen....

Ich habe meinen Acer X34 jetzt seit 7 Jahren.
Dieser wurde seit dem Kauf von einer 780Ti, 980Ti, 1080Ti und derzeit von einer 3080 Ti befeuert.
Und weißte was? Die 780Ti war in 2015 mehr als stark genug um die Spiele der damaligen Zeit in 3440x1440 und hohen Settings dazustellen im 60FPS Bereich.

Eine 3080Ti ist bereits ausreichned stark um 4k Spiele der heutigen Zeit in hohen FPS und Details dazustellen, auch dank DLSS & Co.
Warum denkst du also das 30% mehr Pixel als 4k für diese Karte ein Problem sein sollten. Oder für eine 4080, 5080 oder 6080.

Wenn ich mich also entschließe irgendwann meinen X34 in Rente zu schicken (sofern er nicht von selbst irgendwann den Geist aufgibt) dann möchte ich ein fucking großes Update nach 7+ Jahren.
Und das ist mittlerweile nicht noch mal ein 3440x1440 Bildschirm und schon gar nicht mit ner deutlich geringeren PPI :rolleyes:
Wenn es wirklich Hirn regnet, dann duck dich nicht wieder weg.
 
Herr lass Hirn regnen....

Ich habe meinen Acer X34 jetzt seit 7 Jahren.
Dieser wurde seit dem Kauf von einer 780Ti, 980Ti, 1080Ti und derzeit von einer 3080 Ti befeuert.
Und weißte was? Die 780Ti war in 2015 mehr als stark genug um die Spiele der damaligen Zeit in 3440x1440 und hohen Settings dazustellen im 60FPS Bereich.

Eine 3080Ti ist bereits ausreichned stark um 4k Spiele der heutigen Zeit in hohen FPS und Details dazustellen, auch dank DLSS & Co.
Warum denkst du also das 30% mehr Pixel als 4k für diese Karte ein Problem sein sollten. Oder für eine 4080, 5080 oder 6080.

Wenn ich mich also entschließe irgendwann meinen X34 in Rente zu schicken (sofern er nicht von selbst irgendwann den Geist aufgibt) dann möchte ich ein fucking großes Update nach 7+ Jahren.
Und das ist mittlerweile nicht noch mal ein 3440x1440 Bildschirm und schon gar nicht mit ner deutlich geringeren PPI :rolleyes:

Schonmal auf die Idee gekommen dass Leute auch die 240Hz ausreizen wollen die der Corsair bietet? Da wirds selbst mit einer 3090Ti aktuell eng wenn man nicht alles auf Lowdetail stellen möchte.
 
Ich habe meinen Acer X34 jetzt seit 7 Jahren.
Dieser wurde seit dem Kauf von einer 780Ti, 980Ti, 1080Ti und derzeit von einer 3080 Ti befeuert.
Und weißte was? Die 780Ti war in 2015 mehr als stark genug um die Spiele der damaligen Zeit in 3440x1440 und hohen Settings dazustellen im 60FPS Bereich.
Gegenfrage: Wenn Du der Meinung bist, dass es bereits Deine steinzeitliche 780TI-GraKa vermochte Deinen ebenfalls steinzeitlichen X34-Moni mit hohen FPS und Details zu versorgen…:unsure:
warum hast Du Dir dann so ziemlich jede TI-Folgegeneration zugelegt?:LOL:
Soviel zum Thema 'Herr, lass Hirn regnen'.
Vielleicht ist liegts ja nur an Deinem Drang Geld aus dem Fenster zu werfen. Ein Umstand, denn ich Dir nicht vorwerfe, wie könnte ich. Und genauso verhält sich mit dem Topic-Device. Es ist ein Spielzeug für Early-Adopter;
ein Spielzeug für Leute, die eine Fehlausgabe mit einem müden Achselzucken abtun.

Bei der Beurteilung welcher Moni-Hype gerade durchs Dorf getrieben wird, wenn Dich mal der Monineukauf jucken wird, musst Du Dich ja nicht ausgerechnet an einem Moni abarbeiten, der Deine Sweetspots nicht trifft. Meine Meinung: Die Auswahl ist groß genug nicht zu einem Moni greifen zu müssen, dessen ppi Dir sowieso nicht taugt.
(By the way: Mir auch nicht.)
Ein altes Kischee sagt, dass Frauen Freude empfinden, sich nur vorzustellen etwas zu kaufen=besitzen (Stichwort: Einkaufsbummel), Männer hingegen neigen dazu alles was sie sich nicht leisten können (oder wollen) gnadenlos schlechtzureden.

In Summe: Reg' Dich erst über den aktuellen Stand der Moni-Technologie auf, wenn das dafür benötigte Kleingeld in Deiner Hosentasche klimpert und nicht vorher.
 
Zuletzt bearbeitet:
Neueste Games haben bereits in der 3440 x 1440-er Auflösung nur um die 70 bis 100, vielleicht 110 fps mit einer 6800XT / 3080
und dann lass es mal 20% mehr sein mit der 3090(TI) sein.
Um die 240 Hz auszureizen, dies schafft nicht mal ansatzweise in den Meisten Aktuellen und kommenden Games eine 4090(TI)

Red Dead Redemption II
God of War
Spiderman
... ... ...
 
Zuletzt bearbeitet:
Männer hingegen neigen dazu alles was sie sich nicht leisten können (oder wollen) gnadenlos schlechtreden.
Und kaufen es dennoch^^
Beitrag automatisch zusammengeführt:

Neueste Games haben um die 70 bis 100, vielleicht 110 fps mit einer 6800XT / 3080
und dann lass es mal 20% mehr mit der 3090(TI) sein.
Um die 240 Hz auszuzeizen, dies schafft nicht mal ansatzweise im Generellen eine 4090(TI)

Red Dead Redemption II
God of War
Spiderman
... ... ...
Sollte das kappen, dann wird STALKER wohl einer der GPU Mörder.

Ich fäng biegsame Monitore für die Zukunft super, dann kann man sich das je nach Belang zurecht biegen, gerade mal eben von Officebetrieb zu Multimonitoring ins Spielegeschehen eintauchen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh