Aktuelles

[Sammelthread] IPS-Monitore mit 144 Hz und 1440p

txcLOL

Semiprofi
Mitglied seit
06.04.2013
Beiträge
2.324
Ort
Berlin
Öhm? Was ist daran schwer? Im Crossfire? Das ist doch läppisch für die beiden Karten...
Ist mir schon klar. Aber ich glaube kaum, dass deine CPU in, Zitat, jedem Game immer konstant über 90 FPS bringt. Außer du hast einen Wunder-4670k. Aber auch wenn ich die Aussage nicht ganz teile, kann ich trotzdem verstehen, dass du den Monitor nicht willst, hätte für mich auch einen Beigeschmack.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

JtotheK

Enthusiast
Mitglied seit
28.11.2007
Beiträge
16.703
Ort
NRW
System
Details zu meinem Desktop
Prozessor
AMD Ryzen 1800X
Mainboard
Asus ROG Strix X370-I Gaming
Kühler
Noctua NH-U12S AM4
Speicher
G.Skill Trident Z RGB 3600MHz
Grafikprozessor
Asus ROG Strix GTX 1080
Display
Asus ROG PG279Q
SSD
Samsung 960 Evo M.2 250GB
Soundkarte
AudioEngine D1 DAC
Gehäuse
Cooler Master Mastercase SL600M
Netzteil
Seasonic Prime Titanium 650W
Keyboard
Razer Huntsman Tournament Edition
Mouse
Razer Naga Trinity
Betriebssystem
Windows 10
Webbrowser
Google Chrome
Sonstiges
Google Pixel 4 XL
Naja.. Auf 4,5GHz produziert der schon kräftig FPS :)

In allen Spielen die mich interessieren habe ich sehr hohe FPS :d
 

nyctalus

Neuling
Mitglied seit
07.04.2015
Beiträge
30
Das ergibt für mich keinen Sinn was er da erzählt. Jemand ne Idee, was der Typ meint, wenn er von diesen Stufen (30-60-90-120) spricht?
Klingt für mich danach als hätte er versucht, die Thematik zu sehr zu vereinfachen und versteht jetzt selber nicht mehr genau was er da eigentlich sagt ;)

Hier nochmal eine bessere Erklärung für das, was ich vorhin schon versucht habe klarzumachen:

There is however a more fundamental problem with enabling VSync, and that is it can significantly reduce your overall framerate, often dropping your FPS to exactly 50% of the refresh rate. This is a difficult concept to explain, but it just has to do with timing. When VSync is enabled, your graphics card becomes a slave to your monitor. If at any time your FPS falls just below your refresh rate, each frame starts taking your graphics card longer to draw than the time it takes for your monitor to refresh itself. So every 2nd refresh, your graphics card just misses completing a new whole frame in time. This means that both its primary and secondary frame buffers are filled, it has nowhere to put any new information, so it has to sit idle and wait for the next refresh to come around before it can unload its recently completed frame, and start work on a new one in the newly cleared secondary buffer. This results in exactly half the framerate of the refresh rate whenever your FPS falls below the refresh rate.
Quelle: TweakGuides.com - Gamer's Graphics & Display Settings Guide

(Anmerkung: Dort ist die Rede von Double Buffering. Aber auch Triple Buffering ändert nichts an diesem Grundproblem. Es sorgt nur dafür, dass die Grafikkarte in der Wartezeit zwischen den Frames nicht tatenlos dastehen muss, sondern sie kann im zusätzlichen, dritten Buffer schon das nächste Bild rendern. An der Tatsache, dass der Monitor immer genau gleich viele Millisekunden lang ein Frame anzeigt, ändert das aber auch nix...)

Fazit: Stufen wie der Typ in dem Video es erklärt, gibt es in der Form nicht.
 
Zuletzt bearbeitet:

Bob.Dig

Urgestein
Mitglied seit
10.05.2007
Beiträge
14.811
Ort
Capital City 🇩🇪
System
Details zu meinem Desktop
Prozessor
AMD Ryzen 9 3900X
Mainboard
ASRock B450M Pro4
Kühler
Noctua NH-D15 👍
Speicher
Crucial Ballistix Sport LT 32 GB
Grafikprozessor
ASUS ROG Strix GeForce GTX 1070
Display
Acer XB270HU
SSD
Samsung SSD 970 EVO Plus 500GB 👍
Soundkarte
Realtek ALC892
Gehäuse
Jonsbo U5 👍
Netzteil
Cooler Master V-Series V550
Keyboard
Logitech K800 Wireless
Mouse
Glorious Model O 👎 (nach 6 Monaten defekt), Cooler Master MM710 👎 (extrem klappriges Mausrad)
Betriebssystem
Microsoft Windows 10 (2004)
Sonstiges
pfSense
Ich denke es kommt auf die Art des Puffers an, der Tripple Buffer kann die Maximalfrequenz in drei Teile aufteilen. Wenn Du 2 von 3 Frames rendern kannst, dann kann das so auch ausgeben werden, sprich bei 120Hz und bei 93 Frames wäre die effektive Ausgabe 80 Frames. Wäre zumindest ein Ansatz der Erklärung. ;)
Bei Tripple Buffer ist der Delay natürlich noch größer als beim Double Buffer.
 
Zuletzt bearbeitet:

Smagjus

Experte
Mitglied seit
10.10.2013
Beiträge
1.676
Ich klink mich mal ein:
Wenn bei Vsync zwischenzeitlich 90 frames die Sekunde auf dem Schirm gezeigt werden sollen, dann hätte man doch automatisch Tearing. Der Bildschirm kann schließlich nicht die Bildwiederholrate an die 90 FPS anpassen. Von Vsync mit Tearing habe ich aber bisher nichts gehört. Wie kommt das also hin?
 

nyctalus

Neuling
Mitglied seit
07.04.2015
Beiträge
30
Ich denke es kommt auf die Art des Puffers an, der Tripple Buffer kann die Maximalfrequenz in drei Teile aufteilen. Wenn Du 2 von 3 Frames rendern kannst, dann kann das so auch ausgeben werden, sprich bei 120Hz und bei 93 Frames wäre die effektive Ausgabe 80 Frames. Wäre zumindest ein Ansatz der Erklärung. ;)
Bei Tripple Buffer ist der Delay natürlich noch größer als beim Double Buffer.
Hm ja, ich muss zugeben, mit Triple Buffering ist es tatsächlich nicht so einfach, wie ich es zuerst dargestellt hab :d

Das ist allerdings immer noch keine Erklärung für die Stufen 30-60-90-120, aber ok... Eigentlich ist die Grafikkarte bei Triple Buffering doch permanent ausgelastet, die effektive Framerate die man bekommt, müsste damit exakt der entsprechen, die die Grafikkarte auch liefern kann. Unabhängig von der Frequenz des Monitors... oder nicht? Wo ist hier mein Denkfehler?

Also zum einfacheren Rechnen, gehen wir mal von einem Monitor mit 100 Hz aus, also 10 Millisekunden pro Frame.

Angenommen die Grafikkarte liefert jetzt aber nur 90 fps, dann kann der Monitor doch immer noch bei 9 von 10 Refreshes ein neues Bild zeichnen, oder nicht? Nur jedes zehnte Frame muss der Monitor für 20 statt 10 ms anzeigen, damit die Grafikkarte "aufholen" kann.
Das heißt, wir haben am Ende eine effektive Framerate von exakt 90 fps... oder habe ich hier einen Denkfehler?


Der Bildschirm kann schließlich nicht die Bildwiederholrate an die 90 FPS anpassen.
Mit FreeSync bzw. G-Sync kann er genau das.
 
Zuletzt bearbeitet:

nyctalus

Neuling
Mitglied seit
07.04.2015
Beiträge
30
Nein es geht darum, wie sich Double Buffering und Triple Buffering bei klassischem V-Sync ohne Free- oder G-Sync verhält. (Bzw. auch bei Free- oder G-Sync-Monitoren, wenn die Grafikkarte eine Framerate liefert, die außerhalb des für den Monitor darstellbaren Bereichs liegt.)
 

Bob.Dig

Urgestein
Mitglied seit
10.05.2007
Beiträge
14.811
Ort
Capital City 🇩🇪
System
Details zu meinem Desktop
Prozessor
AMD Ryzen 9 3900X
Mainboard
ASRock B450M Pro4
Kühler
Noctua NH-D15 👍
Speicher
Crucial Ballistix Sport LT 32 GB
Grafikprozessor
ASUS ROG Strix GeForce GTX 1070
Display
Acer XB270HU
SSD
Samsung SSD 970 EVO Plus 500GB 👍
Soundkarte
Realtek ALC892
Gehäuse
Jonsbo U5 👍
Netzteil
Cooler Master V-Series V550
Keyboard
Logitech K800 Wireless
Mouse
Glorious Model O 👎 (nach 6 Monaten defekt), Cooler Master MM710 👎 (extrem klappriges Mausrad)
Betriebssystem
Microsoft Windows 10 (2004)
Sonstiges
pfSense
Eigentlich ist die Grafikkarte bei Triple Buffering doch permanent ausgelastet, die effektive Framerate die man bekommt, müsste damit exakt der entsprechen, die die Grafikkarte auch liefern kann. Unabhängig von der Frequenz des Monitors... oder nicht? Wo ist hier mein Denkfehler?

Also zum einfacheren Rechnen, gehen wir mal von einem Monitor mit 100 Hz aus, also 10 Millisekunden pro Frame.

Angenommen die Grafikkarte liefert jetzt aber nur 90 fps, dann kann der Monitor doch immer noch bei 9 von 10 Refreshes ein neues Bild zeichnen, oder nicht? Nur jedes zehnte Frame muss der Monitor für 20 statt 10 ms anzeigen, damit die Grafikkarte "aufholen" kann.
Das heißt, wir haben am Ende eine effektive Framerate von exakt 90 fps... oder habe ich hier einen Denkfehler?
Ich denke es kommt eher auf den Buffer an, beim tripple Buffer kann er 2 von 3 Bildern machen in deinem Beispiel. Mit Double Buffering könnte er 1 von 2 Bildern machen.

Aber im Endeffekt weiß ich dass ich nichts weiß. ;)

Wird Zeit dass es ein paar Monitore zu kaufen gibt.
 
Zuletzt bearbeitet:

Rockonnumark

Neuling
Mitglied seit
02.08.2014
Beiträge
67
So hab um kurz nach 9 Uhr mein Acer xb270hu bekommen, von Computeruniverse. Es ist jetzt mittlerweile mein 5 Gerät. 4 x von Alternat, alle 4 konnte man dank BLB in die Tonne hauen. Nummer 5 besitzt auch BLB, jedoch nur unten in der rechten Ecke, das sehr schwach ausgepärgt ist. Man erkennt es ganz leicht, bei Dunkelheit und entsprechenden Spielen. Es ist hier aber so dass ich sage, das dass absolut ok ist und nicht stört. Selbst nach 2 std. Spielen keine Veränderung des BLB. Pixelfehler gibt es auch keine. Mein Gerät ist von März 2015. Wenn alle so wären wie dieses dann wäre die Qualität absolut ok, es gibt also noch Hoffnung, vielleicht hat ja Acer schon was an seiner Herstellungprozess getan.
 

Kurry

Experte
Mitglied seit
29.03.2011
Beiträge
6.699
Ort
NRW
Ich glaube nicht, dass Acer was daran getan hat. Jedenfalls hab mit einem Kundenberater gesprochen, der mir recht kompetent schien. Da klang es nicht so, dass der Bildschirm große Rückläuferzahlen hat.

Wegen uns paar Usern hier wird der Herstellungsprozess auch sicher nicht so schnell geändert.
 

Driveclub

Neuling
Mitglied seit
20.03.2015
Beiträge
122
Ort
München
So, ich habe heute meinen Acer Predator XB270HUbprz bekommen, vor dem ich gerade sitze. :)

Ich habe ein paar Spiele ausprobiert und bin quasi noch dabei, das Bild gefällt mir auf jeden Fall meist gut.

Hat jemand noch Einstellungs-Tipps für mich? Ist bei mir alles noch auf den Standard-Einstellungen. =)

MfG
 

Driveclub

Neuling
Mitglied seit
20.03.2015
Beiträge
122
Ort
München
Danke dir. :) Die probiere ich jetzt mal aus.

Kann mir jemand sagen, warum sowohl bei Windows, als auch im Catalyst Control Center (Ja, ich habe noch AMD Karten^^) und im Menü vom Acer eine maximale Bildrate von höchstens 120Hz angegeben wird?

Edit: Auf dem Desktop kann ich grundsätzlich nur 60Hz auswählen, in der Konfiguration, wie ich sie habe. (Mein PC steckt zusätzlich über HDMI am AV-Receiver, wo der Sound ausgegeben wird.)
Solange das das Spielerlebnis aber nicht beeinträchtigt, soll es mir recht sein...
 
Zuletzt bearbeitet:

CeresPK

Enthusiast
Mitglied seit
02.05.2009
Beiträge
1.466
Ort
Wartburgstadt Eisenach
das Problem habe ich auch schon im Swift Thread gelesen.
AMD Karten können wohl seit irgend einem Treiberupdate nur noch 120Hz max.

vlt könntest du ja mal ne Benutzerdefinierte Auflösung erstellen wenn das bei AMD geht?
 

Driveclub

Neuling
Mitglied seit
20.03.2015
Beiträge
122
Ort
München
Geht nicht, soweit ich das verstehe. Zumindest nicht mit 144Hz.

Ich hab' den Monitor per DisplayPort an der Grafikkarte hängen und von der Grafikkarte ein HDMI-Kabel zu meinem AV-Receiver, der auch am Fernseher hängt.
Aber jedes mal, wenn ich am Fernseher von der Quelle, an der der AVR hängt, weg schalte, wird komischerweise der Fernseher auf einmal zum "Hauptbildschirm".
Auch, wenn der Acer als Hauptmonitor angegeben ist.

Ich möchte meinen Fernseher an sich nicht für den PC nutzen. Nur der Sound wird über den AVR ausgegeben...
Bisher hat das auch funktioniert, mit meinem Samsung Monitor (U28D590D), der ebenfalls über DisplayPort verbunden war.
 

X Cellence

Experte
Mitglied seit
04.07.2012
Beiträge
1.555
Du kannst bei mehreren Bildschirmen(Klonen) immer nur die Frequenz nutzen des langsamsten Bildschirm.HDMI kann max. 60Hz also werden dir beim Acer auch nur 60Hz auswählen auch wenn der HDMI Bildschirm gar nicht an ist. Ist jedenfalls nei Nvidia so und wird bei AMD nicht anders sein.
 

Driveclub

Neuling
Mitglied seit
20.03.2015
Beiträge
122
Ort
München
Dann habe ich jetzt ein echtes Problem! Weil ich den Sound vom PC dann nicht mehr über den AVR ausgeben kann, bzw. wenn, dann kann ich keine 120Hz einstellen.

Das ist ziemlich peinlich...

Wenn ich statt duplizieren erweitern auswähle, ist die Sache dann eine andere?
So hatte ich es auch zuvor, aber mein Samsung Monitor und der Fernseher (Samsung UE65HU8200) können halt sowieso beide nur 60Hz.
 
Zuletzt bearbeitet:

X Cellence

Experte
Mitglied seit
04.07.2012
Beiträge
1.555
Warum überhaubt HDMI? Warum nicht mit einem coax oder optischen Kabel direkt von der Soundkarte aus? Hab ich jedenfalls so immer gemacht.
 

Driveclub

Neuling
Mitglied seit
20.03.2015
Beiträge
122
Ort
München
Hm ok, aber ist Onboard-Sound nicht von wesentlich schlechterer Qualität? Am AVR hängt ein 5.1 System...

PS: Wenn, dann bräuchte ich ein Kabel mit 8-10 Meter Länge :d (Das HDMI Kabel von der Graka zum AVR hat 10M.)
 
Zuletzt bearbeitet:

X Cellence

Experte
Mitglied seit
04.07.2012
Beiträge
1.555
10m Kabel hatte ich auch dran. Das ist auch nicht mehr so teuer, sollte klappen.
Das ist nicht völlig egal mit dem Soundkarte, Onboardsound schleift das Signal nur duch das stimmt aber ich konnte mit meiner teuren Creative Karte noch Effekte und Filter einbauen die den Sound nochmal deutlich verbessert haben.

Also den miesen Onboardsound hast du nicht das wird nur durchgeschleift und der AVR übernimmt das berechnen und die Ausgabe aber mit guten Markensoundkarten kannst du noch gut was rausholen.

Aber mach doch erstmal das HDMI Kabel ab von der Karte und guck dann ob 120/144Hz funzen.Wenn ja gehste halt über den optischen Kabel an den AVR.
 

Driveclub

Neuling
Mitglied seit
20.03.2015
Beiträge
122
Ort
München
120Hz gehen, 144 nicht. Könnte evtl. mit den AMD Grafikkarten zu tun haben. (Was ich echt assi fände.)

Jedenfalls ist mir noch nicht richtig klar, wann das mit den 120Hz überhaupt klappt.

Ich habe vorhin schon bei GTA 5 120Hz eingestellt gehabt, was auch wunderbar funktioniert hat.
Dann habe ich später in den Windows Einstellungen wohl etwas verändert, worauf er mich dann später in GTA 5 plötzlich nicht mehr auf 1440p hoch gelassen hat, nur noch 1080p.

Irgendwie ist das seltsam... Vorher ging es doch auch. Und ich habe irgendwo gelesen, dass das gehen soll, dass ich über eine Grafikkarte an einen Monitor das Bild mit 60 und an einem anderen mit 120Hz ausgebe.

Aber jetzt bin ich total verwirrt, dabei ist die Konfig. genau gleich, wie mit meinem alten Monitor. :S :d
Hab' nur eben das DP Kabel benutzt, welches dabei war.

Ahja, wichtig... Ich glaube, ich hatte da weiter oben schon mal was erwähnt, jedenfalls sobald ich meinen Fernseher ausschalten oder auf eine andere Quelle einstellen möchte (z. B. Fernsehen und nebenbei am PC sitzen), als wo der PC angeschlossen ist (bzw. das HDMI Kabel vom AVR), wechselt der Acer vom "aktiven" in den "passiven" Monitor.
Obwohl ich ja in Windows (btw. ich nutze die Windows 10 Preview) den Acer als Hauptmonitor konfiguriert habe und was bringt es mir, wenn der Fernseher bzw. AVR dann zum Hauptmonitor wechselt, wenn ich den TV ausschalte? ... Ich sehe da absolut keine Logik. :d

Sorry, wenn ich das vielleicht etwas wirr formuliert habe, aber mir mangelt es etwas an Schlaf. xD
 
Zuletzt bearbeitet:

webmi

Enthusiast
Mitglied seit
27.02.2013
Beiträge
14.699
schon von dem curved 32" (oder 34") acer mit 3800x1440 bei 75hz mit gsync gehört? könnte ich fast schwach werden. ein paar hz mehr und ich werde defintiv schwach. das ultra breite bild, dabei keine einbußen an bildschirmhöhe, gsync. jetzt noch 120hz und ein schnelles panel und ich kauf einen.
 

Kurry

Experte
Mitglied seit
29.03.2011
Beiträge
6.699
Ort
NRW
schon von dem curved 32" (oder 34") acer mit 3800x1440 bei 75hz mit gsync gehört? könnte ich fast schwach werden. ein paar hz mehr und ich werde defintiv schwach. das ultra breite bild, dabei keine einbußen an bildschirmhöhe, gsync. jetzt noch 120hz und ein schnelles panel und ich kauf einen.
Jo, der XR341CK wurde schon vor geraumer Zeit angekündigt!

Klingt definitiv sehr interessant für Gaming. Office und surfen stelle ich mir nicht so geil vor. Außerdem wird da die IPS Problematik nochmal größer als sie jetzt schon ist.... Dazu noch ein guter vierstelliger Preis!

Der XB270HU stellt in meinen Augen ein Optimum dar. Darum fiel die Entscheidung zwischen den beiden Bildschirmen recht schnell.
 

Lixi123

Enthusiast
Mitglied seit
27.07.2009
Beiträge
3.957
System
Details zu meinem Desktop
Prozessor
i7 5820k
Mainboard
MSI X99A SLI PLUS
Kühler
be quiet! Silent Loop 280
Speicher
32GB Kingston DDR4-2666
Grafikprozessor
GTX 1070
Display
Acer XB270HU
SSD
1TB Samsung Evo 840
Soundkarte
SoundBlaster ZxR
Gehäuse
Fractal Design Define S
Netzteil
Corsair RM1000i
Keyboard
Logitech G610
Mouse
Logitech G900
Betriebssystem
Win 10
Webbrowser
Chrome
Sonstiges
Google Pixel 4
Internet
▼ 200 ▲ 20
@Driveclub
AMD Karten haben so ihre Problemchen mit dem Predator (und auch mit dem ROG Swift). Habe eine kleine Odysee hinter mir.

144Hz gehen mit dem aktuellen Beta Treiber via DP offenbar nicht mehr. Das hat auch einen Grund. Vorher gab es eine tolle Flimmerparade bei 144Hz.

http://youtu.be/KXZTmgaleAk

Falls du WoW spielst, teste das mal.
 

Rockonnumark

Neuling
Mitglied seit
02.08.2014
Beiträge
67
das icc profil fuer den acer hat das noch jemand ausprobiert? Wo wird das geladen, in den farbeinstellungen?
 
Zuletzt bearbeitet:
Oben Unten