hdr effekte nur 30 frames?

Hitman_91

Enthusiast
Thread Starter
Mitglied seit
11.03.2007
Beiträge
667
Wenn ich in CSS z.b. Dust2 spiele, habe ich durch und durch 60 frames (weil mein tft halt auf 60 herz läuft;) ). Wenn ich jetzt ein Match auf Dust starte, bekomme ich immer nur 30 frames hin, wenn ich hdr aktiviere, da kann ich machen was ich will, es bleiben immer genau 30 frames. Dieses Phänomehen stelle ich auch bei hl2 lost coast fest. woran liegt das? kann ich iergendwie einstellen, das ich trotz hdr mit 60 frame spiele, oder geht meiner graka da einfach nur die Puste aus?


Mein System:
Intel core 2 dou e6300
MSI P6N SLI-FI
Ati radeon x1950gt
1024 ddr2 ram pc-800 von geil
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das heisst das die fps unter 60 liegen und deswegen, weil du VSync an hast, halbiert werden.

Aber das System sollte mehr schaffen.
 
im ccc hier ausmachen
ccc
 
Wenn ich in CSS z.b. Dust2 spiele, habe ich durch und durch 60 frames (weil mein tft halt auf 60 herz läuft;) ). Wenn ich jetzt ein Match auf Dust starte, bekomme ich immer nur 30 frames hin, wenn ich hdr aktiviere, da kann ich machen was ich will, es bleiben immer genau 30 frames. Dieses Phänomehen stelle ich auch bei hl2 lost coast fest. woran liegt das? kann ich iergendwie einstellen, das ich trotz hdr mit 60 frame spiele, oder geht meiner graka da einfach nur die Puste aus?


Mein System:
Intel core 2 dou e6300
MSI P6N SLI-FI
Ati radeon x1950gt
1024 ddr2 ram pc-800 von geil

Weder Dust noch Lost Coast haben HDR.
 
nein kein wirklichen "echtes" hdr hat afaik 16bit und das bei der source engine hat nur 8bit (desshalb haben auch nvidia karten der 7er serie keine probs damit obwohl sie es bei oblivion nicht können)
 
Die Engine kann halt nen FP8 HDR-Verschnitt berechnen..
Wurde damals so gemacht, weil man mit ATI nen Vertrag hatte, die aber kein FP16 darstellen konnten.
Mittlerweile ists ja wayne ;)

Aber @ Topic:
Das Vsync sollte die Problemlösung sein, war bei mir auch so, wenn der die Zielframerate (=Hertzzahl des Monis) nicht erreicht, dann halbiert er -.-
 
nein kein wirklichen "echtes" hdr hat afaik 16bit und das bei der source engine hat nur 8bit (desshalb haben auch nvidia karten der 7er serie keine probs damit obwohl sie es bei oblivion nicht können)

Wieso sollen die bei HDR Probleme haben? ich möchte nur einmal daran erinnern, dass Nvidia vor Ati HDR konnte ;) Auch meine 6800GS schon...
 
Weil die gesamte G7x-Serie HDR nicht zusammen mit AA darstellen kann.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh