Asus Matrix 2 oder 2x Geforce Gtx590 im Quad

@boxleitnerb
Wenn meine beiden GPUs auf 50-60% laufen und ich nur 40 Frames habe in Borderlands 2560x1600 bei allem was geht, dann bedeutet das für mich dass das SLI-Profil nicht wirklich funktioniert. Wenn ich jetzt künstlich solange Auflösung oder BQ dazugebe bis die beiden GPUs 99% laufen, ich aber immer noch 40 FPS habe, dann ist das keine Lösung. sondern nur eine Verlagerung des Problems.

Aber ich scheine jetzt einen Treiber gefunden zu haben der das Problem nicht mehr hat, jedenfalls in dem kurzen Test den ich heute gemacht habe. 60% und 60FPS vsync die ganze Zeit. Es nervt halt nur wenn Du bei sonen Sachen ständig drops in die 30-40 FPS-Regionen hast, dann kommt Dir das Game nämlich ruckeliger vor als würdest Du es nur mit einer Graka zocken^^. Dann kann ich auch gleich dxtory anwerfen und 35 fps einstellen.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@boxleitnerb
Wenn meine beiden GPUs auf 50-60% laufen und ich nur 40 Frames habe in Borderlands 2560x1600 bei allem was geht, dann bedeutet das für mich dass das SLI-Profil nicht wirklich funktioniert. Wenn ich jetzt künstlich solange Auflösung oder BQ dazugebe bis die beiden GPUs 99% laufen, ich aber immer noch 40 FPS habe, dann ist das keine Lösung. sondern nur eine Verlagerung des Problems.

Aber ich scheine jetzt einen Treiber gefunden zu haben der das Problem nicht mehr hat, jedenfalls in dem kurzen Test den ich heute gemacht habe. 60% und 60FPS vsync die ganze Zeit. Es nervt halt nur wenn Du bei sonen Sachen ständig drops in die 30-40 FPS-Regionen hast, dann kommt Dir das Game nämlich ruckeliger vor als würdest Du es nur mit einer Graka zocken^^. Dann kann ich auch gleich dxtory anwerfen und 35 fps einstellen.

Das mach ich eh wegen MR ;)
Hast du den komisch FPS-Begrenzer deaktiviert? Der könnte da sicherlich Einfluss auf die Skalierung haben. Aber gut, wenn es nur ein Treiberproblem war, dann ist ja alles gut.

Siedler 7 ist wirklich hoffnungslos, da geht gar nix.

So, sorry für OT. Kannst ja je PN schicken, wenn noch was ist :)
 
*g*
Ich finde diese Diskussion gehört zum Thema, auch wenn sie eher meine Probleme betriff und nicht die vom TE (der sich sowieso nicht mehr meldet, weil er eh 12 Jahre alt ist und die Kohle für die Hardware von der er da träumt nicht hat^^).



Beispiel für Anno. Genau das gleiche. Und das hast Du schon im Vorspann, 1. Misson zur Kampagne, wo noch gar keine CPU-Last erzeugt wird.

Nvidida macht es geschickt. Während ATI ein CF-Profil liefert dass das Game flackern lässt wie bescheuert verhindert Nvidia das SLI überhaupt aktiviert wird bei den Siedlern.
 
Zuletzt bearbeitet:
Es ist auch oft so, dass der Spieleentwickler da schlampt. Die versäumen es, ihre Spiele multi-gpu fähig zu machen und nachher ist der IHV schuld. Es gibt genug aktuelle Beispiele, wo dies so ist: Witcher 2, Cliffs of Dover, Crysis 2 (Nanovision Flackerbug) und dein Anno. Ein paar davon wurden (bzw. werden noch) per Patch gefixt, immerhin.

Nvidia kann nur soviel machen - wenn der Entwickler nicht mitzieht, bringt das nichts. Für Witcher 2 gibt es übrigens auch ein fehlerhaftes CF-Profil und auch hier hat Nvidia einen Betrieb ohne Grafikfehler der zusätzlichen Performance vorgezogen. Da kann man sich jetzt selbst seinen Teil dazu denken.
 
*g*
Ich finde diese Diskussion gehört zum Thema, auch wenn sie eher meine Probleme betriff und nicht die vom TE (der sich sowieso nicht mehr meldet, weil er eh 12 Jahre alt ist und die Kohle für die Hardware von der er da träumt nicht hat^^).



Beispiel für Anno. Genau das gleiche. Und das hast Du schon im Vorspann, 1. Misson zur Kampagne, wo noch gar keine CPU-Last erzeugt wird.

Nvidida macht es geschickt. Während ATI ein CF-Profil liefert dass das Game flackern lässt wie bescheuert verhindert Nvidia das SLI überhaupt aktiviert wird bei den Siedlern.
Das ist schon längst nicht mehr aktuell, ich spiele grade Anno 1404 und da flackert nichts.
 
bevor ihr hier weitermacht sollte man vielleicht mal fragen was der TE überhaupt mit diesen ganzen GPU's will...wie es aussieht hat er zZ
http://www.hardwareluxx.de/community/17321092-post1216.html

Joaa hab mir ma en Pc zusammen gebastelt aber irgentwie sind mir X3128 Punkte ein bisschen zuwenig xD Deswegen wollt ich ma nachfragen ob das so hinhauen kann oder ob da was nicht stimmt

System :
Asus Rampage 3 Black E
Intel Core i7 980
16GiG Corsair Ram
120 SSD Festplatte
Point of View Geforce Gtx 590 TgT Charged


Danke schonma im vorraus
monitor(e)/ auflösung???
vielleicht braucht er ja nichtmal ne 580^^
 
Nvidida macht es geschickt. Während ATI ein CF-Profil liefert dass das Game flackern lässt wie bescheuert verhindert Nvidia das SLI überhaupt aktiviert wird bei den Siedlern.

Das bei über 1000 Games auch mal Problemfälle dabei sind, bleibt nicht aus. Wenn ein Game nich an MultiGPU angepasst wurde, kann NVIDIA da auch nicht zaubern. Zuletzt war es bei Shift2:Unleashed auch so, da wurde SLI deaktiviert bis Patch 1.1 erschien der die Probleme beseitigte, erst dann hat NVIDIA ein funktionierendes SLI Profil eingebaut.
 
Äh doch. In den CB Tests sieht man sehr deutlich, dass es 90% der Spiele gar keinen Vorteil hat. Frag mal xfearx. ;)
Ein extrem-Beispiel mit Crysis Mod ist keine alltägliche Skalierung.
Die CPU limitiert sehr zügig, aber wenn Du ihm sogar Quad-SLI empfiehlst, dann ist das wohl beim Single-Monitor eine sehr sinnvolle Empfehlung. Ich stelle auch lieber die ganze Zeit in SLI Profilen für SGSSAA rum, anstatt einfach zu zocken. :rolleyes:

Sag mir ein Spiel, und ich werde es mit 3 Karten testen.
Meistens ist der Zuwachs zwischen 2 und 3 Karten jedoch viel kleiner, also zwischen 1 und 2 Karten.
 
Das bei über 1000 Games auch mal Problemfälle dabei sind, bleibt nicht aus. Wenn ein Game nich an MultiGPU angepasst wurde, kann NVIDIA da auch nicht zaubern. Zuletzt war es bei Shift2:Unleashed auch so, da wurde SLI deaktiviert bis Patch 1.1 erschien der die Probleme beseitigte, erst dann hat NVIDIA ein funktionierendes SLI Profil eingebaut.

:lol: RDBlaire
 
Da wollte uns wohl nur ein Kind hoch nehmen.^^
 
nene, ich finds nur lustig mit RD..SLI hätts ja auch getan :d, aber wir bekommen das noch hin mit den vergebenen Namen :-)
 
Da hätte ich auch noch ein paar links.
Overclock.net - Overclocking.net - View Single Post - So you liek to use AA and Surround?? 3GB GTX580 SLi VRAM Usage in 17 games...
5960x1200
Crysis 2 (DX11) - 2712MB
Crysis (modded) - 2639MB
Bulletstorm - 2285MB
Metro 2033 - 2117MB
Far Cry 2 - 2051MB
Crysis 2 (DX9) - 2011MB
Wings of Prey - 1952MB
Batman: Arkham Asylum - 1926MB
Splinter Cell: Conviction - 1892MB
Grand Theft Auto IV (modded) - 1759MB
Battlefield: Bad Company 2 - 1731MB

Crysis 2 vram usage, 3GB GTX580's definitely do the job.
http://forums.overclockers.co.uk/showthread.php?t=18295737
 
Und das ist übrigens noch ohne AA-Bits! Die können teilweise auch mehrere Hundert MB vollmachen!
 
...auch wenn sie eher meine Probleme betriff und nicht die vom TE (der sich sowieso nicht mehr meldet, weil er eh 12 Jahre alt ist und die Kohle für die Hardware von der er da träumt nicht hat^^)...

das war acuh mein erster Gedanke :angel:
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh