AMD <=> NVidia was Supersampling AA angeht

Sifu Dyas

Enthusiast
Thread Starter
Mitglied seit
22.03.2015
Beiträge
820
Stelle fest, seit ich meine AMD Karte habe, dass in vielen Spielen SSAA weit mehr Performance zieht als damals mit meiner NV Karte. Beidesmal Treiber aktuell und das selbe Programm. Auch ohne SSAA nehme ich bei der AMD Karte ab und zu unerklärliche Framedrops wahr. Besonders in Skyrim.

4xSSAA im Gegensatz zu 4xSGSSAA ([...]10C1 Bits) in G3 und Skyrim.

War damals eine GTX670 und heute eine R9 280X.
Mittlerweile wurde, seit ich die AMD habe, auch das BS mal neu aufgesetzt.

Kennt das jemand ? Könnte es daran liegen dass man bei AMD kein Tool hat um die Bits einzustellen ? Damals lief nämlich Skyrim mit den NV-"Standard-Bits" auch grottig in 4xSGSSAA !
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was heißt denn für dich damals ?

Du stellst fest das SSAA einen anderen Einfluss auf die Performance hat als das "damals" bei einer anderen Grafikkarte verwendete SGSSAA für welches du iwelche speziellen Bits gesetzt hast weil es mit Standard-Bits mies lief.
Wäre das nicht schon alleine eine sehr bescheidene Grundlage um das "Problem" zu finden, sind die für den Vergleich verwendeten Spiele die wohl mit am häufigsten gemoddeten Spiele die derzeit noch gespielt werden. Über die Zeit hinweg haben diese auch noch ein paar Updates erhalten und besonders Skyrim hat doch vor kurzem nochmal ein riesen Update erhalten.

Meine Glaskugel sagt das alles korrekt läuft und deine subjektive Erinnerung dich täuscht.
 
Zuletzt bearbeitet:
Kennt das jemand ? Könnte es daran liegen dass man bei AMD kein Tool hat um die Bits einzustellen ? Damals lief nämlich Skyrim mit den NV-"Standard-Bits" auch grottig in 4xSGSSAA !

Kommt drauf an, was du genau gemacht hast und vor allem, ob es überhaupt richtig funktioniert hat, früher wie heute...
SGSSAA ungleich OGSSAA ungleich SSAA.
Es sind zwar alles "Formen" von SuperSampling, aber es sind Unterschiede vorhanden. AMD hat dabei halt den gravierenden Nachteil, dass es einfach nicht einstellen kannst. Keine Bit-Spielereien über den Inspector. Das heist, unter Umständen verrennt sich die Karte mit den Settings (kostet natürlich klar Performance) oder es geht halt gar nicht bzw. nicht so, wie es sein sollte.

Weil du Skyrim ansprichst, bei Skyrim kommt übrigens erschwerend hinzu, es gibt zwei Möglichkeiten, SGSSAA zu aktivieren (bei NV) -> wäre halt die Frage, was bei dir lief...
Erweiterst du das InGame MSAA über den Inspector, dann greift halt nur das MSAA vom Spiel -> was nachweislich nicht genau so wirkt, wie der Zwang über den Treiber.
Die Performance ist weit besser mit der InGame Methode, die Resultate aber an einigen Stellen sichtbar schlechter (Buchständer wurden bspw. damals nicht geglättet)
Das Treiber MSAA + SGSSAA je nach Bits frisst dazu extrem viel VRAM. 2GB der 670er sind da defaktor zu wenig -> ich habs damals auf ner 680er gespielt und es lief bestenfalls lala...

Bie G3 gibts nur die Version über die Bits + Treiber. VRAM Verbrauch auch deutlich höher als normal! Mit 2GB das gleiche in Bund. Selbst die 3GB der GK110 GPU haben mir damals in G3 unspielbare FPS Raten gebracht.


Unterm Strich -> wirkt für mich so, als wäre bei dir seinerzeit auf der NV GPU SGSSAA gar nicht sauber aktiv. Und nun mit dem AMD Modell greift zumindest SSAA.
Hast du noch irgendwo paar Screens von damals und im Vergleich zu heute? Dann könnte man gucken, ob da wirklich SGSSAA aktiv ist. Bei G3 sieht man es recht gut. Bei Skyrim eigentlich auch.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh