Natürlich gibt es das und natürlich spiele ich auf Mikroruckler an.
Die Speichermenge ist eine separate Baustelle.
		
		
	 
Die Frage was die jenige Person fühlt bei der Bildausgabe stellt sich aber nicht...
FPS als Einheit (Frames pro Sekunde) gibt einen Durchschnittswert der gezeigten Bilder in einer Sekunde wieder. Wie sich diese zusammen setzen spielt nüchtern gesehen keine Rolle.
Es gibt also keine gefühlten FPS und echte FPS, sondern es gibt nur FPS.
MR und dessen Auswirkungen sind eine andere Betrachtungsweise, um diese zu messen eignet sich die FPS Messung sogut wie gar nicht. Weil eben nur Durchschnittswerte. Um MR zu messen nimmt man für gewöhnlich die Zeiteinheit ms und misst die Frametimes bzw. dessen Gleichmäßigkeit.
Ich finde aber auch, diese Diskusionen sind teilweise völlig überbewertet. Der TE muss sich im klaren sein, das es MR gibt, und was es für Auswirkungen hat. Er muss für sich selbst feststellen, ob ihm diese MR auffallen... Das kann ihm niemand irgendwie pauschal in den Mund legen, da jeder Mensch diese Unterschiede anders sieht.
Die Aussage "weil die gefühlten fps genauso mit einer GTX580 erreicht werden" ist also nicht ganz passen für die Anfrage hier...
	
		
	
	
		
		
			Hm, also Nvidia tut aktiv eher was gegen MR glaube ich. Zumindest haben sie eine Art Puffer eingebaut, der Frames vor der Ausgabe zwischenspeichert. Das haben sie mal in einem Interview gesagt. Als AMD dazu gefragt wurde, kam keinerlei produktive Antwort.
		
		
	 
Dem kann ich zustimmen. Wobei ich die NV Aussage, wir puffern die Ausgaben zwischen irgendwie für sinnfrei finde. Denn komischerweise funktioniert das in Games ala Crysis oder Stalker auf wundersame weise nicht... (oder fast nicht)
Hier schiebt man es dann auf die Engine...
Eine generelle Pufferung der Daten mit dem Ziel, die Bilder kommen in möglichst gleichen Zeitabständen auf den Schirm funktioniert aber überall und immer. Undanhängig der FPS Rate oder der Engine.
Aber auch AMD tut mittlerweile massiv was gegen MR. Die HD6990 zeigt in den Frametimeanalysen im CB Review zum Beispiel gar keine Anfälligkeiten für MR mehr in den dort getesteten Games (im Gegensatz zu älteren Karten im CF)
	
		
	
	
		
		
			Ich glaube, dass ich tendenziell eher auf Microruckler reagiere, ich bemerke sie schon auf manchen Videos von CF Gespannen. Auf Benchmarkergebnisse bin ich nicht aus, Hauptsache ich kann smooth mit allen Details und mit Filtern zocken. Wenn die 7000er -oder wie auch immer sie heißen mag- dann kommt, wechsel ich eh' wieder.
		
		
	 
Dann solltest du NV vllt doch nicht ganz aus dem Rennen schieben...
Denn bei NV bekommt man oft ein paar mehr Einstellmöglichkeiten was die Settings und Bildverbessernde Maßnahmen betrifft.
Könnte eventuell gerade in den Leistungsregionen interessant sein.
Aber wenn du sowieso in der nächsten Generation wieder tauschen willst, würde ich wohl heute auf CF/SLI verzichten. Einfach aus dem Grund, es zeichnet sich ab, das wohl die aktuellen HighEnd Karten eine ganze Zeit lang (bis wohl Anfang nächsten Jahres) noch aktuell sein werden. Es kommt nix schnelleres. Sprich es wird wohl auch keine Games geben, die aktuelle Karten derart überfordern, das die Top Single GPUs nicht mehr mitkommen...
Auch stellt sich die Sinnfrage. Heute auf ein CF/SLI zu setzen mit den genannten Karten lässt einen Leistungstechnisch idR oft die nächste Generation dicke überspringen. Willst du nächstes Jahr aber wieder was neues, so sollte es auch dort dann CF/SLI sein um überhaupt Leistung gut zu machen.
ist halt alles eine Kostenfrage