Im Performance Index obens sinds die von mir erwähnten paar Prozent.
Der einzige wirklich erwähnenswerte und nützliche Unterschied (untere Tabelle) ist bei StarCraft bzw. Far Cry, ich glaube nicht, dass er TrueCrypt zocken will

Man beachte allerdings die Testbedingungen: KEIN AA/AF, 800x600 bzw. 1680x1050 --> ziemlich anspruchslose Grafikeinstellungen, man merkt aber schon hier: bei höheren Auflösungen sinkt die "Effektivität" der höheren Ramtaktungen, wie sieht es da aus, wenn AA und AF dazukommen? Zumal die genannten Spiele, was die Leistungsanforderungen angeht, recht zurückhaöten sind.
Zeig mir nen vergleichbaren Test mit 1920x1080 mit AA und AF, vorher überzeugt mich das nicht.
Es bringt was, aber das ist nicht die Welt, da bringt bisschen OC bei Graka und CPU um vllt. 5% schon genau so viel und kostet keinen Cent mehr.
Aber dafür würd ich nicht mehr Geld ausgeben, zumal es dann schon DDR3-2133 sein sollte, damit es sich lohnt.
Eigentlich genau meine Aussage, mit dem Unterschied, dass ich 2133 Mhz aufgrund der Kosten in Relation zum Nutzen eben nicht empfohlen habe.
Abraten will ich allerdings genau so wenig, ich würde dem TE von keiner Taktung abraten. Nur kostet eben mehr noch mehr.
Wenn er mehr will, würde ich auch mehr ausgeben, allerdings muss man sich im klaren sein, dass man es nicht "fühlen" wird, welcher RAM nun drin ist.