Vier Speicherkits mit 32 GB im Test

Polarcat

Super Moderator - 35 ballern in der 50er, Beste
Hardwareluxx Team
Thread Starter
Mitglied seit
11.11.2004
Beiträge
23.073
Ort
Unser Basar
<p><img style="margin: 10px; float: left;" alt="32GB klein" src="/images/stories/galleries/reviews/32GB_1600_Vergleich/32GB_klein.jpg" height="100" width="100" /><strong>Der Trend im Speichersegment der letzten Jahre ist klar zu erkennen: Die durchschnittlichen Taktraten stiegen seit dem Wechsel auf DDR3 eher moderat an, so begnügte sich z.B. Intels Sandy-Bridge-Plattform bereits mit 1333 MHz, beim Wechsel auf die Ivy-Bridge-Prozessoren wechselte man dann auf nur 1600 MHz - und dieser Wert ist immer noch der Standardtakt für aktuelle Haswell-Modelle. Im Gegensatz dazu stieg die Speicherkapazität im Laufe der Zeit, was auch den zwischendurch immer wieder stark gesunkenen Speicherpreisen zu verdanken war. So sind heute 8 oder 16 Gigabyte im heimischen Rechner ein Normalzustand. Als...<br /><br /><a href="/index.php/artikel/hardware/arbeitsspeicher/27174-vier-speicherkits-mit-32-gb-im-test.html" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wo sind eigentlich die ganzen Leute die gemeint haben das timings was bringen?!?

Oder wirken sich Latenzen auf das System aus z.B. Ruckler
 
Den günstigsten Einstieg in unserem Test bietet das „10th Anniversary“ Kit von Kingston, der HyperX-Bruder hingegen ordnet sich ein ganzes Stück darüber ein – vermutlich eine durch die Verfügbarkeit verursachte Differenz. Der Speicher von Corsair liegt an zweiter Stelle und ist damit nur etwas über dem günstigsten Kit angesiedelt

Hier wurde anscheinend was verwechselt, denn das Corsair Kit ist mit 266,25€ das günstigste und das „10th Anniversary“ Kit mit 270,89€ das zweit günstigste ;)
 
Die Links zu den Amazonangeboten bei den Kingston Speicherriegeln sind ebenfalls vertauscht worden!
 
So ein Test wäre im letzten Jahr, wo es die Kits für etwas über 100 Euro gab, nicht schlecht gewesen.
 
Der Artikel ist ganz gut, einige Aspekte wurden aber ausgelassen:

1.Ich habe den gleichen Corsair Speicher wie im Test, nur hab ich meinen als 2 Kits á 16GB gekauft und etwa 50€gespart.

2. Es gibt durchaus Spiele, die auch ohne Mods von mehr als 4GB Speicher profitieren zB. sind Performance zuwächse bei GTA4 mit steigender Menge RAM bis etwa 12GB messbar.

3. In "wer braucht das" hat man einen wichtigen Anwendungsfall vergessen, die Ramdisk. Ich habe die folgende Aufteilung 16GB RAM / 16GB Ramdisk, die Vorteile? In ARMA2 auf maximalen Details (Ohne AA/Oversampling) in FullHD habe ich mit einem i5-750+GTX560ti beim Fliegen in konstantem Kreis in etwa 500m höhe 16-18FPS (Spiel auf einer Corsair F60 SSD) packe ich das Spiel auf die RamDisk sinds 22-24FPS. Im durchschnitt gibts in Arma 15-25% mehr Leistung. Ähnliche Performance-zuwächse kann man natürlich erreichen in dem man Caches von Programmen wie Photoshop auf die Ramdisk legt.

Was mir noch einfällt, hab mal für die Uni mein Wohnzimmer(ca. 45qm) mithilfe der Kinect als Punktwolke aufgenommen, nach ca.4min lag die Ram Auslastung bei ca. 10GB, danach konnte die GPU nicht mehr :)
 
Zuletzt bearbeitet:
32GB für 100€? Echt? Das wäre ein Anstieg von über 100%... Ich habe was von 40-50% gehört... (oder verrechne ich mich?)

Habe gerade mal nachgerechnet:

Corsair Vengeance LP, 4x8GB, DDR3-1600, CL10@1.5V am 07.10.2012 gekauft für CHF 164.-. Ohne Rabatt, oder so. Genau das doppelte kostet das jetzt bei Euch in DE. Naja, wir haben auch nicht so hohe MWST.
 
Zuletzt bearbeitet:
dass spiele wie arma2 oder gta4 von mehr ram oder einer ramdisk profitieren liegt einzig und allein daran dass sie unglaublich schlecht programmiert sind. bei photoshop o.ä macht es natürlich sinn.

btw ich zocke auch arma2, glücklicherweise habe ich mich für eine Samsung 840 PRO 256GB entschieden wenn ich mir ansehe wie heftig die memory leaks sind.
 
Irgendwie werden Programmierer bei Anwendungsfällen immer außen vor gelassen.... Die Welt besteht nicht nur aus Gamern und Photoshoppern. (die Musiker (hier) haben sicher auch noch paar Beispiele...)
z.B. im alten Rechner waren 8GiB verbaut. Programmierumgebung, lokaler Webserver, Datenbankserver, Tomcat und ne fette Grails-Applikation... drei verschiedene Browser, dynamische Contentgenerierung uvm... der war schon gut am auslagern...
Oder Neuronale Netze... ab einer gewissen Menge an Lerndaten bzw. Neuronen ist der Verbrauch auch immens, weil ja jedes Kriterium beim "Füttern" erst einmal erzeugen muss (z.B. Daten die aus Bildern gewonnen werden wie Histogramme, Farbverteilung, Häufigkeit pro Sektor etc. ). Das steigt dann schon mal gut an mit Deiner gewählten Netzgrösse. Bei z.B. 10000 Bildern als Eingangsdaten war der fertig mit der Welt..

Beim neuen Rechner hatte ich daher gleich 32 GiB verbaut; alles viel entspannter beim Arbeiten. Da kann man dann auch noch was nebenher machen z.B. ein (Urlaubs)Video umwandeln oder sonstwas... und nicht nur Kaffee kochen ;)
 
Wir haben sicherlich nicht alle Anwendungsfälle abgedeckt, dass ist uns bewusst, alles abzudecken hätte aber den Rahmen gesprengt.

Die Preisdreher sind etwas der Laufzeit zwischen Erstellung und Veröffentlichung geschuldet, als der Artikel erstellt wurde war das Kingston am günstigsten. Die Preise wurden zwar vom Leiter jetzt angepasst, aber nicht der Text sorry dafür.


Mit 2x16 GB Kits kann man in der Tat günstiger fahren, muss aber mit dem Risiko leben, dass die Stabilität leidet. Es kann gut gehen, muss aber nicht. Die Kits hier werden speziell auf ihren reibungslosen Betrieb getestet.
 
Mit 2x16 GB Kits kann man in der Tat günstiger fahren, muss aber mit dem Risiko leben, dass die Stabilität leidet. Es kann gut gehen, muss aber nicht. Die Kits hier werden speziell auf ihren reibungslosen Betrieb getestet.

kannst du mir das erklären? Komme aus einer Zeit, wo mehr Speicherriegel => mehr Instabilität bedeuteten.
Sind 4x8GB wirklich besser als 2x16GB ?
 
Du musst seines richtig deuten. Er meint 16 GB Kits, also 2x8er Kits und davon halt zwei um auf 32 GB zu kommen. Macht am Ende auch 4x8Gb mit dem Unterschied dass diese nicht auf ihre Stabilität untereinander getestet wurden.
 
Mit 2x16 GB Kits kann man in der Tat günstiger fahren, muss aber mit dem Risiko leben, dass die Stabilität leidet. Es kann gut gehen, muss aber nicht. Die Kits hier werden speziell auf ihren reibungslosen Betrieb getestet.

Kannst du mir das erklären, ich weiss nämlich nicht wie sich identische Speicherriegel gegenseitig beeinflussen sollten, in meinem Verständnis ist es so: wenn alle einzeln funktionieren, funktionieren sie auch alle zusammen. :)

@Edit:
@LeviathanX:

Naja, was du da beschreibst ist eher rumbasteln, hat mit ernsthaftem Programmieren, so wie sich das anhört nicht viel zu tun (nimms nicht persönlich :) ) bei uns wird beim Programmieren die 4GB Marke selten überschritten, wobei wir hier von gleichzeitigem Einsatz von 2+ Eclipse Workspaces á 8GB(ca. 50000 Java Klassen/Branch), DBA Software(TOAD), Lotus Notes, Crystal Reports, und viele Tools wie EditPlus.....
 
Zuletzt bearbeitet:
Kannst du mir das erklären, ich weiss nämlich nicht wie sich identische Speicherriegel gegenseitig beeinflussen sollten, in meinem Verständnis ist es so: wenn alle einzeln funktionieren, funktionieren sie auch alle zusammen. :)

Auch auf Speicherriegeln vom gleichen Hersteller mit gleichem Namen können unter Umständen unterschiedliche Speicherbausteine verbaut sein. Die Bausteine werden an der Börse gehandelt, dadurch kommt es je nach Wetterlage zu unterschiedlichen Chargen.
 
dass spiele wie arma2 oder gta4 von mehr ram oder einer ramdisk profitieren liegt einzig und allein daran dass sie unglaublich schlecht programmiert sind. bei photoshop o.ä macht es natürlich sinn.

btw ich zocke auch arma2, glücklicherweise habe ich mich für eine Samsung 840 PRO 256GB entschieden wenn ich mir ansehe wie heftig die memory leaks sind.

Diablo III kannst Du mit in die Reihe packen. On das Spiel auf der 5400 U/min Festplatte oder der Micron SSD liegt, macht den Unterschied zwischen "ruckelt fast unspielbar" und "läuft absolut flüssig".
Leider passt Diablo nicht in meine Ramdisk; kennt jemand ein günstiges Notebook-32GB-Kit? xD
 
Oh mein Gott, ich habe nur 8GB RAM..... :lol:

Windows8 64bit nimmt sich bei mir Leerlauf ca. 1,5GB RAM. Für alles was dann noch bleiben also noch gut 6GB. Kennt jemand auch nur eine private bzw. alltägliche(!) Anwendung, oder von mir aus auch ein aktuelles Spiel das 5 oder 6 GB RAM auslastet? Ich halte das für ausgemachten Unfug und bin sicher, das man auch noch in den nächsten 2 bis 3 Jahren entspannt mit 4GB, aber mit aufjedenfall mit 8GB RAM auskommen wird.

Und dann schaun wir mal ;)
 
Radde spricht es aus. Nur weil die gleiche Bezeichnung drauf steht, sind nicht die selben Chips drunter. Selbst bei den High End OC Reihen gibt es teils 3-4 verschieden Chiparten die je nach Charge verwendet werden. Dazu kommen dann noch die Fertigungsschwankungen innerhalb des Zulieferers usw.

Kannst ja z.B. mal nach EliteX usw. googlen, wie viele dort damals Probleme hatten ihre 2x4 auf 4x4 aufzubohren, weil es nicht lief. Und das obwohl jeweils beide Kits alleine ohne Probleme liefen..
 
Was war denn da mit den TridentX los?
Die haben ja eine ...1500... Seriennummer, also die gleichen Samsungchips wie die 2666er, warum sollten die dann nichtmal 1866 schaffen?? Das gleiche Kit mit "nur" 16GB läuft bei mir immerhin 2133@CL9 bei 1,5V. Macht der Sprung auf 4 Riegel echt so große Unterschiede?
 
Ich denke es ist der Verbund aus allem. 4 Riegel und dazu mit 32 GB noch der maximale Speicherausbau, der MemoryController scheint das im Zusammenhang mit OC nicht gut zu schmecken.
 
Ich finde es überraschend, dass die Kits von Kingston und Corsair mit 1866 laufen, das GSkill aber nicht. Ich hätte erwartet, dass der Controller da nicht zwischen Marken unterscheidet. Oder habt ihr versucht, die GSkill bei 1866 mit strammeren Timings zu betreiben?
Abgesehen davon: PCs haben ein Eigenleben, das muss jeder irgendwann feststellen :)
 
Naja, was du da beschreibst ist eher rumbasteln, hat mit ernsthaftem Programmieren, so wie sich das anhört nicht viel zu tun (nimms nicht persönlich :) ) bei uns wird beim Programmieren die 4GB Marke selten überschritten, wobei wir hier von gleichzeitigem Einsatz von 2+ Eclipse Workspaces á 8GB(ca. 50000 Java Klassen/Branch), DBA Software(TOAD), Lotus Notes, Crystal Reports, und viele Tools wie EditPlus.....
bei neuronalen netzen muss man halt experimentieren wenn man brauchbare Ergebnisse erzielen will.. das gleiche gilt auch bei genetischen Algorithmen, aber die sind eher mathematischer Natur, die brauchen kaum Speicher, eher Prozessorpower.

Und das andere "gebastel"... Die STS ist nicht gerade sehr effizient, aber geht halt schneller damit die App zu testen als jedes Mal ein WAR zu erzeugen.
Außerdem ist die JVM generell nicht sehr stabil. Nen richtigen root server mit 8 GiB haben wir auch schon ausgefüllt bis sogar der Apache wegen Speichermangel gestorben ist. Vom ultraschlechten Speichermanagment eines Firefox mal ganz zu schweigen. Den schaff ich locker auf 4GiB Speichernutzung bei ner normalen Session mit vielen reloads.

Und ich programmiere in der Regel so speichereffizient wie möglich.. ich bin vom Beruf her Programmierer für eingebettete Systeme in der Automobilindustrie und auf den kleinen Controllern für Fahrzeugsteuergeräten ist halt nicht viel mit Speicher und Speed.... Die Laufzeiten werden dann erst mal mit tagelangen Sessions in Debuggern stellenweise analysiert und optimiert. Meine taskbasierten Echtzeitbetriebssysteme laufen quasi jitterfrei.

"Bastelprogrammierer" lass ich mir nicht unterstellen...nur weil das mit deinem set up nicht so ausschaut wie bei meinem. ein Betriebssystem läuft auch nicht auf jedem Rechner gleich.. nur weil es die selbe Software ist.
 
Ich habe seit einiger Zeit selbst 32GB in meinem Rechner verbaut und es ist eigentlich zu wenig... Aber mehr geht bei mir halt nicht ^^

Arbeite beruflich mit "VGStudio MAX" und das Programm braucht irrsinnig viel Speicher. 104GB Speicherverbrauch am Firmenrechner war der bisherige Rekord bei einer komplexen Oberflächenbestimmung eines Volumendatensatzes.

Hier zu Hause habe ich nur den Viewer, aber selbst dieser hat meine 32GB schon mehrmals voll ausgelastet (eher überlastet)
 
@pesca: Nein wir testen alle unter gleichen Bedingungen. Die Kits werden während des OC alle mit den gleichen Settings durchprobiert, bis ein Setting stabil läuft oder eben nicht. Das G.Skill war aber selbst mit 1,65 V und Latenzen von CL 12-14-14-x nicht stabil zu bekommen. Woran es lag kann ich nur raten. Eventuell einfach Pech mit der Serienstreuung gehabt oder mein IMC mag die Chips in der Masse nicht so gut leiden, wer weiß. Aber ich hab wie gesagt alles versucht, auch weil die G.Skill zumindest in der Theorie die besten Voraussetzungen für OC hatten.
 
Tja, also wirklich Eigenleben der Hardware.
Ich danke dir dir für deine Antworten und verbleibe :confused:
 
Nachdem schon einiges bzgl. RAM und Programmieren geschrieben wurde - ich programmiere auch (C# in Verbindung mit Datenbanken - jenseits von 100 Mio Einträgen).

Zum Programmieren reichen 16 GB locker aus - ich laste die fast nie aus, ich glaube es war nur 2x soweit !!!

Die Datenbanken liegen bei mir aber expliziet auf einer eigenen SSD.

Meine Konfiguration: Windows 8 Prof. samt Programmen auf SSD, Datenbanken auf SSD, Entwicklungsumgebungen und noch andere Dinge auf 3x 3TB HDD im Raid 5.

Und dazu kommt ein Backup jede Nacht!
 
Professionell 32GB RAM ohne ECC zu nutzen wäre schon recht unsinnig. RAM Fehler sind nicht so selten und je mehr RAM man hat und umso kleiner die Strukturbreiten der Fertigung werden, umso größer wird die Fehleranfälligkeit.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh