RAM-FAQ: Was man über den Arbeitsspeicher wissen sollte

Veröffentlicht am: von

In Kooperation mit Kingston

ram faq logoEgal ob Anwendungen oder zum Spielen: Genügend Arbeitsspeicher kann man im Computer nie haben. Was aber sind die wichtigsten Kennzahlen zum Speicher? Und auf was sollte man achten? In dieser FAQ dreht sich alles rund um das Thema Arbeitsspeicher und wir beantworten viele Fragen, die nicht nur für Anfänger, sondern auch für fortgeschrittene Anwender interessant sein dürften.

Wer gar nichts mit dem Thema "Arbeitsspeicher" anfangen kann, wird in dieser FAQ erfahren, wofür er benötigt wird, welche vergänglichen und aktuellen Technologien verwendet wurden und werden. Die richtige Auswahl für den eigenen PC sollte dann kein Problem mehr sein. Aber auch wer schon etwas erweitertes Wissen mitbringt, wird etwas lernen können, denn in vielen Bereichen gehen wir ins Detail. Dann ist auch die Übertaktung oder das Tunen vom Arbeitsspeicher kein Hexenwerk mehr. 

Was ist Arbeitsspeicher und wofür wird er benötigt?

» zur Galerie

Im IT-Segment wird Arbeitsspeicher generell als RAM (Random Access Memory) bezeichnet. Er ist im Endeffekt ein Zwischenspeicher mit direkter Anbindung jedes einzelnen Speicherchips, auf die geschrieben werden können und von denen gelesen wird. Ausschließlicher Lesezugriff beschreibt hingegen den ROM (Read Only Memory) und trifft beispielsweise auf den BIOS-Chip eines Mainboards oder auch auf nicht wiederbeschreibbare, optische Medien (z.B. Blu-ray) zu. Der RAM selbst kann auch als Kurzzeitgedächtnis eines Computers bezeichnet werden, denn in dem Arbeitsspeicher werden wichtige, für den generellen Betrieb benötigte Dateien abgelegt, die häufig benötigt werden.

Das Betriebssystem selbst, aber auch aktuell laufende Programme benötigen den Zwischenspeicher für die schnelle Ausführung, um größere Verzögerungen zu umgehen. Im Vergleich zur SSD (Solid State Drive), die selbst schon eine Reaktionszeit von weniger als eine Millisekunde hat, ist der RAM hingegen im zweistelligen bis einstelligen Nanosekunden-Bereich unterwegs und demnach noch einmal wesentlich schneller. Um diesen Performanceunterschied zu verdeutlichen: Eine Millisekunde (ms) besteht aus 1.000.000 Nanosekunden (ns). Und eine klassische Festplatte ist noch langsamer. Aus diesem Grund möchte man möglichst viel Arbeitsspeicher haben, damit möglichst viele Anwendungen direkt in diesem laufen können. 

Sind die Daten im RAM permanent vorhanden?

Nein, denn beim RAM handelt es sich um so genannten "flüchtigen Speicher" (engl. volatile memory). Wird der gesamte Computer neu gestartet oder heruntergefahren, so ist der komplette Arbeitsspeicher leer und demnach ohne Inhalt. Wird dann das Betriebssystem wieder gestartet, füllt sich der Arbeitsspeicher wieder mit den wichtigen Daten. Das ist ein klarer Unterschied zur SSD oder Festplatte - und auch zu neueren Speichertechniken (wie Intels 3D Xpoint). Ist der Strom beim RAM weg, sind auch alle Informationen verloren. 

Wie lange gibt es schon Arbeitsspeicher?

Die Geschichte des Arbeitsspeichers geht bis in die 1960er Jahre zurück, bei denen damalige Großrechner mit bis zu 1 Megabyte RAM ausgestattet wurden. Mit der Zeit konnte die Kapazität stetig erhöht werden. Generell muss zwischen synchronen und asynchronen Arbeitsspeicher unterschieden werden. Denn während asynchroner Arbeitsspeicher ohne Taktsignal auskommen muss und damit deutlich weniger Performance bietet, sind mit synchronem Arbeitsspeicher durch die Anbindung des Taktsignals deutlich höhere Datendurchsätze möglich.

Doch der synchrone Arbeitsspeicher wird noch einmal in zwei Kategorien unterteilt, nämlich in statischem und dynamischem RAM. Grob formuliert besteht der Unterschied darin, dass der SRAM (Static Random Access Memory) im Vergleich zum DRAM (Dynamic Random Access Memory) nicht auf ein periodisches Auffrischen angewiesen ist, um die Daten im Speicher halten zu können, sondern ist allein auf die Speicherspannung angewiesen.

Die ersten massentauglichen SIMMs (Single In-Line Memory Module) mit einer Datenbusbreite von 8 Bit wurden ab dem Jahr 1993 von den PS/2-SIMMs abgelöst und zählen zum dynamischen Arbeitsspeicher. Ein alter Bekannter unter den PS/2-SIMMs ist der EDO-RAM (Extended Data Output Random Access Memory) oder auch HPM-RAM (Hyper Page Mode Random Access Memory). Eingeführt wurde der EDO-RAM 1994, der jedoch auch eigentlich zu dem asynchronen Speicher gehört und durch den höheren Lese-Datendurchsatz den FPM-RAM (Fast Page Mode Random Access Memory) abgelöst hat.

DRAM-Standard
Anzahl Pins
Prefetch
Speichertakt (JEDEC)
Spannung (V)
SIMM/
DIMM
SO-
DIMM
real (I/O)
effektiv
Standard
Under-/Overvoltage
EDO-RAM 72 72 - 33-66 MHz 33-66 MHz 5 V, 3,3 V -
SD-RAM 168 72/144 1n 66-133 MHz 66-133 MHz 3,3 V 3,3 V
DDR-SDRAM 184 200 2n 100-200 MHz 200-400 MHz 2,5 V 2,6 V
DDR2-SDRAM 240 200 4n 200-533 MHz 400-1.066 MHz 1,8 V -
DDR3-SDRAM 240 204 8n 400-1.066 MHz 800-2.133 MHz 1,5 V 1,35 V, 1,65 V
DDR4-SDRAM 288 260 8n 800-1.600 MHz 1.600-3.200 MHz 1,2 V 1,05 V, 1,35-1,45 V
DDR5-SDRAM ? ? ? 2.400-3.200 MHz 4.800-6.400 MHz 1,1 V ?

Der direkte Nachfolger stellt der SD-RAM (Synchronous Dynamic Random Access Memory) ab dem Jahr 1997 mit inkludiertem Taktsignal dar, das die erhöhte Performance im Vergleich zum EDO-RAM erklärt. Während der EDO-RAM mit 33 bis 66 MHz spezifiziert wurde, arbeitet der SD-RAM mit 66-133 MHz zusammen mit dem Prefetching (heuristisches Vorladen von Daten) von einem Bit doppelt so schnell.

Wenige Jahre später stand mit dem RD-RAM (Rambus Dynamic Random Access Memory) eine neue Halbleiter-Technologie im Raum, die sich allerdings aufgrund von hohen Latenzen bei höherer CRIMM-Bestückung (Continuity Rambus In-Line Memory Module) und der Intel-Exklusivität nicht durchsetzen konnte und hingegen im Jahr 1999 vom DDR-SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory) abgelöst wurde und sich erst drei Jahre später im Endverbrauchermarkt etablieren konnte. DDR-SDRAM stellt dabei eine Weiterentwcklung von SD-RAM mit einer ordentlichen Leistungssteigerung dar. Ab hier begann auch Hardwareluxx mit dem Testen - die ersten Speichermodule, die wir im Test hatten, waren in der Tat DDR-SDRAM-Module

Es folgten die zweite Generation (DDR2-SDRAM) ab dem Jahr 2003, die dritte (DDR3-SDRAM) ab dem Jahr 2007 und die noch aktuelle vierte Generation des DDR-SDRAM-Standards (DDR4-SDRAM) ist seit 2014 erhältlich. Mit dem DDR4-SDRAM-Standard sind weit höhere Frequenzen möglich, wobei der Prefetch mit dem DDR3-SDRAM identisch geblieben ist und gleichzeitig die Speicherkapazität pro DIMM (Dual In-Line Memory Module) für den Endverbraucher zunächst auf 16 GB angehoben und später auf 32 GB erweitert wurde. Doch mit dem DDR5-SDRAM-Standard steht bereits die nächste Generation in den Startlöchern und verspricht weiteren Leistungszuwachs. Jedoch wurde der DDR5-SDRAM von der JEDEC (vormals: Joint Electron Device Engineering Council, heute: JEDEC Solid State Technology Association) noch nicht final spezifiziert.

Gerade an den gesteigerten Taktfrequenzen und der stets reduzierten Spannung wird ersichtlich, dass mit jeder DDR-SDRAM-Generation die Effizienz immens gesteigert wurde.

In Kooperation mit Kingston


In Kooperation mit Kingston

Was bedeutet im Detail "Double Data Rate"?

Während der EDO- und SD-RAM nur den anliegenden Takt 1:1 boten, muss bei den DDR-SDRAM-Standards zwischen der tatsächlichen I/O- (Input / Output) und effektiven Taktfrequenz unterschieden werden. Die tatsächliche Taktfrequenz muss nämlich mit dem Wert 2 multipliziert werden, damit man die effektive Taktfrequenz erhält. Als Beispiel nehmen wir vom aktuellen DDR4-SDRAM-Standard mit einer tatsächlichen Frequenz von 1.600 MHz. Effektiv jedoch sind es eben 3.200 MHz.

» zur Galerie

Der Grund für die "Verdopplung" liegt darin begründet, dass bei jedem DDR-SDRAM-Standard sowohl bei der ansteigenden als auch bei der absteigenden Flanke des Taktsignals gültige Datenbits übertragen werden. Im Vergleich dazu werden beim EDO- und SD-RAM lediglich aufsteigend Daten übertragen, was natürlich erheblich langsamer ist.

Welche Bauformen gibt es?

Beim EDO-RAM wurden die Speicherriegel als SIMM (Single In-Line Memory Module) bezeichnet, wohingegen ab dem SD-RAM-Standard DIMMs (Dual In-Line Memory Module) verwendet werden und die SIMM-Bauform ersetzt hat. Während bei SIMMs die Kontakte auf beiden Seiten ein identisches Layout vorweisen, sind die Kontakte bei den DIMMs unterschiedlich angeordnet. Ferner wurde die Bitrate beim Datenkanal pro Modul von 32 auf 64 Bit verdoppelt.

Um auch die Notebooks mit möglichst platzsparendem Arbeitsspeicher ausstatten zu können, gibt es schließlich noch die SO-DIMM-Bauform (Small Outline Dual In-Line Memory Module) mit wesentlich kürzeren Abmessungen. Des Weiteren gab es bis zum DDR3-SDRAM auch noch die Micro-DIMM-Bauform für einen ähnlichen Einsatz in mobilen Geräten, seit dem DDR4-SDRAM-Standard gibt es jedoch ausschließlich die DIMM- und SO-DIMM-Bauform.

» zur Galerie
» zur Galerie

Erwähnt werden muss zudem, dass sämtliche genannten RAM-Standards zueinander sowohl mechanisch als auch elektrisch inkompatibel sind. Um die Kompatibilitätsunterschiede entsprechend zu erleichtern, besitzen die DIMMs bei den vier DDR-SDRAM-Standards eine Einkerbung an unterschiedlicher Position, sodass ohne Gewalteinwirkung eine versehentliche Begegnung unterschiedlicher Standards vermieden wird. Die SD-RAM-DIMMs besitzen hingegen sogar zwei Einkerbungen.

» zur Galerie

Preise und Verfügbarkeit
Kingston HyperX Impact 16 GB DDR4-2666 SO-DIMM
Nicht verfügbar Nicht verfügbar Nicht verfügbar


Was hat es mit den RAM-Kanälen (Channel) auf sich?

Aktuelle Mainstream-Plattformen von Intel und AMD bieten insgesamt vier DIMM-Steckplätze an, die kombiniert im Dual-Channel-Modus arbeiten können. Hierbei werden zwei DIMM-Steckplätze pro Kanal bereitgestellt. Wenn auf dem Mainboard nur ein DIMM installiert wird, arbeitet es stets im Single-Channel-Modus. Wird ein zweites (bestenfalls identisches) DIMM in den entsprechenden Steckplatz im zweiten Kanal installiert, so wird der Dual-Channel-Modus aktiviert. Bei den Enthusiasten-Plattformen wird das Ganze sogar auf insgesamt acht DIMM-Steckplätze und vier Kanäle (Quad-Channel) ausgeweitet. 

» zur Galerie

Der Sinn und Zweck der RAM-Kanäle liegt darin begründet, dass die Speicher-Bandbreite gesteigert werden kann, wodurch diverse Software-Anwendungen profitieren können. Als Beispiel nehmen wir an, dass die Speicher-Bandbreite bei einem einzelnen RAM-Modul bei 15 GB/s liegt. Mit zwei Modulen im Dual-Channel-Modus verdoppelt sich die Bandbreite theoretisch auf 30 GB/s. In Verbindung mit dem Quad-Channel-Modus würde sich dann der Speicher-Durchsatz auf 60 GB/s abermals verdoppeln.

Welche Komponente verwaltet den Arbeitsspeicher?

Der installierte Arbeitsspeicher wird vom "(Integrated) Memory Controller" (kurz: (I)MC) kontrolliert, der bei älteren Plattformen noch in der Northbridge auf dem Mainboard untergebracht war, bei modernen Systemen hingegen im Prozessor integriert ist. Der Memory-Controller bestimmt, welcher Channel-Modus maximal möglich ist und mit welchen Taktfrequenzen er nativ arbeiten kann.

Wieviel RAM kann verbaut werden?

Die maximale Bestückung und Speicherkapazität hängt davon ab, wieviele DIMM-Steckplätze das Mainboard bietet und wieviel RAM der Memory-Controller maximal adressieren kann. Mit jeder Speichergeneration wurde für den Endverbraucher die maximale Arbeitsspeicher-Kapazität erhöht, was auch damit begründet ist, dass stets die Kapazität pro DIMM erhöht wurde. Währenddessen mit der ersten DDR-SDRAM-Generation bei maximal 1 GB pro Modul Schluss war, ging es mit der zweiten Generation bereits auf höchstens 4 GB pro Modul. Mit dem DDR3-SDRAM-Standard war eine Kapazität pro DIMM von 8 GB als Maximalwert typisch und mit der DDR4-SDRAM-Spezifikation sind es mittlerweile 16 GB pro Modul, wenngleich ab einem späteren Zeitpunkt 32-GB-Modelle als Normalität betrachtet werden können.

Anders hingegen sieht es im professionellen Bereich aus, wo es mit DDR-SDRAM bis 4 GB, mit DDR2-SDRAM bis 8 GB, mit DDR3-SDRAM bis 32 GB und mit DDR4-SDRAM bis 64 GB pro Modul reicht(e). Zählt man die DDR4-NVDIMMs (Non-Volatile Dual In-Line Memory Module = nicht flüchtig) hinzu, gibt es sogar 512-GB-Module.

Bei den aktuellen Mainstream-Plattformen von Intel (LGA1151v2, bald LGA1200) und AMD (AM4) ist eine maximale Arbeitsspeicher-Kapazität bis 128 GB möglich, mit den Enthusiasten-Plattformen (Intel LGA2066 und AMD sTRX4) sind es hingegen bis zu 256 GB. Moderne Server-Systeme aus dem professionellen Bereich können dagegen bis zu 4 TB RAM aufnehmen.

Wichtiger Hinweis: Es wird empfohlen, unterschiedliche Module nicht zu mischen, sondern stets baugleiche zu verwenden mit identischer Taktfrequenz und Timings. Das Optimum stellt natürlich der Kauf von Speicherkits dar, mit denen man eventuellen Inkompatibilitäten aus dem Weg geht.

Mit welcher Frequenz sollte der Arbeitsspeicher laufen?

Generell wird empfohlen, mindestens die native Taktfrequenz zu verwenden, die der IMC im Prozessor beherrscht. Dies kann je nach Prozessor DDR4-2666 (effektiv 2.666 MHz), DDR4-2933 (effektiv 2.933 MHz) oder auch DDR4-3200 (effektiv 3.200 MHz) sein. Davon ab schadet es jedoch auch nicht, wenn der Arbeitsspeicher darüber hinaus getaktet ist. Gerade bei AMDs Ryzen-Prozessoren führt schneller taktender Arbeitsspeicher zu einer immens gesteigerten Performance. Doch auch bei den Intel-Plattformen wird der Performancezuwachs gern angenommen und kann je nach Anwendung zu mehr Leistung verhelfen.

Wofür sind die Timings zuständig?

Unter den Timings versteht man die Latenzzeiten der Module, ohne die ein ordentlicher und vor allem stabiler Betrieb nicht möglich ist. Besonders wichtig und interessant sind die ersten vier Timing-Werte, welche von den Herstellern oft mit angegeben werden: CAS Latency (kurz: CL; lang: Column Address Strobe Latency), tRCD (RAS (Row Address Strobe) To CAS Delay), tRP (Row Precharge Time) und tRAS (Active Time).

Während der CL-Wert angibt, wieviel Zeit verstreichen sein muss, bis eine neue Adressierung einer Spalte im Speicherchip erfolgt, bedeutet die tRCD-Angabe hingegen die minimale Zeit, bevor der Lesevorgang in Gang gesetzt wird. Mit tRP ist die Zeit gemeint, welche nach einer erfolgten Precharge-Aktivierung verstrichen sein muss, bis eine neue Precharge-Aktivierung imselben Speicherbereich erfolgen darf. Das Gegenteil beschreibt hingegen der tRAS-Wert und gibt die Zeit an, die nach einer erfolgten Zeilen-Aktivierung verstrichen sein muss, bis ein Schließ-Befehl zur Deaktivierung der Zeile gesendet wird.

Ein Beispiel für die vier Timings wäre CL16-18-18-39. Ein weiterer, wichtiger Wert ist oftmals auch die Command Rate, dessen Wert oftmals bei 2T liegt und mit 1T etwas straffer ist und theoretisch ebenfalls mehr Performance bedeutet.

Dabei gilt generell: Je niedriger der jeweilige Wert ist, desto schneller arbeitet der RAM in der Theorie. Aber nicht immer bringt es im praktischen Bereich auch eine spürbare Performancesteigerung mit sich. Bei der manuellen Auslotung der möglichst niedrigen Latenzen stößt der RAM dann auch ab einem Wert an die Grenze und der PC arbeitet nicht mehr stabil.  

Warum besitzen einige DIMMs einen Heatspreader?

» zur Galerie

Der Heatspreader hat die Aufgabe, die entstehende Abwärme auf die Fläche hinaus zu verteilen und gleichmäßig an die Umluft weiterzugeben. Allerdings machen die Heatspreader nur in begrenzten Fällen einen Sinn, denn wenn die DDR4-SDRAM-DIMMs mit lediglich 1,2 V arbeiten, entsteht keine nennenswerte Abwärme. Erst ab einer DIMM-Spannung von 1,35 V sieht es dann schon anders aus, trotzdem hat ein Heatspreader nur einen geringen Einfluss auf die Performance - er sieht aber schick aus.

Preise und Verfügbarkeit
Kingston HyperX Fury 16 GB DDR4-3600
Nicht verfügbar Nicht verfügbar Nicht verfügbar


Gibt es Arbeitsspeicher mit RGB-LED-Beleuchtung?

» zur Galerie

Diese Frage kann mit einem ganz klaren Ja! beantwortet werden. Der RGB-LED-Trend aus Asien hat auch vor einigen Jahren schon Einzug in die RAM-Branche gehalten und es werden zahlreiche Module von zahlreichen Herstellen, wie Kingston, zum Kauf angeboten werden. Oftmals lassen sich die DIMMs dann mit den Mainboards von ASUS, MSI, ASRock und Gigabyte kontrollieren und synchronisieren. Das jedoch sollte am besten vor dem Kauf in Erfahrung gebracht werden.

Preise und Verfügbarkeit
Kingston HyperX Predator RGB 16 GB DDR4-3600
Nicht verfügbar Nicht verfügbar Nicht verfügbar


In Kooperation mit Kingston


In Kooperation mit Kingston

Was ist der Unterschied zwischen "Double Sided" und "Single Sided"?

Je nach Speicherkapazität eines DIMMs werden Speicherchips entweder auf einer oder auf beiden Seiten verlötet. Demnach bedeutet Single-Sided, dass nur auf einer Seite Speicherchips existieren, währenddessen bei Double-Sided auf beiden Seiten Chips vorhanden sind. Daraus folgt, dass bei einer identischen Kapazität des Speichermoduls die Chips auf einem Single-Sided-Modul doppelt so viel Kapazität haben müssen.  

» zur Galerie

Im praktischen Einsatz spielt es beim 24/7-Betrieb weniger eine gewichtige Rolle, ob man nun Single- oder Double-Sided-DIMMs verwendet. Wenn man allerdings auf der Jagd nach möglichst hohem Speichertakt ist, können Single-Sided-DIMMs von Vorteil sein, da eine geringere Anzahl von Speicherchips verwendet werden muss.

Was bedeutet Single-Rank und Dual-Rank?

Oftmals wird Single- und Dual-Rank mit Single- und Double-Sided-DIMMs gleichgesetzt, was jedoch nicht das gleiche bedeutet. Die Rank-Angabe wird von den RAM-Herstellern oft mit 1Rx4, 2Rx4 oder 2Rx8 angegeben und beschreibt hingegen den physikalischen Aufbau eines RAM-Moduls und die Anbindung der einzelnen Speicherchips. Während "1R" und "2R" auf Single-Rank und Dual-Rank hinweist, ist die Angabe "x4" und "x8" auf die konstruierten Chips selbst bezogen und wird als Banks bezeichnet.

Ein Rank beschreibt bei gewöhnlichen UDIMMs (Unbuffered) bei den Desktop-Plattformen einen Datenblock mit einer Breite von 64 Bit. Um also auf einem Modul auf Single-Rank zu kommen, sind demnach acht x8-Speicherchips oder 16 x4-Chips notwendig (8 x 8 = 64 / 64 = 1 oder 16 x 4 = 64 / 64 = 1). Ein Beispiel für ein Dual-Rank-Modul wären 16 x8-Chips (16 x 8 = 128 / 64 = 2). Im professionellen Bereich kommen hingegen in der Regel DIMMs mit ECC (Error Correction Code) zum Einsatz, bei denen der Datenblock jedoch zusätzliche 8 Bit erhält und somit auf 72 Bit kommt. Als Beispiel für Single-Rank wären demnach neun x8-Chips (9 x 8 = 72 / 72 = 1) und für Dual-Rank 18 x8-Speicherhips (18 x 8 = 144 / 72 = 2).

» zur Galerie

Darüber hinaus sind im Server-Segment zudem auch Module mit Quad-Rank oder gar Octa-Rank anzutreffen. Beispiele hieraus wären: 36 x8-Chips (36 x 8 = 288 / 72 = 4) und 72 x8-Chips (72 x 8 = 576 / 72 = 8). Demnach ist es insgesamt also möglich, ein Dual-Rank-DIMM zu haben, dass jedoch nur auf einer Seite Speicherchips trägt (Single-Sided).

Doch gerade im Server-Bereich hat die Rank-Angabe eine große Bedeutung, denn ein Server-Mainboard ist in der Regel für eine bestimmte Anzahl von Gesamt-Ranks konzipiert. Ein Dual-Rank-Modul kann gleichgesetzt werden mit zwei Single-Rank-DIMMs oder ein Quad-Rank-Modul mit zwei Dual-Rank- oder vier Single-Rank-DIMMs. Wenn nun also ein Mainboard mit vier DIMM-Steckplätzen im Höchstfall acht Ranks adressieren kann, dann kann die Platine demnach entweder mit acht Single-Rank-, vier Dual-Rank-, zwei Quad-Rank-Modulen oder einem Octa-Rank-Speicherriegel bestückt werden. Aber gerade Letztere sind jedoch eher seltener Natur.

Gibt es unterschiedliche Speicherchips?

Auch diese Frage kann mit Ja! beantwortet werden. Aktuell werden ICs (Integrated Circuit) von Samsung, Micron und SK Hynix in verschiedensten Versionen angeboten, die natürlich auch beim Overclocking ein unterschiedliches Verhalten aufzeigen. Während preisgünstigere Speicherkits eher "schlechte" Speicherchips erhalten, haben deutlich kostspieligere Kits deutlich performantere Speicherchips erhalten, mit denen auch bei der manuellen Übertaktung noch einiges mehr an zusätzlicher Performance herausgekitzelt werden kann. Ein Beispiel für beliebte, aber auch teure Speicherchips sind die Samsung B-Dies.

Aber auch in den jeweils eigenen Reihen können die Unterschiede beim Overclocking schon groß ausfallen, denn genau wie bei einer CPU oder einer GPU, sind auch die Speicherchips jeweils als Unikate anzusehen und verhalten sich unterschiedlich. Dies hängt übrigens auch davon ab, ob auf dem Speicher-Modul 8-GBit- (1 GB) oder 16-GBit-Speicherchips (2 GB) verbaut wurden.

» zur Galerie

Was versteht man unter PCB-Optimierung?

PCB ist die Abkürzung für Printed Circuit Board und ist die Grundlage, auf der die Speicherchips, die Kondensatoren, die Kontaktflächen und weitere Komponenten bei professionellen DIMMs angebracht werden. Dort eingeäzt wurden die Leiterbahnen, die neben Strom auch die Signale durchleiten. Durch diverse PCB-Optimierungen wäre es theoretisch möglich, das Overclocking-Potential eines Moduls zu erweitern.

Als Beispiel dient eine verstärkt mehrschichtige Leiterplatte mit größeren Leiterbahnen, damit ein höherer Strom durchfließen kann, was beim Overclocking bei der Taktraten-Jagd behilflich sein kann. Die meisten aktuellen Speichermodule haben mindestens ein acht-lagiges PCB. 

Gibt es spezielle Mainboards für RAM-Overclocking?

In der Tat gibt es speziell optimierte Overclocking-Mainboards, wie z.B. das ASUS ROG Maximus XI Apex oder das ASRock X299 OC Formula, bei denen im Höchstfall zwei respektive vier DIMM-Steckplätze angeboten wird. Die Besonderheit liegt darin, dass die DIMM-Steckplätze dichter am CPU-Sockel positioniert wurden und dennoch das Dual- beziehungsweise Quad-Channel-Interface für den Bandbreiten-Vorteil erlauben. Dies hat zur Folge, dass die elektrischen Signale auch bei hohen Taktraten stabiler bleiben und man somit bessere Ergebnisse erzielen kann. 

In Kooperation mit Kingston


In Kooperation mit Kingston

Was ist ein Registered-DIMM?

Während für die Desktop-Plattformen die UDIMMs (Unbuffered) verwendet werden, kommen im professionellen Umfeld bei Servern und Workstations eher die RDIMMs (Registered) zum Einsatz. Bei den UDIMMs wird der 64-Bit-Speicherblock zwecks der Speicheradressierung direkt durch die Northbridge beziehungsweise durch den Memory-Controller im Prozessor parallel angesprochen. Bei den RDIMMs hingegen kümmert sich ein Register um die Speicheradressierung, währenddessen die zumeist 72-Bit-Speicherblöcke (64 Bit + 8 Bit ECC) weiterhin vom Memory-Controller gesteuert werden.

Der Sinn und Zweck der RDIMMs ist es, mit den Registern den Memory-Controller zu entlasten, wodurch sich weit mehr DIMMs auf einem Server-Mainboard unterbringen lassen und somit die Gesamt-Speicherkapazität eines Server-Systems im Vergleich zu Desktop-Systemen immens gesteigert werden kann. Eine Weiterentwicklung stellt der LRDIMM-Standard (Load Reduced) dar, der im Vergleich zu den klassischen RDIMMs einen IMB (Isolation Memory Buffer) zur Verfügung stellt und sich verglichen damit von Intels FB-DIMMs (Fully Buffered) mit dem AMB (Advanced Memory Buffer) unterscheidet und sich wie RDIMMs im erweiterten Sinne verhält. Durch diese Weiterentwicklung konnte die Gesamt-Speicherkapazität weiter erhöht werden.

» zur Galerie

Um das Ganze noch mehr zu erweitern, wurde der 3DS-(L)RDIMM-Standard ins Leben gerufen. 3DS ist die Abkürzung für "Three Dimensional Stacking" und bedeutet schlicht das Stapeln von DRAM-Speicherchips. Ferner gibt es dann schließlich auch noch die NVDIMMs (Non-volatile), dessen gespeicherte Daten nicht flüchtig sind und auch nach dem Neustarten oder Herunterfahren des Computersystems im Speicher erhalten bleiben. Ein sinnvoller Einsatz wäre in diesem Fall beispielsweise die Verwendung von RAM-Disks, sprich "Festplatten"-Laufwerke im RAM.

Doch die NVDIMMs werden noch einmal unterteilt in NVDIMM-F (Flash Storage), NVDIMM-N (DRAM), NVDIMM-P (Persistant Memory) und NVDIMM-X (NAND Flash Storage).

Was bedeutet ECC im Detail?

ECC steht für "Error Correction Code" und ist für die wichtige Fehlerkorrektur beim Speichern und Übertragen von Daten in und aus dem RAM im Server- und Workstation-Segment verantwortlich und soll die Zuverlässigkeit gerade bei höherer DIMM-Bestückung verbessern. Für die Fehlererkennung werden für die Redundanz acht zusätzliche Bits (64 Bit (Grunddaten) + 8 Bit (Redundanzdaten) = 72 Bit) hinzugefügt, welche beim Empfänger für die Erkennung und Bestimmung von eventuellen Fehlern genutzt werden.

Generell können durch die Fehlerkorrektur 1 Bit große Fehler instant korrigiert werden. 2-Bit-Fehler hingegen werden lediglich erkannt, jedoch nicht behoben. Bei 3-Bit-Fehlern stößt die Fehlerkorrektur dann an ihre Grenzen, da diese meist unerkannt bleiben. Mit der Chipkill-Technologie wird die ECC-Funktion erweitert und auch als "Advanced ECC" bezeichnet. Diese ist in der Lage, bis zu 4-Bit-Fehler zu korrigieren und bis zu 8-Bit-Fehler zu erkennen. Bei zu vielen Fehlern kann durch diese Funktion ein defekter Speicherchip für das System ohne Neustart ausgeblendet (deswegen die Bezeichnung "Chipkill") werden, damit das System stabil weiterlaufen kann.

» zur Galerie

Im Detail arbeiten Chipkill oder auch Advanced ECC wie ein Festplatten-RAID-Verbund mit Paritätsdaten. Wenn beispielsweise sechs RAM-Module mit jeweils 4-Bit verwaltet werden müssen, werden die Daten im Speicher aus sechs 64-Bit-Blöcken für die Grunddaten und sechs 8-Bit-Blöcken für die Redundanz und für die ECC-Funktion zusammengesetzt. Daraus resultieren 432 Bit an Daten mit sechs 72-Bit-ECC-Datenblöcken, die durch den Chipkill-Algorithmus zu je 12 Bit auf die sechs RAM-Module und zusätzlich auf die Speicherchips selbst verteilt werden.

Mittels Memory Scrubbing wird der gesamte RAM periodisch auf Fehler hin überprüft, dessen Ergebnisse an die Server-Management-Software, wie beispielsweise dem IPMI (Intelligent Platform Management Interface) im BMC (Baseboard Management Controller) weitergeleitet werden. Bei sehr vielen unkorrigierbaren Fehlern erscheint dann im Log eine entsprechende Meldung.

Doch damit ECC inklusive ChipKill/Advanced ECC auch wirklich funktioniert, müssen sowohl der eingesetzte Prozessor, das Mainboard inklusive BIOS und natürlich auch der Arbeitsspeicher selbst mit ECC kompatibel sein. Dies trifft jedoch auf nahezu alle RDIMMs zu, aber ferner gibt es auch UDIMMs mit ECC.

Beispiel für Server-RAM

Anbei folgen nun zwei Beispielbilder für ein Registered-DIMM inklusive ECC:

» zur Galerie

Auf den beiden Bildern ist ein RDIMM aus Kingstons Server-Premier-Serie zu sehen, das zumindest auf der einen Seite über 18 Speicherchips und mittig den ECC- und Register-Chip verfügt. Generell bietet Kingston unter der Server-Premier-Reihe Einzel-Kapazitäten mit 8 GB, 16 GB und 32 GB pro RDIMM mit einer effektiven Takfrequenz mit 2.400 MHz, 2.666 MHz, 2.933 MHz und auch 3.200 MHz an.

Preise und Verfügbarkeit
Kingston Server Premier RDIMM 16 GB DDR4-2666
Nicht verfügbar Nicht verfügbar Nicht verfügbar


In Kooperation mit Kingston


In Kooperation mit Kingston

Wieviel Arbeitsspeicher brauche ich in meinem System?

Das kommt darauf an, was mit dem Computer-System angestellt wird. Ein reiner Office-PC, womit normales Surfen im Internet, E-Mail und moderate Word/Excel-Nutzung gemeint ist, braucht weniger Arbeitsspeicher als ein modernes Gaming-System oder gar ein Workstation-System, das 4K-Videos rendert oder Audio-Tracks kodiert. Server und Workstations brauchen je nach Anwendungsfall deutlich mehr Arbeitsspeicher als Office- oder Gaming-PCs.

Office-PC: Hierbei sollten es mindestens 4 GB RAM sein, empfohlen sind jedoch 8 GB, um ein paar Reserven zu haben. Ein einfaches 2x4-GB-Speicherkit reicht also hier schon aus. Wer hingegen viele Anwendungen parallel ausführt, kann auch ein 2x8-GB-Speicherkit einsetzen und 16 GB RAM nutzen. 

Gaming-PC: 16 GB RAM stellen aktuell das Minimum dar, besser sind jedoch gleich 32 GB, um für RAM-hungrige und für kommende Spiele gerüstet zu sein.

Workstation/Server-System: Hier ist es sehr schwierig in diesem Bereich eine Empfehlung zu geben, da es auf das Einsatzgebiet ankommt. Während für reine Datenserver mit geringer Benutzeranzahl maximal 16 GB RAM völlig ausreichen, sind beispielsweise für einen SQL-Datenbank-Server oder für einen Virtualisierungs-Server mit zahlreichen VMs (Virtuelle Maschinen) je nach Umfang durchaus mehr als 64 GB sinnvoll.

Generell lassen sich in modernen Server-Systemen weit über 1 TB Arbeitsspeicher verbauen, doch muss dann auf die Skalierung und auf die Ranks zwecks der Bestückung geachtet werden.

Generell kann man natürlich das System bis zur Kapazitätsgrenze bestücken, es sollte jedoch im Rahmen bleiben. Denn was bringen beispielsweise 128 GB RAM, wenn vom Betriebssystem und den Programmen im Höchstfall 16 GB belegt werden? Gleichzeitig spart man auch noch etwas Geld, wenn man Arbeitsspeicher nach seinen Anforderungen kauft.

Wie bemerke ich, dass ich mehr Arbeitsspeicher benötige?

Wenn häufig der Arbeitsspeicher volläuft, dann wird weiter benötigter Arbeitsspeicher in die Auslagerungsdatei auf der Festplatte/SSD verwendet, die vom Betriebssystem vordefiniert ist, jedoch auch manuell vergrößert oder verkleinert beziehungsweise deaktiviert werden. Die Deaktivierung der Auslagerungsdatei wird jedoch in keinem Fall empfohlen, da einige Anwendungen trotz genügend vorhandenem RAM dennoch auf die Auslagerungsdatei zurückgreifen.

Dadurch, dass der Arbeitsspeicher um Welten schneller als jede SSD oder gar Festplatte ist, wird der PC mit vollständig gefülltem RAM sehr träge und reagiert nicht mehr so flink. Bei Spielen kommt es zu spürbaren Nachladerucklern. Demnach wird die Performance immens verringert. Befindet sich die Auslagerungsdatei auf einer NVMe-SSD, wird der Performanceeinbruch weniger kritisch als bei einer klassischen HDD, aber dennoch wird er spürbar sein.

Der RAM-Füllstand lässt sich beispielsweise mit dem Task-Manager (-> Leistung -> Arbeitsspeicher) hin überprüfen.

Wie viele DIMMs sollte ich am besten verbauen?

So wenige wie möglich, so viele wie nötig. Im Detail ist gemeint, dass für den ersten Schritt eine Vollbestückung umgangen werden sollte (Stichwort Ranks). Entsprechend sind bei vier DIMM-Steckplätzen also zwei DIMMs und bei acht DIMM-Steckplätzen vier Stück empfehlenswert. Der Grund hierfür ist die Entlastung des Memory-Controllers, der bei einer Vollbestückung nicht nur mehr ackern muss, sondern auch der Fall eintreten kann, dass die gewünschte RAM-Taktfrequenz nicht oder instabil läuft.

Wenn jemand also beispielsweise auf einem Dual-Channel-Mainboard mit vier DIMM-Steckplätzen 32 GB RAM verbauen möchte, sollte lieber auf zwei 16-GB- als auf vier 8-GB-DIMMs gesetzt werden. Bei einem Quad-Channel-Mainboard hingegen macht der Einsatz von vier DIMMs natürlich Sinn. Nichtsdestotrotz ist das jeweilige Mainboard auch für die Vollbestückung konzipiert, jedoch kann es eben passieren, dass der Betrieb mit reduziertem Speichertakt möglich ist oder schlimmstenfalls generell verweigert wird. Generell hilft hier ein Blick ins Handbuch des Mainboards oder in unsere Mainboard-Tests.

Besonders wichtig ist, dass in jedem RAM-Kanal die identische Kapazität vorhanden ist, damit zu jeder Zeit die gewünschte Steigerung der Speicher-Bandbreite gewährleistet ist. Im Falle einer asynchronen Bestückung kommt es zu Schwankungen bei der Speicher-Bandbreite und damit zum Performance-Verlust.

» zur Galerie

Beispiel: Neben der klassischen Bestückung mit jeweils einem 8-GB-DIMM in Kanal 1 und 2, ist auch ein Betrieb mit einem 8-GB-DIMM in Kanal 1 und zwei 4-GB-DIMMs in Kanal 2 möglich, jedoch nur in seltenen Fällen empfehlenswert (synchrone Bestückung). Gänzlich vermieden werden sollten hingegen Kombinationen wie einmal 8 GB in Kanal 1 und einmal 4 GB in Kanal 2 (asynchrone Bestückung).

Demnach ist es wesentlich einfacher zu beachten, dass beim RAM-Kauf stets Speicher-Kits vorgezogen werden sollten, anstatt einzelne DIMMs zu kaufen und das Ganze zu "mischen". Zumal dann ohnehin drauf geachtet werden sollte, dass die Taktfrequenzen und die Timings bestenfalls übereinstimmen. Ansonsten gilt die Regel mit dem schwächsten Glied in der Kette.

In Kooperation mit Kingston


In Kooperation mit Kingston

Was ist XMP?

XMP ist die Abkürzung für "Extreme Memory Profile", dessen Idee von Intel ab dem DDR3-SDRAM-Standard eingeführt wurde und technisch weniger versierten Anwendern dabei behilflich sein soll, auf einfache Weise einen hohen Speichertakt außerhalb des JEDEC-Standards betreiben zu können. Das Profil wird neben weiteren automatischen Konfigurationen via SPD-Verfahren (Serial Presence Detect) im EEPROM (Electrically Erasable Programmable Read Only Memory), einem kleinen, nicht flüchtigen Speicherchip auf den DIMMs abgelegt, das dann von den Mainboards mit XMP-Unterstützung ausgelesen und aktiviert werden kann. Es gibt auch Module, die gleich über zwei verschiedene Profile verfügen.

Im BIOS mit XMP-Unterstützung lässt sich dann zwischen einem der beiden Profile auswählen. Auch die AMD-Mainboards können das Extreme Memory Profile nutzen. Während bei ASUS das Feature D.O.C.P. bezeichnet wird, nennt es MSI hingegen A-XMP.

» zur Galerie

In dem Profil selbst sind die Ziel-Taktfrequenz, die Timings sowie die RAM-Spannung hinterlegt. Wird das Profil vom Anwender im BIOS aktiviert, werden die dafür nötigen Einstellungen automatisch hinterlegt. Der Anwender muss die neuen BIOS-Einstellungen lediglich speichern und den PC neu starten. So einfach es klingen mag, kann es jedoch auch zu Problemen kommen. Zum Beispiel dann, wenn DIMMs verwendet werden sollen, dessen XMP-Takt für den Memory-Controller ohne weiteres Zutun wesentlich zu hoch gesteckt ist. Demnach muss auch der Memory-Controller den hinterlegten Takt im XMP fahren können.

Das SPD-Verfahren ist dafür gedacht, um den Mainboards die erste Ansteuerung der DIMMs zu vereinfachen, damit zunächst ein stabiler Betrieb garantiert wird und der PC problemlos starten kann. Ohne diese Informationen wüsste das Mainboard nicht, wie es mit den DIMMs in Kontakt treten soll.

Wo liegt der "Sweet Spot" bei AMD- und Intel-Plattformen?

Zunächst einmal muss geklärt werden, was ein "Sweet Spot" ist. Damit ist ein Korridor gemeint, in dem das beste Verhältnis zwischen Leistung und Effizienz zu finden ist. Bei den derzeitigen Intel-Plattformen liegt der Sweet Spot bei DDR4-3600-Modulen, also einer effektiven Taktfrequenz von 3.600 MHz. Während die DDR4-3600-Module preislich erschwinglich sind, liefern sie eine hohe Leistung.

Bei den AMD-Plattformen ist die beste RAM-Taktfrequenz um 200 MHz höher und liegt damit bei effektiv 3.800 MHz. Allerdings nur dann, wenn die Infinity-Fabric-Taktfrequenz ebenfalls bei 3.800 MHz liegt, wodurch sich ein 1:1-Verhältnis ergibt. Diese Kombination ist jedoch nicht garantiert und es gehört neben der DIMM-Wahl auch eine gewisse Portion Glück dazu.

Da spezifizierte DDR4-3800-DIMMs relativ kostenintensiv sind und die Auswahl eher mau ist, können daher stattdessen DDR4-3600-Module gewählt und um 200 MHz übertaktet werden. Alternativ sucht man sich direkt DDR4-4000-Speicherriegel und geht mit dem Speichertakt um 200 MHz herunter. Aber: Je höher die Spezifikation, desto teurer in der Regel die Speichermodule. 

Wie stelle ich die RAM-Taktfrequenz manuell ein?

Sofern das BIOS auf dem Mainboard eine manuelle Veränderung des Speichertakts zulässt, ist diese Funktion eben dort in den Overclocking- und Spannungseinstellungen zu finden. Die breite Auswahl an Taktfrequenzen ist mit Hilfe von RAM-Teilern möglich. Während der Grundtakt des Gesamtsystems (Bus) bei 100 MHz liegt, erfolgt der Rest schlicht über einen Multiplikator, wie es auch beim Prozessortakt erfolgt.

» zur Galerie

Beispiel: DDR4-2666 erfolgt bei den AMD-Plattformen aus 26,66 x 100 MHz, während bei den Intel-Plattformen je nach RAM-Taktfrequenz der 100- oder 133-MHz-Referenztakt (100 MHz x 1 oder 100 MHz x 1,33) zum Einsatz kommt und DDR4-2666 beispielsweise aus 20 x 100 MHz x 1,33 gebildet wird.

In Kooperation mit Kingston


In Kooperation mit Kingston

Welche Timings sollte ich setzen?

Wird das XMP von den DIMMs genutzt, ist eine manuelle Auswahl der Timings nicht notwendig, da die passenden und stabilen Werte bereits im Profil hinterlegt sind und bei Aktivierung an das Mainboard übermittelt werden. Möchte man jedoch anschließend oder generell manuell die Timings setzen und ausloten, so sollte man sich Schritt für Schritt herantasten und die einzelnen Werte allein für sich selbst nach und nach heruntersetzen und schauen, ob das System zunächst einmal booten kann. Falls ja, macht man weiter, bis das System nicht mehr starten kann. Den Command-Rate-Wert sollte man für den Anfang bei 2T belassen.

» zur Galerie

Moderate Timings für DDR4-Speicher bis effektiv 3.600 MHz sind beispielsweise CL17-19-19-39, besser wäre jedoch bereits CL16-18-18-35. Viele Speicherkits kommen auch bis auf CL15-17-17-32 herunter, was dann schon ziemlich gute Timings sind. Beachtet werden sollte jedoch, dass je höher der Speichertakt ist, desto höher auch die Timings gesetzt werden müssen, um im stabilen Bereich zu bleiben. Möchte man den maximalen Speichertakt herausfinden, so sollten die Timings für den Anfang sehr locker gesetzt werden, zum Beispiel mit CL19-26-26-42.

Sofern gewünscht, können auch die zahlreichen weitergeführten Timings manuell ausgelotet werden, doch dies nimmt natürlich eine deutliche Menge mehr an Zeit in Anspruch.

Welche Timings sind beim "Sweet Spot" empfehlenswert?

Das Optimum sind natürlich so niedrige Timings wie möglich, doch beim DDR4-Standard ist auch irgendwann das Ende der Fahnenstange erreicht. Eine hervorragende Kombination wäre CL14-14-14-34, doch das erreichen nur die wenigsten Speicherchips mit 3.600 MHz oder mehr. Demnach ist der Kompromiss mit CL16-16-16-35 eine sehr gute Alternative und noch immer ziemlich straff angezogen. Sollten die Module auch damit Probleme haben, kann als nächstes Ziel CL17-17-17-36 anvisiert werden.

In Kooperation mit Kingston


In Kooperation mit Kingston

Welche Rekorde wurden zuletzt mit dem DDR4-Standard erzielt?

Extreme Übertakter versuchen mit flüssigem Stickstoff oder Helium als Kühlung stehts nicht nur den Prozessortakt auf Rekord-Niveau anzuheben, sondern versuchen dies mit Grafikkarten und auch mit Arbeitsspeicher. 

Anfang 2019 gelang es dem MSI-Overclocking-Team, mit DDR4-Modulen von Kingston einen effektiven Speichertakt von 5.600 MHz auf dem MSI MPG Z390I Gaming Edge AC mit dem Core i9-9900K herauszukitzeln. Gut sechs Monate später wurde dieser Rekord mit den HyperX-Predator-DIMMs mit derselben Mainboard-Prozessor-Kombination gebrochen und sagenhafte 5.900 MHz erreicht.

Ob dieser Wert noch vor dem DDR5-Launch gebrochen wird, ist fraglich, aber falls nicht, geht die Taktjagd spätestens mit den DDR5-Modulen wieder von vorne los.

Welche Software-Tools sind zu empfehlen?

Es gibt jede Menge Programme, die für eine RAM-Analyse und zu Benchmark-Zwecken zu empfehlen sind. Etwa um den Speichertakt zu überprüfen, ob dieser korrekt ist und mit dem eingegebenen Wert im BIOS übereinstimmt (tatsächlicher und effektiver Takt beachten) oder um zu testen, wie hoch die Speicher-Bandbreite ragt oder um mehr Details über die verbauten Speicherchips in Erfahrung zu bringen.

» zur Galerie

Um zu schauen, ob der Speichertakt korrekt ist, ob der richtige Channel-Mode aktiv ist und welche SPD- und XMP-Werte hinterlegt sind, eignet sich bereits das bekannte Tool CPU-Z hervorragend. Möchte man darüber hinaus auch Speicher-Benchmarks absolvieren, können die umfangreichen Computer-Analyse-Programme AIDA64 und SiSoft Sandra in Betracht gezogen werden. Beide Programme haben einen integrierten Speicherbandbreiten-Test mit an Bord.

» zur Galerie
» zur Galerie
» zur Galerie
» zur Galerie

Doch bisher alle drei genannten Programme können nur oberflächliche Informationen über die verbauten Speicherchips abfragen. Wer darüber hinaus detailliertere Infos einsehen möchte, sollte sich hingegen das Tool Thaiphoon Burner herunterladen. Mit einem Klick auf "EEPROM" und dann auf "Read SPD on SMBus..." offenbart tiefere Einblicke und der Anwender erfährt Infos über die physische Struktur, über weitere SPD-Einträge, welche Speicherchips verbaut sind und vieles mehr.

Ein weiteres, gutes Tool ist beispielsweise auch HWiNFO.

» zur Galerie

In Kooperation mit Kingston