Wozu Cache und wieso bei intel wichtiger als bei amd?!

Ly.

Neuling
Thread Starter
Mitglied seit
10.08.2006
Beiträge
832
Hallo,

hab mal ne frage die mir atm durch n kopf schwirrt...
also wieso sind die amd rechner teils schneller oder auch langsamer also intel rechner obwohl intel cpu's schon kleiner sind und mehr cache haben?

wieso heisst es immer das cache bei amd nicht so wichtig ist?

tja ... vllt. weiss ja wer die antwort :hmm:

gruß

der ly.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Puh, ganz ausführlich kann ichs auch nicht sagen und ob das folgende 100%ig zutrifft kann ich dir auch nicht sagen ^^ Aber ich probiere es mal ;)

Bei den AMDs gibt es ja keine Bridgeanbindung von CPU -> Speichercontroller -> RAM, da der Speichercontroller schon in der CPU steckt. Dadurch hat man schon mal enormen Performance Gewinn, genüber eines Intel der den Speichercontroller nicht in der CPU hat.

Damit der Intel diese Defizit ausgleichen kann hat er eben mehr Cach spendiert bekommen.

Das wurde mir mal so erzählt ^^ Ob das nun 100%ig stimmt weiß ich nicht ;)

Sehe es als gratispush und als *Abo* für den Thread weil ich mit diesen post soeben den Thread abonniert habe :xmas:

lg
 
Hier mal eine ausführliche (wenn auch indirekte) Begründung:

Cache-Speicher oder auch Pufferspeicher genannt, arbeiten wie ein Puffer zwischen den sehr eingeschränkten, Hochgeschwindigkeits-CPU-Registern und dem relativ langsameren und wesentlich größeren Hauptspeicher — normalerweise auch RAM gennant (dürfte jedem bekannt sein).
Cache-Speicher besitzten eine Betriebsgeschwindigkeit, die ähnlich der CPU-Betriebsgeschwindigkeit ist. Das bedeutet, dass wenn die CPU auf Daten im Cache zugreift, muss die CPU nicht erst auf die Daten warten--> Geschwindigkeitsvorteil!

Cache-Speicher werden so konfiguriert, dass wann auch immer Daten von der RAM gelesen werden sollen, die Systemhardware zuallererst überprüft, ob die gewünschten Daten sich im Cache befinden. Wenn die gesuchten Daten im Cache vorhanden sind, dann kann auf diese ganz schnell zugegriffen werden und diese können von der CPU weiter verarbeitet werden. Sind diese Daten nicht im Cache, so werden die Daten direkt vom RAM gelesen und während deren Übertragung an die CPU ebenfalls im Cache gespeichert (für den Fall, dass diese später nochmals benötigt werden). Aus der Sicht der CPU macht es grundsätzlich keinen Unterschied, ob auf Daten im Cache oder im RAM zugegriffen wird, mit Ausnahme der unterschiedlichen Zugriffsgeschwindigkeit.

Leider ist die Cache des Prozzessors der RAM in Sachen Größe unterlegen. Deshalb kann nicht jeder Byte im RAM seinen eigenen einzigartigen Platz im Cache besitzen. Es ist daher notwendig den Cache in Sektoren einzuteilen, die zum Zwischenspeichern verschiedener Bereiche im RAM verwendet werden können (sprich, es wird selektiert und nur in Bereichen gespeichert, so dass die CPU hinterher auf diesen Bereich zugreift). Es wird auch ein spezieller Mechanismus benötigt, welcher jedem Cache-Bereich erlaubt, verschiedene Bereiche des RAM zu verschiedenen Zeiten zwischenzuspeichern. Trotz des Unterschiedes in Speicherkapazität und bedingt dadurch dass nicht zu jeder Zeit auf jeden Bereich des Speichers zugegriffen werden kann, kann eine geringe Menge an Cache auf höchst effektive Art den Zugang zu einer großen Menge an RAM beträchtlich beschleunigen (es werden sog. Zonen vom RAM gespeichert, bzw. wie Adressen von Sektoren, wo sich Häuser finden). Hoffe den Vergleich versteht jeder.

Wenn Daten von der CPU geschrieben werden, dann kann es allerdings etwas komplizierter werden.
Es gibt zwei Möglichkeiten. In beiden Fällen werden die Daten zuerst in den Cache (wie ein Telefonbuch) geschrieben. Da jedoch der Hauptzweck von Cache das schnellen Kopieren von Inhalten von best. Teilen der RAM ist, so muss jede auch noch so geringe Datenänderung im RAM und im Cache gespeichert werden (sonst stimmen die Adressen im Telefonbuch nicht mehr und der Prozzessor weiss nicht mehr wo er welche Daten findet--> synchronisation)

Die beiden verschiedenen Arten unterscheiden sich in deren Durchführung. Die erste, auch als Write-Through-Caching bekannt, schreibt die veränderten Daten sofort in den RAM-Speicher.

Write-Back-Caching hingegen verringert das Schreiben der modifizierten Daten in RAM (vereinfacht). Hauptgrund dafür ist, dass die RAM nicht so veil Speichervorgange durchführen soll im Fall dass Daten geändert wurden.

Ein Write-Through-Cache ist ein wenig einfacher aufgebaut. Aus diesem Grund findet man ihn auch häufiger. Write-Back-Cache ist ein wenig komplizierter "einzubauen". Nicht nur die aktuellen Daten müssen gespeichert werden, sondern es muss auch ein Art "Mechanismus" aufrecht erhalten werden, der die Daten im Cache als 'clean' flagged (Daten im Cache sind gleich Daten im RAM) oder auch als 'dirty' (Daten im Cache wurden verändert). Folglich muss auch ein Ablauf da sein, der garantiert dass die "dirty" Daten in gewissen Abständen zum RAM zurück "geflushed" werden (--> vergleicht es mit einer Art Bereinigung).


So, nun genug gelabert (aber ein bisschen Wissen vermittlet) über den Cache und dessen Funktion! Um auf die eigentlich Frage zurück zu kommen:

die Daten bei einem AMD-Prozessor können bedingt durch die Anbindung zwischen CPU-Cache-RAM schneller bzw. effizienter verarbeitet werden! Bei einem Intel hingegen müssen die Daten zuerst über die Verbindung zwischen RAM und CPU transferiert werden. Es entsteht eine Zeitverzögerung, auch wenn diese noch so gering ist.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh