Hier mal eine ausführliche (wenn auch indirekte) Begründung:
Cache-Speicher oder auch Pufferspeicher genannt, arbeiten wie ein Puffer zwischen den sehr eingeschränkten, Hochgeschwindigkeits-CPU-Registern und dem relativ langsameren und wesentlich größeren Hauptspeicher — normalerweise auch RAM gennant (dürfte jedem bekannt sein).
Cache-Speicher besitzten eine Betriebsgeschwindigkeit, die ähnlich der CPU-Betriebsgeschwindigkeit ist. Das bedeutet, dass wenn die CPU auf Daten im Cache zugreift, muss die CPU nicht erst auf die Daten warten--> Geschwindigkeitsvorteil!
Cache-Speicher werden so konfiguriert, dass wann auch immer Daten von der RAM gelesen werden sollen, die Systemhardware zuallererst überprüft, ob die gewünschten Daten sich im Cache befinden. Wenn die gesuchten Daten im Cache vorhanden sind, dann kann auf diese ganz schnell zugegriffen werden und diese können von der CPU weiter verarbeitet werden. Sind diese Daten nicht im Cache, so werden die Daten direkt vom RAM gelesen und während deren Übertragung an die CPU ebenfalls im Cache gespeichert (für den Fall, dass diese später nochmals benötigt werden). Aus der Sicht der CPU macht es grundsätzlich keinen Unterschied, ob auf Daten im Cache oder im RAM zugegriffen wird, mit Ausnahme der unterschiedlichen Zugriffsgeschwindigkeit.
Leider ist die Cache des Prozzessors der RAM in Sachen Größe unterlegen. Deshalb kann nicht jeder Byte im RAM seinen eigenen einzigartigen Platz im Cache besitzen. Es ist daher notwendig den Cache in Sektoren einzuteilen, die zum Zwischenspeichern verschiedener Bereiche im RAM verwendet werden können (sprich, es wird selektiert und nur in Bereichen gespeichert, so dass die CPU hinterher auf diesen Bereich zugreift). Es wird auch ein spezieller Mechanismus benötigt, welcher jedem Cache-Bereich erlaubt, verschiedene Bereiche des RAM zu verschiedenen Zeiten zwischenzuspeichern. Trotz des Unterschiedes in Speicherkapazität und bedingt dadurch dass nicht zu jeder Zeit auf jeden Bereich des Speichers zugegriffen werden kann, kann eine geringe Menge an Cache auf höchst effektive Art den Zugang zu einer großen Menge an RAM beträchtlich beschleunigen (es werden sog. Zonen vom RAM gespeichert, bzw. wie Adressen von Sektoren, wo sich Häuser finden). Hoffe den Vergleich versteht jeder.
Wenn Daten von der CPU geschrieben werden, dann kann es allerdings etwas komplizierter werden.
Es gibt zwei Möglichkeiten. In beiden Fällen werden die Daten zuerst in den Cache (wie ein Telefonbuch) geschrieben. Da jedoch der Hauptzweck von Cache das schnellen Kopieren von Inhalten von best. Teilen der RAM ist, so muss jede auch noch so geringe Datenänderung im RAM und im Cache gespeichert werden (sonst stimmen die Adressen im Telefonbuch nicht mehr und der Prozzessor weiss nicht mehr wo er welche Daten findet--> synchronisation)
Die beiden verschiedenen Arten unterscheiden sich in deren Durchführung. Die erste, auch als Write-Through-Caching bekannt, schreibt die veränderten Daten sofort in den RAM-Speicher.
Write-Back-Caching hingegen verringert das Schreiben der modifizierten Daten in RAM (vereinfacht). Hauptgrund dafür ist, dass die RAM nicht so veil Speichervorgange durchführen soll im Fall dass Daten geändert wurden.
Ein Write-Through-Cache ist ein wenig einfacher aufgebaut. Aus diesem Grund findet man ihn auch häufiger. Write-Back-Cache ist ein wenig komplizierter "einzubauen". Nicht nur die aktuellen Daten müssen gespeichert werden, sondern es muss auch ein Art "Mechanismus" aufrecht erhalten werden, der die Daten im Cache als 'clean' flagged (Daten im Cache sind gleich Daten im RAM) oder auch als 'dirty' (Daten im Cache wurden verändert). Folglich muss auch ein Ablauf da sein, der garantiert dass die "dirty" Daten in gewissen Abständen zum RAM zurück "geflushed" werden (--> vergleicht es mit einer Art Bereinigung).
So, nun genug gelabert (aber ein bisschen Wissen vermittlet) über den Cache und dessen Funktion! Um auf die eigentlich Frage zurück zu kommen:
die Daten bei einem AMD-Prozessor können bedingt durch die Anbindung zwischen CPU-Cache-RAM schneller bzw. effizienter verarbeitet werden! Bei einem Intel hingegen müssen die Daten zuerst über die Verbindung zwischen RAM und CPU transferiert werden. Es entsteht eine Zeitverzögerung, auch wenn diese noch so gering ist.