AMD gibt weitere Informationen zu Carrizo bekannt

Boah ich habe jetzt hier echt keine Lust so nen Stuss zu diskutieren der offensichtlich ist. (Dieser "Schaffe89" Style geht mir völlig auf den Wecker - sorry!)

Weiterhin picke ich mir hier keine Rosinen aus, das habe ich die letzten 15 Monate versucht zu bauen, mit Unmengen an Spielen. Aber im Endeffekt aufgegeben!
Man muss nicht immer Versuchen alles zu dokumentieren da es sowieso findige User gibt die alles Madig reden da sie selbst nicht vergleichen können bzw. pure Theoretiker sind.


Zwei Plattformen blablub... :lol: ... Hudson/Bolton-D4 ist der Nachfolgechipsatz der RD980er/990er Chipset Serie nur in einer anderen Reihe und somit nicht soooo viel anders... Die Architektur ist dieselbe, die Speicheranbindung ist ebenfalls die selbe... lediglich einige Sachen wie mehr/weniger Lanes und PCIe 2.1/PCIe 3.0 und USB 3.0 sind die Unterschiede. :shake:

Wenn also dasselbe System was sich lediglich "leicht" (die RD Chipsätze sind von 2011 - also wesentlich älter) in der Generation und der Ausführung (BD mit 990er Chipsatz Vs. BD mit Hudson/Bolton-D4 Chipsatz) unterscheidet und im Rest gleich ist solche Unterschiede erlaubt kann es eben nur an den Unterschieden in der Ausbaustufe der Architektur liegen - oder willst du mir jetzt erzählen das die Datendurchsatzraten oder HT Clocks etc. pp wasAuchImmerDirNochEinfällt dafür verantwortlich sind? :confused:

Is jetzt ja nicht so das wir hier Nen Lynx Chipset mit Hudson vergleichen. :wall:


Der größere L2 bringt überhaupt garnix weil die Module eben nicht miteinander kommunizieren können - dafür braucht man keine Tools, das ist Logik (oder Kannst du von einer Seite eines Tales auf die andere ohne Brücke?)... alles muss also über den Boden des Tals geschaufelt werden (Bus) als einfach über eine Brücke geschickt zu werden (L3)... das sind nicht nur 5-10% im Mittel, nur weil einer nur Dateien Packt oder was weiß ich was macht brauchts also keinen L3 - interessant.


Sobald mehr als 3 Threads miteinander Agieren müssen und das ganze wenn möglich Zeitnah wirds lustig alles über den Bus zu schicken, wobei... AMD scheints ja sogar für Ausreichend zu erachten da die CF Configuration ja mittlerweile auch über den Bus Stattfindet - fiel mir eben während des Schreibens ein.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
AMD scheints ja sogar für Ausreichend zu erachten da die CF Configuration ja mittlerweile auch über den Bus Stattfindet - fiel mir eben während des Schreibens ein.
Und da bietet es keinerlei Nachteil gegenüber NV's veralteter Brückentechnik.
Kann aber gut sein dass die Bandbreite des Busses in dem Fall deutlich grösser ist als die in den APUs.
Worüber ihr hier streitet ist mir ein wenig zu hoch :d
 
Es geht nur darum inwieweit sich L3 Auswirkt und das Dude meint das man Die AM3+ Plattform (RD980er/990er Chipset + 920/950er SB) nicht mit der Nachfolgeplattform FM2+ vergleichen kann (A88X aka Bolton-D4).


Obwohl es sich nahezu um dasselbe Spiel lediglich evolutioniert und mehr Integriert (Aus Northbridge + Soutbridge wurde lediglich Southbridge weil der Rest eben in die APU gewandert ist) handelt.

Sprich "Früher" gab es halt den FX Prozessor, der hing an nem X/FX990 Chipset oder was auch immer und dazu eine Southbridge die dann halt noch Sound,LAN etc. bereitgestellt hat.

Die Nachfolger dann, halt die FM Series wurden immer mehr Integriert - so das man heutzutage halt alles in einem Chipset (Southbridge) und den Rest schon im Prozessoer selber hat...


Wenn dann die "Alte" Plattform noch immer schneller ist, obwohl sie so schon mehr Steps zu gehen hat zwischen den einzelnen Komponenten und mir dann noch einer erzählen möchte das die Evolutionierte Form ausreichend ist... sorry aber da hab ich einfach dann nen Logikbruch.


Zumal nicht so viel Fehlt, der L2 ist beim Athlon gleich groß dafür kein L3 wie ihn der FX hat... finde den Fehler... dabei müssten die nicht mal volle 8MB L3 verbauen wie beim Octa FX... ich wette es würde völlig reichen 2x 1MB L2 und 1x 2MB L3 zu verbauen - das wiederrum ist natürlich nur reine Vermutung, aber mich würde es extrem interessieren...
 
Zuletzt bearbeitet:
Wir reden hier über den 2 MB L2 von Bulldozer und nicht über den deutlich kleineren L2 vom K10.

Da bist du aber offenbar auf dem Holzweg.
Wir (meint dabei Pirate85 und meine Wenigkeit) reden hier vom L3 Cache, den AMD nicht bei den APUs verbaut. Gepaart mit der Meldung, dass AMD womöglich den L2 Cache im Kaveri Nachfolger halbieren könnte.
Um zu verdeutlichen, wie Caches die Performance von Spielen beeinflussen können, wurden Beispiele gebracht, die eben weit weg von deinen 5-10% sind.
Aus Mangel an Belegen, wie viel die damaligen K10 CPUs mit 2MB L2 Cache bzw. mit shared L2 Cache hätten gebracht im Vergleich zu den Modellen mit shared L3 Cache, lässt sich hier nur spekulieren. Fakt ist, gerade der X2 (2x1MB L2 Cache) im Vergleich zum Phenom II mit 2x512KB L2 Cache + 6MB shared L3 Cache) büßt in den FPS bei Games der damaligen Computerbase Messung massiv FPS ein, nicht nur avg. sondern auch min.
Auch Pirate85 meldete hier Werte, die weit weg von deinen 5-10% sind. Aber das nur am Rande...

Ach, plötzlich. Wird von euch ansonsten nicht ständig gepredigt, dass AMD für Spiele nichts taugt? Demnach sollten sie dort doch keine nennenswerte Anteile mehr haben, richtig?

Wer ist "euch"?
Irgendwie erkennst du den Unterschied zwischen lauffähig und dem maximal machbarem nicht, habe ich das Gefühl.

Der Anteil von AMD bei Systemen, wo es allein um die Lauffähigkeit geht dürfte aktuell (noch) releativ hoch im Vergleich zum Gesamtanteil liegen. Gründe dafür habe ich oben benannt. Bspw. das teils immernoch gute P/L. Der Anteil in Sachen maximal Machbarem liegt hingegen im Spieleumfeld deutlich drunter.

Sind sie aber. Vergleiche doch mal aktuelle X4/A10 mit i3. Nur weil AMD im Moment keine 3- und 4-Moduler auf aktueller Technik rausbringt, um was vergleichbares zu i5/i7 im Portfolio zu haben, was sowieso nicht jeder braucht, heisst das doch nicht, dass sie grundsätzlich keine Konkurrenz mehr in Anwendungen sind.

Wenn der Fokus darin liegt, eine gewisse Basisleistung abzudecken, mag das der Fall sein. Aber nicht wenn der Fokus darin liegt, für Anwendungen/Spiele oder was auch immer, das an Leistung zu holen, was im gesteckten Preisrahmen drin ist.
Wie ich oben schon erwähnte, i3 + SMT = hohe ST Performance und brauchbare MT Performance. Die halbwegs gleichpreisigen AMD CPUs bieten die oftmals etwas höhere MT Performance, kranken aber in Sachen ST. Der Anwender entscheidet was er braucht. Zählt das eine mehr dem anderen, wählt er entsprechend. Zählt bei beiden hingegen nicht die absolute Leistung, sondern viel eher müssen nur Basisleistungen abgedeckt werden, kommen andere Faktoren ins Spiel. Stichwort Verbrauch, Stichwort Featuresets, Stichwort Boardauswahl, Stichwort RAM Menge/Anbindung (bei mobilen Geräten mit integrierter GPU) -> und hier lässt AMD immer mehr Federn, weil Intel aufholt. (oder AMD nachlässt, je nach Betrachtungsweise)

Sofern der aber schneller arbeitet, also mehr Durchsatz und weniger Latenz, muss das kein Nachteil gegenüber dem aktuellen L2 sein.

Seit wann wiegen Geschwindigkeit und Latenz eines als schnellen Zwischenspeicher gedachten Puffers die absolute Größe auf?

Passt das, was benötigt wird, nicht rein, nutzt der Speicher vergleichweise wenig... Und 4MB L2 Cache (2MB pro Modul) sind nunmal einfach doppelt so viel wie 2MB L2 Cache (1MB pro Modul).
-> 1MB pro Modul L2 Cache wären damit sogar dem von mir genannten CB Messungen des X2 Athlons mit 1MB je Core gleich. Und beide hätten/haben keinen L3 Cache. Es liegt also die Vermutung nahe, das diese Umsetzung gerade in Games massiv an Leistung liegen lassen könnte, wie der Vergleich zum Phenom II Dualcore zeigt, der das ganze offenbar irgendwie im L3 abfackelt. Oder einfach nur zaubern kann.
 
Mal abgesehen davon, dass keiner von ULV Prozessoren gesprochen hat, selbst diese sind nicht konkurrenzlos. Bieten quasi kaum Mehrperformance zB gegenüber Cat. Und das bei höheren Kosten. Konkurrenzlos im mobilen Segment ist maximal Intels Contra Revenue Programm.


Kaum Mehrperfomance gegenüber Jaguar und Puma :rofl: gegen Atom mögen diese ein bisschen vorne liegen aber das war es auch.
 
Kann aber gut sein dass die Bandbreite des Busses in dem Fall deutlich grösser ist als die in den APUs. Worüber ihr hier streitet ist mir ein wenig zu hoch :d
AMD's A8-7600 'Kaveri' processor reviewed - The Tech Report - Page 5

Ginge man alleine nach dem L3 so kommt ein 4790K auf ~200GB/s, ein Phenom 2X4 965 auf ~50GB/s und ein Kaveri auf 50GB/s falls er HT nutzt und auf 16GB/s falls es über pcie läuft -> darum sind diese Uraltprozessoren noch konkurrenzfähig.
 
ein grund mehr für eine Richtige Männer CPU von AMD. (Also Excavator mit L3 ohne APU und am besten 3-4 Module)

Seit dem Vishera/Centurion gabs keine Tim Tailor CPU,s von Amd mehr :d
 
Weiterhin picke ich mir hier keine Rosinen aus
Da ich aber lediglich einen Fall von dir gesehen habe, der ohne ausführliche Analyse einfach nur mit irgendwelchen FPS Werten hingeklatscht wurde, muss ich leider erst mal davon ausgehen. Eine ausführliche Analyse schaut für mich anders aus. Unterschiedliche FPS können alle mögliche Ursachen haben. Was davon wirklich auf den L3 abfällt, ist nicht ersichtlich.

Man muss nicht immer Versuchen alles zu dokumentieren da es sowieso findige User gibt die alles Madig reden
So wie du CPUs ohne kostspielige riesige shared Caches, die für den Clientmarkt einfach ökonomischer sind? Aber stimmt, ich wundere mich auch immer wieder über die Theoretiker, die einfach nur FPS Zahlen in den Raum werfen können, ohne zu verstehen, wie Systeme funktionieren und vor allem wie Hard- und Software miteinander arbeiten.

Zwei Plattformen blablub... :lol: ... Hudson/Bolton-D4 ist der Nachfolgechipsatz der RD980er/990er Chipset Serie nur in einer anderen Reihe und somit nicht soooo viel anders...
Es geht nicht nur um die Plattform ansich, sondern vor allem um konkrete Boards. Boards können zB eine recht unterschiedliche I/O Performance aufweisen, was gerade für Spiele wichtig ist, unterschiedliche BIOS Settings haben, mit unterschiedlichen Treibern betrieben werden usw. Ohne konkrete Details von dir lässt sich dazu leider nicht viel sagen. Mal abgesehen davon, dass zwei in den Raum geworfene FPS Werte auch nicht gerade das stärkste Argument sind. Kannst du das wenigsten mit ein paar Screenshots belegen?

Der größere L2 bringt überhaupt garnix weil die Module eben nicht miteinander kommunizieren können
Was hier auch nicht wirklich von Bedeutung ist. Was sollen die Kerne denn in Spielen grossartig miteinander kommunizieren? Kerne müssen vor allem bei Synchronisation miteinander kommunizieren. Aber das ist bei Clientworkloads relativ wenig, praktisch vernachlässigbar. Auch hier, Serverworkloads mit zB tausenden von Clients sind da nochmal eine ganz andere Geschichte. Und Sachen wie Partitionierung brauchen kaum Synchronisation. Da bekommt jeder Kern seine eigenen Daten in den Cache, mit denen er rechnen kann. Was den mit Abstand grössten Teil der Bearbeitungszeit ausmacht. Lediglich am Ende muss das ganze dann notfalls wieder über den RAM zusammengefügt werden, wenn kein shared Cache für alle Kerne vorhanden ist. Aber das ist vergleichsweise wenig Aufwand und darf keinen signifikanten Unterschied in der Performance ausmachen. Erst recht wenn die Daten so riesig werden, dass auch ein grosser L3 nicht alles auf einmal halten kann. Übrigens, die Jaguar CU hat einen L2 für alle Kerne. Man darf durchaus auch mal über den Tellerrand schauen, um zu sehen, dass ein aufwändiger L3 bei Clientprozessoren nicht wirklich notwendig ist bzw im Schnitt nur wenig bringt.


Da bist du aber offenbar auf dem Holzweg.
Nein. Es geht um den Cache, den ein Kern/Thread nutzen kann. Das war bei Propus halt relativ wenig mit 512 KB. Und selbst dort waren die Unterschiede nicht sehr gross. Bei Bulldozer haben wir mit 2 MB deutlich mehr L2. Da bist eher du auf dem Holzweg.

Wir (meint dabei Pirate85 und meine Wenigkeit) reden hier vom L3 Cache, den AMD nicht bei den APUs verbaut. Gepaart mit der Meldung, dass AMD womöglich den L2 Cache im Kaveri Nachfolger halbieren könnte.
Um zu verdeutlichen, wie Caches die Performance von Spielen beeinflussen können, wurden Beispiele gebracht, die eben weit weg von deinen 5-10% sind.
Und welche sollen das sein? Ich sehe nur eines, was für mich nicht mal nachvollziehbar ist. Fast alle Spiele, die ich sehe, liegen bei maximal 5-10%. Ihr habt aber das Thema nicht wirklich verstanden. Es geht um Aufwand und Nutzen und nicht um das Maximum um jeden Preis, was ihr gerne hättet. Es macht schlichtweg keinen Sinn, einen Prozessor um 50% zu vergrössern (zB im Fall von Propus vs Deneb), wenn dann bei einigen Workloads lediglich 5-10% rausspringen. Und bei den restlichen Workloads vielleicht noch maximal 2-3% drin sind. Das ist völliger Irrsinn und unwirtschaftlich. Dieses Transistorbudget kann man wesentlich sinnvoller investieren, zB in mehr Kerne oder mehr Shader, die dann deutlich mehr bringen, auch und gerade in Spielen. Bei Serverprozessoren macht L3 nicht nur Sinn, weil die meisten Workloads mit mehr Cache was anfangen können, sondern auch weil die ASPs deutlich höher liegen. Dadurch werden auch grosse Chips wirtschaftlich.

Fakt ist, gerade der X2 (2x1MB L2 Cache) im Vergleich zum Phenom II mit 2x512KB L2 Cache + 6MB shared L3 Cache) büßt in den FPS bei Games der damaligen Computerbase Messung massiv FPS ein, nicht nur avg. sondern auch min.
Schon klar. Und das belegst du mit einem Spiel, CoH? Welches bekanntlich eh nie sonderlich gut für AMD optimiert war. Das hat Intel teils sogar auf ihren GDC Präsentation genutzt. Da muss ich nicht grossartig spekulieren, um zu sehen, was da softwareseitig los ist. Du hast dir das Spielerating in dem von dir verlinkten Test schon mal genau angeschaut? Zwischen Modellen mit und ohne L3 gerade mal 5%. Schon klar, massivst. Ach ja, Min-FPS Messungen waren seinerzeit eh meist für die Katz. Da hat man immerhin gelernt und viele geben mittlerweile ein Min-FPS Spektrum an, um Ausreisser zu filtern.

Der Anteil in Sachen maximal Machbarem liegt hingegen im Spieleumfeld deutlich drunter.
Dann frage ich mich, was euer Gezeter mit L3 bei AMD soll. Bei L3 geht's auch nur um das maximal mögliche und nicht um generelle Lauffähigkeit. Deine Argumentation passt also nach wie vor nicht.

Wenn der Fokus darin liegt, eine gewisse Basisleistung abzudecken, mag das der Fall sein. Aber nicht wenn der Fokus darin liegt, für Anwendungen/Spiele oder was auch immer, das an Leistung zu holen, was im gesteckten Preisrahmen drin ist.
Wie ich oben schon erwähnte, i3 + SMT = hohe ST Performance und brauchbare MT Performance. Die halbwegs gleichpreisigen AMD CPUs bieten die oftmals etwas höhere MT Performance, kranken aber in Sachen ST. Der Anwender entscheidet was er braucht. Zählt das eine mehr dem anderen, wählt er entsprechend. Zählt bei beiden hingegen nicht die absolute Leistung, sondern viel eher müssen nur Basisleistungen abgedeckt werden, kommen andere Faktoren ins Spiel. Stichwort Verbrauch, Stichwort Featuresets, Stichwort Boardauswahl, Stichwort RAM Menge/Anbindung (bei mobilen Geräten mit integrierter GPU) -> und hier lässt AMD immer mehr Federn, weil Intel aufholt. (oder AMD nachlässt, je nach Betrachtungsweise)
Wo holt Intel denn auf oder wo lässt AMD nach? Intel hat mit dem breiteren Haswell Backend zwar bessere MT Skalierung erreicht, aber das hat AMD mit den zwei Decodern in Steamroller auch. An der deutlich besseren CMT Skalierung gegenüber SMT hat sich also nach wie vor nichts geändert. Llanos iGPU war schon etwa doppelt so leistungsfähig wie Intels iGPU seinerzeit. Daran hat sich abseits der deutlich aufwändigeren und teureren Iris Pro Lösung immer noch nichts geändert. Kaveris iGPU ist nach wie vor etwa doppelt so leistungsfähig wie die HD 4600. Intel's Architektur legt mittlerweile auch nur noch 5-10% von Generation zu Generation zu. Mit Steamroller hat AMD immerhin mal wieder einen etwas grösseren Sprung mit ~15% gemacht. Also ich sehe nicht, dass AMD nachlässt. Eher im Gegenteil. Einen Kaveri gibt's mittlerweile sogar mit 45W und relativ guter Performance. Daran war mit Trinity noch nicht wirklich zu denken. Auch wenn Intel aufgrund der besseren Fertigung bei gleicher TDP sicherlich immer noch einen Vorteil hat. Mal schauen, was Excavator zu bieten hat. Auch hier könnte nochmal eine deutliche Verbesserung rausspringen. Vor allem falls er die spekulierte 256-bit FPU mitbringen sollte. Das hat ja schon Haswell in einigen Anwendungen überproportional geholfen. Wenn AMD nachlässt, dann nur bei den grösseren Modellen. Aber auch das scheint nur, weil hier der Fokus voll auf K12 und Zen für 2016 ausgerichtet ist. Da sind im Moment einfach keine Ressourcen für andere Sachen vorhanden.

Seit wann wiegen Geschwindigkeit und Latenz eines als schnellen Zwischenspeicher gedachten Puffers die absolute Größe auf?
Hat das denn jemand behauptet? Aber wenn die Arbeitsdaten einer Anwendung in einen 1 MB Cache passen, was ja immer noch relativ viel ist, dann bist du mit dem schnelleren Cache in jedem Fall besser bedient. Da nützt dir die zusätzliche Kapazität eines 2 MB Caches überhaupt nichts. Man sollte also erst mal abwarten, was im Schnitt bei Carrizo rausspringt. Wenn er bei gleichem Takt in einer Vielzahl von Anwendungen aufgrund des kleineren Caches gegenüber Kaveri deutlich an Performance verliert, kannst du dich immer noch darüber aufregen. Bis dahin bringt es aber nichts, alles schlecht zu reden. Komischerweise fällt das einigen immer nur bei AMD ein. Wenn bei Intel der Cache schrumpft, wie zB von 12 MB bei Yorkfield auf 8 MB bei Nehalem, und das trotz doppelt so vieler Threads, interessiert das offenbar keinen. :rolleyes:

Kaum Mehrperfomance gegenüber Jaguar und Puma
Richtig, so ist es.
 
Update

hier noch ein argument pro L3 Chache.

Auf Basis extrem überarbeiteter Silvermont-CPU-Kerne mit vierfachem Hyper-Threading wird Knights Landing auf ein On-Package-DRAM vom Typ Hybrid Memory Cube aus dem Hause Micron in Größe von 16 GByte vertrauen können. Der Speicher kann so konfiguriert werden, dass er je nach Einsatzumgebung nicht nur als einfacher schneller Speicher sondern quasi auch als L3-Cache zur Verfügung steht. Die Double-Precision-Leistung des Chips soll so bei über 3 TFLOPS liegen, die reine CPU-Leistung in der Spitze um das Dreifache ansteigen. Die Vorteile des neuen Speichers sowie deren Anbindung sollen sich massiv auswirken.

Das 7,2 Milliarden Transistoren schwere Design wird im zweiten Halbjahr 2015 in Produktion gehen. Die kommenden Monate wird bei Intel weiter an der 14-nm-Fertigung gefeilt, sodass bei dem bisher transistorstärksten Chip von Intel eine entsprechend hohe Yield-Rate erreicht werden kann, um genügend voll funktionsfähige Chips zu erhalten. Spekuliert wird bisher eine Die-Größe von rund 700 mm²; ein Wert auf Augenhöhe der Vorgänger.

In dieser Woche hatte Intel bereits bestätigt, dass die dritte Generation von Xeon Phi mit dem Codenamen Knights Hill in 10 nm gefertigt wird.
 
Zuletzt bearbeitet:
Und welche sollen das sein? Ich sehe nur eines, was für mich nicht mal nachvollziehbar ist. Fast alle Spiele, die ich sehe, liegen bei maximal 5-10%. Ihr habt aber das Thema nicht wirklich verstanden. Es geht um Aufwand und Nutzen und nicht um das Maximum um jeden Preis, was ihr gerne hättet. Es macht schlichtweg keinen Sinn, einen Prozessor um 50% zu vergrössern (zB im Fall von Propus vs Deneb), wenn dann bei einigen Workloads lediglich 5-10% rausspringen.

Wie schon gesagt, sind wir lange schon über den Punkt drüber hinaus einfach nur eine Basisleistung abzudecken. Und AMD kann es sich fast schon nicht mehr leisten eben Prozente liegen zu lassen. Weil es weitere Nachteile bedeutet und die Lücke immer größer wird. Aber was erzähle ich dir das überhaupt, du wirst es sowieso nicht erkennen wollen...
Offenbar scheinen Titel wie CoH stark am Cache zu klammern. Bei CB gibts in einem etwas früheren Artikel noch Messungen zu WiC -> gleiche massive Performanceeinbußen ohne den Cache.
Böse Zungen würden jetzt behaupten, dass die anderen Titel womöglich eher GPU limitiert waren und der Unterschied bei Titeln mit starker CPU Leistungsanforderung deutlich ins Gewicht fällt.

Schon klar. Und das belegst du mit einem Spiel, CoH? Welches bekanntlich eh nie sonderlich gut für AMD optimiert war.

Was spielt das für eine Rolle? Man geht in den Laden und kauft eine Software, installiert diese und nutzt das Ding so wie es kommt. Nicht mehr und nicht weniger. Der Anteil derer, die sich da an irgendwelchen Optimierungen aufhängen ist derart gering, das es gar nicht lohnt das zu erwähnen.


Wo holt Intel denn auf oder wo lässt AMD nach?

Lesen...
Ich schrieb "Zählt bei beiden hingegen nicht die absolute Leistung, sondern viel eher müssen nur Basisleistungen abgedeckt werden, kommen andere Faktoren ins Spiel. Stichwort Verbrauch, Stichwort Featuresets, Stichwort Boardauswahl, Stichwort RAM Menge/Anbindung (bei mobilen Geräten mit integrierter GPU) -> und hier lässt AMD immer mehr Federn, weil Intel aufholt."

Schau dir an, wer zu K8 Releasezeiten die Nase in den genannten Stichwörtern vorn hatte und schau dir die Situation heute an. Wenn du das verinnerlicht hast, stell dir bitte die Frage selbst nocheinmal.

Aber wenn die Arbeitsdaten einer Anwendung in einen 1 MB Cache passen, was ja immer noch relativ viel ist, dann bist du mit dem schnelleren Cache in jedem Fall besser bedient. Da nützt dir die zusätzliche Kapazität eines 2 MB Caches überhaupt nichts. Man sollte also erst mal abwarten, was im Schnitt bei Carrizo rausspringt. Wenn er bei gleichem Takt in einer Vielzahl von Anwendungen aufgrund des kleineren Caches gegenüber Kaveri deutlich an Performance verliert, kannst du dich immer noch darüber aufregen. Bis dahin bringt es aber nichts, alles schlecht zu reden. Komischerweise fällt das einigen immer nur bei AMD ein. Wenn bei Intel der Cache schrumpft, wie zB von 12 MB bei Yorkfield auf 8 MB bei Nehalem, und das trotz doppelt so vieler Threads, interessiert das offenbar keinen.

Was interessiert mich Yorkfield und Nehalem? Ich versteh dein Problem nicht... Mal ganz davon ab ist der Vergleich total neben der Spur. Bekanntermaßen hat Yorkfield nicht 12MB Cache sondern 2x6MB. Wärend Nehalem 1x8MB hat. Benötigt deine Anwendung 7MB, wird es bei Nehalem passen, bei Yorkfield hingegen nicht. Und ja, auch die Core2 CPUs haben massiv am Cache geklammert. Allen vorran die E2xxx Dualcores mit mickrigen 1MB shared L2 Cache...

Und was den Rest angeht, wie oben erwähnt gibt es Anwendungsfälle, gerade im Spielebetrieb, wo eben dieser poplige Cache Performance bringt. Es sagt auch niemand, das da sonstwieviel Cache drauf sein muss. Man muss da eher ein Mittelmaß finden. Deine Vergleiche von wegen doppelter DIE Größe aufgrund des Caches sind damit ebenso ziemlich unsinnig. Dann schraubt man halt nur 3MB anstatt 6MB drauf und gut ist. Wie viel Cache benötigt wird in diesen und jenen Anwendungsfällen, wissen wir nicht. Mehr wie 1MB pro Thread scheint aber durchaus sinnvoll, gerade wenn man in den Spielesektor schielt. Es gibt übrigens noch weitere Benchmarks... Gerade zwischen 750/760k und FX4300/4350 kann man gute Unterschiede beobachten. Auch dort wieder über mehrere Spiele.


Aber weist du was, mir ist es auch vollkommen Latte, was du hier denkst. Die Diskusion wird so oder so nicht objektiv verlaufen, das habe ich über die Jahre Diskusionen mit dir und deinem Geschreibsel gelernt. Also fahr ruhig weiter drauf ab, wenn es AMD auch in Zukunft fertig bringt, ihre Produkte immer weiter in die Einsteigerniesche zu drücken...
 
Dito - siehe erster Absatz meines letzten Posts...


Nur noch kurz zwecks Screenshots @mr.dude: ich hatte bereits geschrieben das ich das die letzten Monate für mich getestet hatte, da das nicht für so ne Diskussion gedacht war habe ich es nicht dokumentiert. Ich sage das allerdings nicht zum Spaß - teste es doch selber einfach? [Edit: die MinFPS sprich 42 Vs. 27 auf Perlenfluss in WoT hab ich mir wahrscheinlich deshalb gemerkt weil es der erste Test war wo es direkt so krass auffiel - ich habe allerdings weit über 1000 Replays von WoT angesammelt, genau diese beiden zu finden wo man es sieht gleicht der Suche nach einer Nadel im Heuhaufen]

Ich kanns mir nicht leisten permanent zwei oder drei Systeme stehen zu haben - vielleicht bist du da ja besser dran und kannst es gleich noch dokumentieren - wäre super.

Weiterhin verstehe ich schon wie nen Programm funktioniert und wo Flaschenhälse sind... Fehlender L3 bei einer Serverarchitektur die dafür ausgelegt ist welchen zu haben ist definitiv einer!

€dit2: Was mir aufm Heimweg eingefallen ist: Ich reg mich z.b. nicht über die Verkleinerung des L2 Caches auf, da er imo eh nicht viel bringt bei so ner doch eher "langsamen" CPU/APU ... ich wäre halt dafür das man den gesparten L2 Cache (von 2x 2Mb auf 2x1Mb) halt ummünzt auf 2x1 Mb L2 + 1x 2Mb L3 Cache - fände ich Sinnvoll.

Aber damit wären wir wieder bei der alten Leier und somit wieder in ner Endlosschleife... hab ich wie gesagt atm keinen Nerv zu, echt nich... :shake:


lg

Marti
 
Zuletzt bearbeitet:
Lesen...
Ich schrieb "Zählt bei beiden hingegen nicht die absolute Leistung, sondern viel eher müssen nur Basisleistungen abgedeckt werden, kommen andere Faktoren ins Spiel. Stichwort Verbrauch, Stichwort Featuresets, Stichwort Boardauswahl, Stichwort RAM Menge/Anbindung (bei mobilen Geräten mit integrierter GPU) -> und hier lässt AMD immer mehr Federn, weil Intel aufholt."
Hallo fdsonne, sorry das ich den Absatzt so aus dem Kontext reiße, aber das selbe gilt auch für Intel.
Seit über 10 Jahre nutzen sie SMT (HTT) und immer diese pobbligen 256KByte L2 Cache, die haben das Rad bestimmt schon 10 mal neu erfunden.
Solang AMD Features hat die sonst keiner bietet, ist der Verbrauch zweitranging (nicht egal).

Ich habe schon länger den Eindruck als würden die Marketing Leute nicht so sehr mit der eigentlich Technik befassen, egal bei welchem Hersteller. :fresse:
 
Seit über 10 Jahre nutzen sie SMT (HTT) und immer diese pobbligen 256KByte L2 Cache, die haben das Rad bestimmt schon 10 mal neu erfunden.
Solang AMD Features hat die sonst keiner bietet, ist der Verbrauch zweitranging (nicht egal).

Auf der einen Seite hast du natürlich recht. Auf der anderen Seite aber steht die Frage, was bringen mir die Features?
Was will ich mit HSA, wenn es "keine" Software gibt, die davon gebrauch macht? Was will ich mit ner APU, wenn die GPU eigentlich nur dafür da ist, ein Bild auf den Schirm zu bringen, ohne meine Anwendungen in irgend einer Weise zu beschleunigen?
Was will ich mit dem Modulkonzept, was auf mehr, dafür weniger starke "Threads" setzt, wenn der Markt immernoch stark auf pro Thread Performance abfährt usw.

Derweil Beispiele gibt es genügend.
Dort wo AMD vor Jahren noch punkten konnte, nämlich dem Verbrauch, nämlich der Leistung, nämlich der Effizienz und auch dem Preis wird es heute immer weniger. Nüchtern betrachtet wird das Leistungsspektrum immer kleiner und alles was groß über 100€ pro Prozessormodell drüber hinaus geht, geht völlig an AMD vorbei. Nicht zuletzt erreicht man diesen Status, weil man eben Märkte aufgibt. Unterm Strich auch verständlich, wenn man entweder nicht mithalten kann/will oder der Bereich allgemein unrentabel ist.
Nimmt man das Featureset der Platform noch ins Boot, siehts noch dünner für AMD aus. Halbwegs aktuell ist FM2+/AM1 heute noch. Aber kein AM3+. Und ja, es ist nur halbwegs aktuell, denn wo Intel noch munter weitere Features einbaut mit jeder neuen Generation, stagniert FM2+ nun auch schon wieder. -> auch in Sachen Kaveri Nachfolger ist atm nix bekannt in Sachen Desktopmarkt, sondern wir sprechen hier von Notebook/Mobile. Gibt man die Sache vllt auch auf? Die Meldungen von wegen nur max. 65W TDP könnten! darauf schließen lassen, dass man auch hier auf die Bremse tritt.
Schaut man weiter nach argumenten, so ist das P/L von den A10-78xx aktuell nicht sonderlich gut. Mit ner älteren Richland 750K/760K oder ner aktuellen 860K + dGPU kommt man nicht primär teurer, hat dafür aber bedeutend mehr GPU Power bei bestenfalls unwesentlich CPU Leistungsbeeinträchtigungen. Und schon sind wir nur noch im Bereich 80€ für die CPU.

Ansonsten, was die reinen Features angeht. Auch bei Intel bekommt man dort Neuerungen. Das nunmehr SMT seit geraumer Zeit im Boot ist, ist doch deswegen kein Beinbruch ;)
Viel interessanter ist doch der Wandel der Netburst P4s über Core2 bis hin zum aktuellen Haswell Refresh. Wenn du mir jetzt sagen willst, da hat sich nichts getan, dann zweifel ich ehrlich gesagt etwas an der Sachlichkeit deiner Argumentation...
Und ich sag dir nochwas, mit Broadwell wird sich in Sachen GPU noch etwas tun, ob man 7850K Niveau erreicht, bleibt abzuwarten, aber es könnte schon eng werden... Dann ist auch dieser "Featurevorteil" bei AMD an Intel gegangen. :wink:
 
@fdsonne
Bezüglich Software scheint AMD wirklich zurückhaltend zu sein, keine Frage!
Aber selbst ein Phenom I hatte schon 512KByte L2 Cache pro Thread. In der Hinsicht sind sie einfach ein Stück weiter.
Auch wenn die Software diesen Vorteil noch verdeckt, Mantle hat zumindest mir Eindrucksvoll demonstriert was in der Hardware steckt. :)
 
Die Caches muss man eher im Gesamten sehen... Der Phenom I hatte zwar "nur" 512KB L2 Cache pro Core, dafür aber eben einen 2MB shared L3 Cache Coreübergreifend als dritte Ebene. Core2 hatte bspw. nen großen shared L2 Cache. Was gar nichtmal übel war ;) Zumindest für die Dualcores. Die Quadcore Core2 Modelle mit den beiden Dualcore DIEs unterm Deckel hatten halt auch das Problem der Querkommunikation über den FSB, was die Skalierung bei MT Software häufiger etwas einbrechen ließ.
Nehalem und folgende haben nun halt den shared L3 Cache der diesen Part abfängt bzw. abfedern kann, dafür ist der L2 Cache pro Core eben ziemlich mickrig.

Das Problem, über das hier aber oben gesprochen wurde ist eher die Tatsache, das die AMD APUs eben keinen shared L3 Cache haben und AMD mit dem Kaveri Nachfolger überlegt, den L2 Cache pro Modul zu halbieren. Aus 2x2MB wie es jetzt Kaveri bietet könnten so eben nur noch 2x1MB werden. Das fällt dir eben dann auf die Füße, wenn die Software mehr wie 1MB Cache nutzen könnte und es keine Ebene dahinter gibt. Und die gibts halt ohne L3 Cache nicht...

Interessant bei der Sache könnte bestenfalls noch werden, wenn man einen anderen Weg in Sachen Speicheranbindung einschlägt. Ggf. HBM? Wenn vergleichsweise hohe Bandbreiten und geringe Latenzen über die RAM Anbindung bereit stehen, dann kann man sich einen womöglich langsamen L3 Cache natürlich faktisch sparen. Wenn mich nicht alles täuscht, scheint AMD ja seit einigen CPU "Generationen" schon etwas mit der Cache Performance zu kämpfen. Ich meine mich dunkel dran zu erinnern, das selbst schon die Phenom I CPUs da nicht das erreicht hatten, was man erwartet hatte? Also einen Ansatz wie oben verlinkt wurde, den Intel mit Knights Landing ebenso anzustreben scheint. -> ob es aufgeht? Abwarten...
 
L3-Cache sitzt auf dem CPU-Die, hat also deutlich niedrigere Latenzen als ein Speicherzugriff und auch als HBM. HBM war nie als L3-gedacht, ist allerdings als LLC einsetzbar. Zu behaupten man bräuchte keinen L3, weil die Speicheranbindung reicht, geht einfach am Sinn vorbei. Der L3 spart Zeit beim Zugriff, deshalb ist es immer besser einen zu haben.
Ob AMDs Strategie besser ist oder Intels mit dem Umgang von Cache, wer welche Packdichten hat usw. ist doch nachrangig. Wenn es zur Architektur passt ist doch alles gut, da lohnt sich gar keine Diskussion. Intel hat da für seine Architektur das beste 3-stufige-Design mit den richtigen Größen gefunden. zusätzlich arbeiten die Hersteller ebenfalls noch daran, die Anbindung des Hauptspeichers effizienter zu gestalten, genau so ein Ansatz ist den RAM von einer Platine auf den CPU-Träger zu schieben, noch besser ist es den RAM auf einen Interposer zu löten, eine weitere noch bessere Lösung ist auf das Die Stapeln. Danach wär noch die Integration in das Prozessordie denkbar, das hat aber einfach zuviele Nachteile.
HBM ist schon das Beste, was man mit RAM in geschlossenen Systemen machen kann. Braucht man Speichererweiterungen bleibt man auf der Platine.
AMD stapelt als erster auf Interposer oder stapelt gleich auf das Die, NV und Intel verschieben RAM auf den Träger.
 
Zuletzt bearbeitet:
hier noch ein argument pro L3 Chache.
Das ist eher ein Argument kontra bisheriger L3, wenn dieser von Stacked Memory ersetzt werden kann. Das habe ich ja weiter vorne schon geschrieben. Trotzdem sollte man bedenken, dass die Technik noch relativ neu ist und im Vergleich deutlich teurer. Schliesslich reden wir hier nicht nur über 40-50 mm² zusätzlicher Die-Fläche bei einem einzigen Chip. So schnell wird Stacked Memory bisherige L3 also nicht ersetzen können. Technisch ja, bezüglich Kosten aber noch lange nicht.


Waren mit dem PGI Compiler die Opterons schon immer schneller als die Xeons?
Immer nicht, teilweise aber schon. Schon zu Barcelona und Shanghai Zeiten konnte PGI die Opterons deutlich beschleunigen. Wobei AMD zuletzt immer Open64 genutzt hat. Der fehlt leider in der Liste.


Nur noch kurz zwecks Screenshots @mr.dude: ich hatte bereits geschrieben das ich das die letzten Monate für mich getestet hatte, da das nicht für so ne Diskussion gedacht war habe ich es nicht dokumentiert.
Dann lasse ich das mal unkommentiert so stehen. Ich will nur sagen, nicht alles, was man vermeintlich misst, muss die Ursachen haben, die man glaubt. Ohne zu wissen, was du konkret getestet hast, lässt es sich als Aussenstehender halt schwer beurteilen. Die eigentliche Frage ist doch aber, welche Praxisrelevanz das hat. Und meiner Erfahrung nach eine sehr geringe, weil das eher Ausnahmen sind und nicht die Regel.

"€dit2: Was mir aufm Heimweg eingefallen ist: Ich reg mich z.b. nicht über die Verkleinerung des L2 Caches auf, da er imo eh nicht viel bringt bei so ner doch eher "langsamen" CPU/APU ... ich wäre halt dafür das man den gesparten L2 Cache (von 2x 2Mb auf 2x1Mb) halt ummünzt auf 2x1 Mb L2 + 1x 2Mb L3 Cache - fände ich Sinnvoll."
2 MB L3 macht doch aber wenig Sinn. Das ist zu wenig, wenn der L2 bereits 1 MB gross ist. Da kann man auch gleich bei 2x 2 MB L2 bleiben. Vielleicht wäre was ab 4 MB L3 brauchbar. Aber das kostet dann halt auch schon wieder einiges an Fläche. Mit 28nm hat man die im Moment einfach nicht. Da ist anderes wichtiger. Vielleicht wird's mit 14nm besser. Übrigens, Apple's Cyclone besitzt genau diese Cache Konfiguration, 1 MB shared L2, 4 MB L3. Aber die können es sich halt auch leisten, weil Cyclone in Geräten verbaut wird, die hohe ASPs haben. Da rentieren sich auch höhere Chipkosten.


Wie schon gesagt, sind wir lange schon über den Punkt drüber hinaus einfach nur eine Basisleistung abzudecken.
Um Basisleistung geht es auch gar nicht. Du übertreibst einfach wieder mal bewusst. Basisleistung ist ein kleiner 2-fach OoO 2 GHz Jaguar. Wir reden hier von 4-fach OoO und 4 GHz. Nur weil man ein paar Prozent verliert, wird aus relativ hoher Leistungsfähigkeit nicht plötzlich Basisleistung.

"Und AMD kann es sich fast schon nicht mehr leisten eben Prozente liegen zu lassen."
Was sich AMD nicht leisten kann, sind unwirtschaftliche Designs für Premiummärkte, wo sie aufgrund von Intels Marktmarkt und Knebelverträgen eh wenig Chancen haben. Auf einen grossen und aufwändigen L3 im Clientmarkt zu verzichten, ist kein Nachteil. Ganz im Gegenteil.

"Was spielt das für eine Rolle?"
Eine gewichtige, wenn dieser eine Titel im Schnitt der Masse untergeht.

"Man geht in den Laden und kauft eine Software, installiert diese und nutzt das Ding so wie es kommt. Nicht mehr und nicht weniger. Der Anteil derer, die sich da an irgendwelchen Optimierungen aufhängen ist derart gering, das es gar nicht lohnt das zu erwähnen."
Was auch gar nicht das Thema ist. Ingenieure entwickeln Prozessoren ja nicht danach, was Leute im Laden machen. Sie entwickeln Prozessoren anhand von Simulationen. Und wenn diese zeigen, dass mit L3 in typischen Workloads halt nur maximal 5-10% mehr rausspringen, der Chip dafür aber 50% teurer wird, dann verwirft man den L3 logischerweise. Dass auf dem Markt befindliche Anwendungen nochmal was anderes zeigen können, mag sein. Spielt aber für die Entwicklung keine entscheidende Rolle.

"Stichwort Verbrauch, Stichwort Featuresets, Stichwort Boardauswahl, Stichwort RAM Menge/Anbindung (bei mobilen Geräten mit integrierter GPU) -> und hier lässt AMD immer mehr Federn, weil Intel aufholt.""
Und wo soll Intel konkret aufgeholt haben? Ich sehe da nichts. Entweder lagen sie schon vorher vorne oder liegen nach wie vor hinten. Verbrauch ist kein Argument. Da konnte schon der Pentium-M zu P4 Zeiten punkten. Featureset? Was meinst du da konkret? Eyefinity? Mantle? FreeSync? TrueAudio? Usw. Kann das Intel oder vergleichbares bieten? Sie haben sicherlich in einigen Bereichen aufgeholt, wie bei Bildqualität. Es hakt trotzdem noch in genügend Bereichen. Da hat AMD auch einiges nachgeholt. Die lange Zeit zB kein SSSE3 und SSE4 boten. Selbst der kleine Cat bietet mittlerweile sogar AVX, was Atom wiederum nicht bieten kann. Boardauswahl ist auch kein Argument. Die war bei Intel schon immer grösser. Was auch nicht wirklich überraschen sollte, wenn man den grössten Marktanteil hat. RAM Menge? Das ist ja wohl immer noch jedem selbst überlassen. Oder können da Intel Systeme mittlerweile mit mehr bestückt werden, obwohl es mal anders war? Nicht dass ich wüsste. Bei der RAM-Anbindung hinkt Intel nach wie vor hinterher. Offiziell unterstützt zB ein Haswell i3 lediglich DDR3-1600, während zB Kaveri DDR3-2133 unterstützt. Sicherlich hat Intel einiges nachgeholt, wenn es um den alten FSB geht. Aber das ist mittlerweile wie lange her? 6 Jahre? Weniger als AMD mit HT Vorteile hatte, nämlich nur gut 5 Jahre. Wirklich aktuell ist das also nicht mehr. Sry, aber deine Aussagen ergeben für mich keinen wirklichen Sinn. Beide Unternehmen haben in einigen Bereichen aufgeholt, in anderen Bereichen aber nach wie vor Nachholbedarf.

"Benötigt deine Anwendung 7MB, wird es bei Nehalem passen, bei Yorkfield hingegen nicht."
Wenn es so einfach ist, wieso hat Intel nicht einfach einen cachelosen C2D mit aufs Package geklatscht? Da hätten sie sicherlich einiges an Wafer sparen können. Das es nicht so einfach ist, sollte auch dir klar sein. Da könnte ich auch fragen, was interessiert mich das singlethreaded Verhalten eines Quad-Core? Wenn alle Kerne Last haben und jeder 3 MB an Daten verarbeitet, dann passt das in den L2 von Yorkfield, nicht aber in den L3 von Nehalem. Yorkfield hat 3 MB pro Thread, Nehalem lediglich 1 MB.

"Und ja, auch die Core2 CPUs haben massiv am Cache geklammert."
Die hatten ausserhalb des Caches aber auch noch einen ziemlichen Bremsklotz mit FSB. Da sind aktuelle Speicheranbindungen und erst recht Stacked Memory eine ganz andere Kategorie.

"Deine Vergleiche von wegen doppelter DIE Größe aufgrund des Caches sind damit ebenso ziemlich unsinnig."
Wieder mal nicht richtig gelesen? Von doppelter Die Grösse habe ich nichts gesagt. Ich sprach von 50%. Und daran ist gar nichts unsinnig. Die waren zwischen Deneb (>250 mm²) und Propus (~170 mm²) real. Das mag heutzutage vielleicht nicht mehr so viel in Relation ausmachen, weil es mehr Uncore und iGPU Logik gibt. Das absolute Transistorbudget ist deswegen aber nicht weniger geworden. Und wie gesagt, damit kann man auch anderes implementieren, was im Zweifel mehr bringt.

"Wie viel Cache benötigt wird in diesen und jenen Anwendungsfällen, wissen wir nicht. Mehr wie 1MB pro Thread scheint aber durchaus sinnvoll, gerade wenn man in den Spielesektor schielt."
Lass doch mal deine Spiele stecken. Wir haben's ja kapiert. Das interessiert die meisten Systeme trotzdem herzlich wenig. Erst recht, wenn es nur ein paar wenige Spiele betrifft.

"Es gibt übrigens noch weitere Benchmarks... Gerade zwischen 750/760k und FX4300/4350 kann man gute Unterschiede beobachten. Auch dort wieder über mehrere Spiele."
Na dann verlinke die doch mal.

"Aber weist du was, mir ist es auch vollkommen Latte, was du hier denkst. Die Diskusion wird so oder so nicht objektiv verlaufen, das habe ich über die Jahre Diskusionen mit dir und deinem Geschreibsel gelernt. Also fahr ruhig weiter drauf ab, wenn es AMD auch in Zukunft fertig bringt, ihre Produkte immer weiter in die Einsteigerniesche zu drücken..."
Ist mir schon klar, dass immer genau das dann von dir kommt, wenn du keine wirklichen Argumente hast. Hauptsache du kannst dich stur an deine meist sehr spezifischen und für den Markt wenig relevanten Vorlieben klammern. Ob eine andere Betrachtungsweise nicht doch sinnvoller ist, wird dabei natürlich immer ignoriert. Nochmal, es sagt doch niemand, dass L3 was schlechtes ist. Es macht aber nicht bei jedem Design Sinn, wenn die Kosten weitaus höher sind als der Nutzen. Und bei Mainstream Clientdesigns macht es halt meistens keinen Sinn. ZB bei ARM ist L3 auch nicht nur aus Spass optional.


Schaut man weiter nach argumenten, so ist das P/L von den A10-78xx aktuell nicht sonderlich gut. Mit ner älteren Richland 750K/760K oder ner aktuellen 860K + dGPU kommt man nicht primär teurer, hat dafür aber bedeutend mehr GPU Power bei bestenfalls unwesentlich CPU Leistungsbeeinträchtigungen.
Da bin ich aber mal gespannt, welche dGPU mit aktuellem Featureset du für gut 60 Euro bekommen willst. Denn so viel beträgt der Unterschied zwischen X4 und A10 im Moment. In dem Preisbereich gibt's eigentlich nur sowas wie eine R7 250. Ohne Vergleichstests zu kennen, anhand der Specs bezweifle ich, dass die "bedeutend mehr GPU Power" bieten kann. Für eine R7 260 oder GTX 750 darfst du schon etwa 30 Euro mehr hinblättern.

"Und ich sag dir nochwas, mit Broadwell wird sich in Sachen GPU noch etwas tun, ob man 7850K Niveau erreicht, bleibt abzuwarten, aber es könnte schon eng werden..."
Wenn Intel abseits der deutlich teureren Iris Pro nicht gerade 100% mehr gefunden hat, wird es nicht eng. Und dann muss man eher mit Carrizo vergleichen, der seit Llano den grössten GPU Sprung machen könnte. Kaveri machte mit GCN schon einen grossen Sprung, wurde in der Praxis aber noch zu sehr durch die fehlende Bandbreite ausgebremst. Da könnte gerade delta color compression einiges bei Carrizo bringen.
 
Carrizo hat weiterhin acht CUs, so groß dürfte der Sprung zu Kaveri nicht werden. Vor allem weil trotz Kompression weiterhin DDR3-2133.
 
Doch der Sprung wird groß, weil Kaveri extrem an der Bandbreite hängt und Carrizo mit der FB-Kompression genau dieses Problem löst.
 
Naja, von "lösen" würde ich da aber nicht sprechen... Bei der Kompression handelt es sich ja lt. AMD um 40% mehr Bandbreite im Optimalfall - bei meiner ehemaligen R9 285 machte sich das schon ganz ordentlich bemerkbar... da hatte der Ram aber auch schon so gut Leistung (GDDR5) - bei DDR3 ist die Bandbreite trotzdem noch viel zu niedrig imo...

Ich lasse mich aber zu gegebenem Zeitpunkt sehr gerne von AMD überraschen. :)


lg

Marti
 
Was sich AMD nicht leisten kann, sind unwirtschaftliche Designs für Premiummärkte, wo sie aufgrund von Intels Marktmarkt und Knebelverträgen eh wenig Chancen haben.

Klar, Schuld sind immer die Anderen und die Tatsache, dass AMD lahme CPUs mit schlechtem P/L-Verhältnis produziert, hat nichts mit AMDs Absatzproblemen zu tun. Lol.
 
Das ist aber auch nicht von der Hand zu weisen, dass Intels Politik sich eher nachteilig auswirkt. Aber sicher sind es nicht die effizientesten CPUs. Aber man darf sich immer fragen, woher das kommt & der Grund liegt auch in der Vergangenheit, wenn auch mit Fehlern seitens AMD. Aber der Konkurrent hat da halt sehr großen Anteil daran.
 
Carrizo hat weiterhin acht CUs
Ja, die laut Byrne aber eine "brandneue" Architektur besitzen. Gut möglich, dass auch hier bereits Pirate Islands zum Einsatz kommt. Bisher sah es ja eher nach Graphics IP v8 (Tonga) aus.

so groß dürfte der Sprung zu Kaveri nicht werden. Vor allem weil trotz Kompression weiterhin DDR3-2133.
Delta color compression kann aber 30-40% effektiver mit der gleichen Bandbreite umgehen. Was praktisch 30-40% mehr FPS bedeutet, wenn die Bandbreite limitiert. Und das wäre definitiv ein recht grosser Sprung. Limitiert die Bandbreite nicht, bringt delta color compression sicherlich nicht so viel. Aber mit besserer Architektur und eventuell mehr Takt sollte auch da noch einiges an Mehrperformance drin sein.


Doch der Sprung wird groß, weil Kaveri extrem an der Bandbreite hängt und Carrizo mit der FB-Kompression genau dieses Problem löst.
Sagen wir lieber, mit delta color compression verringern sie die Problematik für den Moment. Wirklich lösen kann man es mMn nur mit Stacked Memory.


Klar, Schuld sind immer die Anderen und die Tatsache, dass AMD lahme CPUs mit schlechtem P/L-Verhältnis produziert, hat nichts mit AMDs Absatzproblemen zu tun.
Schon klar, Intels Contra Revenue Programm ist nur ein Mythos. Eine Milliarde Verlust im mobilen Segment im vergangen Quartal kommt sicherlich nur von teuren Geschäftsessen. Unfassbar, wie einige immer noch die Augen vor Intels Marktmachtmissbrauch verschliessen und stattdessen AMD schlechte Produkte andichten wollen. Wach auf Junge, Cat und Kaveri sind weder lahm, noch haben sie ein schlechtes P/L-Verhältnis. Wenn Intel aber ihre Bay Trails verschenkt und noch $70 zur "Aufwandsentschädigung" draufpackt, dann hat das nichts mehr mit technologischem Wettbewerb zu tun.
 
Zuletzt bearbeitet:
Mit Steamroller hat AMD immerhin mal wieder einen etwas grösseren Sprung mit ~15% gemacht.

Ich denke da packt wieder einer die Rosinen aus, während er anderen vorwirft mit Rosinen zu argumentieren.
Der Planet3dnow Test hat erst vor kurzem etwa 3% gemessen und bei Computerbase sind es im Schnitt etwa 6%, aber das bringt sowieso gar nichts, weil der Takt gesunken ist und der 7850k somit in jedem Test maximal gleichschnell, eher langsamer rechnet.

Dass es dir nicht langsam zu blöd wird, immer diese AMD Fanboydiskussionen zu führen, geht mir nicht in den Kopf.

Intel hat mit Haswell die IPC und den Takt erhöht, AMD die IPC, vergleichbar mit Haswell erhöht und dafür den Takt gesenkt. Tolle Leistung, ein Geniestreich.
Aus diesem Grund wurde der A10 7850k kaum für die Tests freigegeben.

Und selbst die 45 Watt CPU´s sind bis auf wenige Prozent kaum effizienter wie der 65 Watt A10 Trinity.

AMD fällt immer weiter zurück, jedes Jahr.
Die einzige Hoffnung ist auf Seiten der CPU noch Zen, aber da erhoffe ih mir nix davon.


mr.dude schrieb:
Wach auf Junge, Cat und Kaveri sind weder lahm, noch haben sie ein schlechtes P/L-Verhältnis.

Das P/L Verhältnis der ganzen APU´s ist eher schlecht als recht, besonders das P/L des a10 7850k und des A10 7700.
Wenn ich Spielen will, tuts ein Pentium für 50 Euro und ne Graka für 70.

Ein i3 für 95 Euro ist bereits CPU seitig deutlich flotter.
 
Zuletzt bearbeitet:
Mr.dude, kannst du mir 'ne Telefonnummer von Intel geben, bei der ich die geschenkten CPUs plus die $70 kriegen kann? Ich würde dann gleich so 1-10 Mio Stück nehmen. Danke im voraus!

Und sorry, Bulldozer und alles was danach kam, ist nun mal vergleichweise lahm. Das Preisleistungsverhältnis war bei Markteinführung jeweils katastrophal schlecht - o.k. durch 4-5 Preissenkungsrunden, können die CPUs jetzt auf einem ähnlichen Preisleistungsniveau wie die Intel CPUs verramscht werden.

Sich an einer nutzlosen integrierten GPU aufzuhängen, um zumindest die APUs schönzureden, bringt dabei auch nichts. Für einen Office PC ist sie nutzlos stark und für einen Spiele-PC ist sie nutzlos schwach. Klar, du wirst jetzt spezielle, irrelevante Gegenbeispiele konstruieren - nur interessiert die niemand.

Siehst du nicht, dass selbst denen, die damals bei deiner Bulldozer Reklame Blitz Aktion hier im Forum auf deinen Leim gegangen sind, mittlerweile erkannt haben, dass der Kaiser bei AMD gar keine Kleider an hat?

Also mir sind Intels Methoden, hart gegen die Konkurrenz vorzugehen, 1000 Mal lieber als AMDs Marketing Methoden, die Endkunden direkt zu verarschen. Siehe Kernanzahl... lol.

Aber jeder wie er es mag noch. Viel Glück noch auf deinem Reklamefeldzug durch die Internetforen.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh