AMDs "Kaveri" zeigt sich vor seinem Marktstart in Japan

Mick_Foley schrieb:
CMT in schnell wäre genial, aber ein Konzept, dass die Pro Thread-Leistung nicht fördert,

Inwiefern fördert das Konzept die Singlethreadleistung nicht?
Das Konzept könnte Intel doch genauso umsetzen für ihre aktuelle Architektur und würde AMD damit wohl in den Boden rammen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Das Konzept könnte Intel doch genauso umsetzen für ihre aktuelle Architektur und würde AMD damit wohl in den Boden rammen.
Intel wollte das Konzept damals nicht, es stammt von Andy Glew (Pentium Pro Chef), wozu auch? 16C/32T sind in 22nm gerade mal 500mm² groß und kosten nur ein Bruchteil da Intel selber Chips fertigen kann, Intel kann bei <8 Threads den Rest einfach Power Gaten und der Takt bleibt weiterhin hoch (Turbo).
PS: Der Erfinder arbeitet jetzt wieder bei Intel :lol: AMD wurde ausgetrickst :p
 
Da hoffe ich mal, dass AMD den Stromverbrauch gut senken konnte und der Grafikchip mit GCN deutlich perfomanter ist als der auf Trinity und Richland...
Weil mein A10-5800K @ 4GHz macht auch 312 Punkte im Cinebench R15... also in der Hinsicht lohnt sich ein Wechsel nicht.
Aber die Grafik dürfte noch ca. 30-50% zulegen, dann wäre der Chip echt perfekt.

Mit dem 5800K und übertakteter GPU geht schon einiges, aber oft fehlt die gewisse "Reserve", damit die Games in hektischen Szenen nicht einbrechen.

Ich bereue die Anschaffung der APU @ ITX auf keinen Fall... ich sitze immer weniger an meinem "dicken" PC mit Intel Sixcore und dedizierter Grafikkarte... 80% der Spiele die ich gerade zocke laufen auch problemlos @ APU und dann gemütlich am Fernseher - ist quasi schon eine Steambox ^^ und im Alltagsbetrieb merkt man keinen Unterschied, da sind die 2+2 Cores ausreichend flott.
 
Zuletzt bearbeitet:
@Bob
die GPU könnte nach aktuellem Wissen irgendwo im Bereich ~20-25% auf die des 6800K zulegen.
Was default vom 5800K dann um die 45% sein würden. (grob)
OC kommt dann halt oben drauf, da aktuell vollkommen unbekant, was da geht.

Ob sich ein Wechsel aber für dich lohnen würde? Denn du wirst wohl kein FM2+ Board haben -> und müsstest somit quasi alles neu anschaffen. 2400er RAM ist ebenso nicht verkehrt wegens der Bandbreite.


PS: kennt jemand Folien zum A88X Chipsatz? Mich tät mal die Anbindung der Ports und Slots an das System interessieren...
 
Ich wollte damals schon auf Kaveri warten und dachte auch, dass der auf FM2 läuft (war doch mal so geplant von AMD).
Aber dann kam ja die Meldung, dass es einen neuen Sockel gibt :(

Ich hab das Asrock FM2A85X-ITX - da läuft er leider nicht :(
Ram hab ich schon 2400er drin.

Falls ich umsteige, dann ist das natürlich nicht vernünftig, aber dann bekommt jemand aus der Familie den ITX-Würfel - unglaublich, was da mittlerweile an Power drinsteckt in den APUs... fast jeder laute "OEM-Fertig-PC" der 800€ Klasse aus z.B. 2008 hat weniger Leistung.

Ich finde es schade, dass AMD so wenig Anteil im OEM-Geschäft hat... ein kleiner fertig-PC mit nem A10 drin ist für Mulitmedia/Office und das Spiel zwischendurch ausreichend schnell und dann gibt es immer noch die Option auf eine separate Grafikkarte... aber nein, da wird nur ein überzogener i5/i7 angeboten mit "4GB Nvidia Grafik" und dann ist irgend eine völlig überforderte Low-End GPU mit dabei...
 
Man muss das Blödmarkt Zeugs ja nicht kaufen ;)
Wer es schafft, sich dahingehend zu informieren und dann eine AMD APU Lösung als gescheint einstuft, der schafft es genau so mit dem gleichen Wissensdurst zu dem Thema diskrete Grafikkarten anständig zu bewerten.
 
Das ist klar - aber sehr viele gehen halt in den Blödmarkt und kaufen dann was und im Endeffekt passt es oft ganz und gar nicht zum Bedarf. Und imho liefert AMD gerade mit den A10 APUs ein wunderbar stimmiges Gesamtpaket ab. Ich habe die Dinger am Anfang auch belächelt und es dann halt mal selbst ausprobiert - ist echt was feines :) Daher verstehe ich auch, wenn AMD alles in den Bereich wirft - in der reinen CPU-Leistung ist der Zug bereits abgefahren.

Wegen den Folien zum A88X: Ich habe leider auch nichts gefunden, aber viele Seiten sprechen davon, dass es nur ein marginal veränderter A85X sein soll.
 
klar war der Legendäre BD MK1 nicht effizienter, und der Vishera teilweise auch schwächer, doch liegt das eher am hochtakt design als an der architektur idee wie ich finde.
Zum x-ten mal, Bulldozer ist kein Hochtaktdesign. Höher taktend als K10 ja, aber nicht hoch taktend per se. K10 hatte einfach eine ziemlich kurze Pipeline mit lediglich 12 Stufen. Hier musste man was tun, weil der Takt am Limit war. Sieht man ja auch an Llano. Der kommt selbst mit Übertaktung kaum auf Taktraten, die aktuelle AMD oder Intel Prozessoren default können. Beim meinem X4 651 war jedenfalls bei etwa 3,4-3,5 GHz unter normaler Luftkühlung Schluss. Darüber hinaus haben selbst deutliche Spannungserhöhungen nichts mehr gebracht. Und wenn man sich so umschaut, scheint das normal für Llano zu sein. Mit einer solchen Pipeline war auf lange Sicht kein Blumentopf mehr zu gewinnen.


CMT in schnell wäre genial, aber ein Konzept, dass die Pro Thread-Leistung nicht fördert, den Mangel an IPC durch Takt kompensieren muss ...
Nur hat beides nichts mit CMT zu tun. Ganz im Gegenteil, CMT kann genauso wie SMT aufgrund gemeinsam genutzter Einheiten IPC fördern. AMDs CMT Ansatz bedeutet einfach ausgedrückt, 2 herkömmliche singlethreaded Kerne zu einem dualthreaded Kern zu vereinen, mit annähernd vergleichbarer Skalierung, aber ohne unnötige Redundanzen. Das ganze kann man natürlich auch noch weiterspinnen, zB 4 herkömmliche singlethreaded Kerne zu einem quadrothreaded Kern. Hinter CMT steckt also lediglich die Maszgabe, dass jeder Thread ausreichend Ressourcen für gute Skalierung bekommt. CMT macht aber keinerlei Vorgaben darüber, wie viele Ressourcen ein Thread bekommt. Das obliegt ausschliesslich der konkreten Implementierung. Und Takt hängt vom Pipelinedesign ab, nicht vom Multithreadingdesign. Du kannst auch die Stars Architektur in ein CMT Design verpacken. Ist nur die Frage, ob das Sinn macht, wenn das Design dann am Takt verhungert. Schade, dass viele nach mehreren Jahren Diskussion anscheinend immer noch nicht CMT verstanden haben und konkrete Implementierung und allgemeine Konzeptionierung in einen Topf werfen.

Dass Intel im Moment mehr IPC hat, liegt nicht an CMT, sondern vor allem an der Implementierung grundlegender Einheiten. Wie Loop-Cache / µOp Buffer, was es bei Intel schon recht lange gibt und AMD zum ersten mal mit Jaguar / Steamroller in Angriff genommen hat. Oder MacroOp-Fusion, was Intel auch schon länger und AMD erst mit Bulldozer eingeführt hat. Oder ausgeklügelte Algorithmen für die Sprungvorhersage, die Intel zu Netburst Zeiten aufgrund dessen langer Pipeline entwickeln musste und in späteren Architekturen recycelt hat. Usw usf. Zudem ist Intels Architektur grundlegend ausgereifter, weil sie im Kern nun schon fast 20 Jahre existiert. Vergleichbares ist von einer Architektur, die gerade mal 2-3 Jahre auf dem Markt ist, natürlich nicht zu erwarten.


die GPU könnte nach aktuellem Wissen irgendwo im Bereich ~20-25% auf die des 6800K zulegen.
Wie kommst du darauf? Wenn wir nur von Grafikanwendungen sprechen, da ist GCN Pi mal Daumen 20% effizienter als VLIW4. Hinzu kommen 33% mehr Shader. Macht unterm Strich theoretisch 60% mehr Performance. Da der Takt aber sinkt, von 844 auf 730 MHz, bleiben knapp 40% übrig. Das sollte die Ausgangsbasis sein. Alles weitere sind eine Menge Unbekannter, wie Turbo, Speicherlimitierung, hUMA, hQ, Mantle usw, die eine konkrete Prognose nahezu unmöglich machen.
 
mr.dude, meine Annahme (ja, mehr ist es in der Tat nicht) basiert auf dem Grafikkarten Ratings der HD6970 vs. HD7970 zu Release bzw. kurz danach von letzter.
Da steht das gleiche VLIW4 zu GCN Zuwachsverhältnis wie hier bei Richland zu Kaveri. -> gepaart mit einem dezenten Taktvorteil für die GCN Einheit.
Unterm Strich sehen wir dort im Rating eine durchschnittliche Mehrleistung von ca. 35%.
Zieh die ~5% mehr Takt ab und rechne noch ~15% des eingebüßten Taktes runter und du kommst in etwa dort hin, wo ich sagte.

Mögliches Bandbreitenlimit (was sich ja nur unwesentlich nach oben korrigiert) kommt noch oben drauf. Denn bei den dGPUs steigt die Bandbreite durch das 384Bit SI gleich mal um 50% bei gleichem Speichertakt. Bei den APUs kann hier nur hUMA eventuell positives ausrichten. Wie viel? Unbekannt...

PS: habe vorhin übrigens erst eine Folie gesehen, wo AMD selbst von bis zu 30% sprach... :wink: Nur so als kleiner Denkanstoß.
Diese bis zu 30% waren ebenso mit nem kleinen Sternchen versehen -> und in der Fußnote stand, das es sich nicht um Messwerte handelt, sondern wörtlich um "Pre-silicon projection and not based on actual measured data"
Das gleiche Sternchen stand auch bei den "bis zu 20%" für den CPU Part :wink:
Von realen 40% kannst du dich definitiv verabschieden, wenn selbst der Hersteller da vorsichtig mit bis zu 30% rangeht...
 
Zuletzt bearbeitet:
K10 hatte einfach eine ziemlich kurze Pipeline mit lediglich 12 Stufen. Hier musste man was tun, weil der Takt am Limit war. Sieht man ja auch an Llano. Der kommt selbst mit Übertaktung kaum auf Taktraten, die aktuelle AMD oder Intel Prozessoren default können. Beim meinem X4 651 war jedenfalls bei etwa 3,4-3,5 GHz unter normaler Luftkühlung Schluss. Darüber hinaus haben selbst deutliche Spannungserhöhungen nichts mehr gebracht. Und wenn man sich so umschaut, scheint das normal für Llano zu sein. Mit einer solchen Pipeline war auf lange Sicht kein Blumentopf mehr zu gewinnen.
Ich hatte damals mehrere 45nm K10, 1055T @4Ghz, 1090T @4,2Ghz, X4-965 @4Ghz, @X4-955 3,7Ghz. Llano wurde in 32nm nicht gut optimiert, das kann ich dir bestätigen.
Bulldozer kann man höher als K10übertakten, allerdings hat Bulldozer nicht mehr IPC als K10, außerdem verbraucht BD bei Vollast mehr Strom als der K10.
 
Duplex
Wie sinnvoll ist deine Aussage, dass BD eine höhere Leistungsaufnahme hat.
Im Cinebench ist der 8350 über 70% schneller als ein X4 965. Bei der Leistungsaufnahme im Cinebench zieht der 8350 23% mehr.

Aber nur eine ungenaue Angabe K10 gegen BD und eine pauschale Aussage die ich widerlegen konnte zeigen mir auf, dass man deine Meinung besser in die Tonne treten sollte.
 
Duplex
Wie sinnvoll ist deine Aussage, dass BD eine höhere Leistungsaufnahme hat.
Im Cinebench ist der 8350 über 70% schneller als ein X4 965. Bei der Leistungsaufnahme im Cinebench zieht der 8350 23% mehr.

Das ist dann aber auch dezent unfair ;)
Denn es ist bekannt, das die breitere CPU gegenüber ihrem schmaleren kleinen Brüdern effizienter Arbeitet. Zumindest in den Verbrauchswerten der Gesamtsystemmessungen.
Passender wäre es den FX6xxx mit dem alten X6 Phenom II zu vergleichen und den FX4xxx mit dem alten X4 Phenom II. :wink:
Dann kommt das schon so in etwa hin, wie er sagte. Hängt natürlich immer auch vom Takt ab, klar ;)
 
Das kommt in etwa hin ja. Man kann konstatieren dass Bulldozer bisher aber auch rein gar nichts für AMD gebracht hat, außer hohe Kosten.
Wann sich diese Entwicklung mal lohnt, steht in den Sternen.

Ein aktueller Phenom II x8 würde den Bulldozer ziemlich in den Boden rammen bei vergleichbarem Stromverbrauch und der wäre mit der Größe in 32nm locker drinnen gewesen.
Man hätte wenn man sich die Erfolge bisher ansieht bei Llano und Phenom II bleiben sollen, damit wäre bestimmt auch eine APU möglich gewesen.

Und mittlerweile halte ich auch die Aussagen, dass Llano nicht hoch takten kann für eine Ente. Man hat das wahrscheinlich eher in der Produktion forciert, weil man keine höheren Taktraten benötigte.
Jedenfalls kapiere ich nicht, warum das gleiche Design mit einem neuen Prozess so schlecht taktbar sein sollte.

Aber selbst mit der Ausgangsituation wäre heute ein 3,6ghz Llano performanter als Richland und das in jeder Metrik.
Bei der so benögten CPU Spieleleistung ist Richland ja immernoch nicht schneller als ein 3,0ghz Llano.:shake:
 
Zuletzt bearbeitet:
Bei gleichem Takt? Natürlich... Ihr macht hier wieder nen Tanz um schon dermaßen oft durchgekaute Themen... warum macht ihr nicht einfach Copy & Paste? :fresse2:
 
@fdsonne: Könnte man am Ende stundenlang drüber diskutieren, was man da gegenüber stellt. Man könnte auch FX 8xxx als Phenom-Quad-Nochfolger an sehen, die FX 6xxx als Tripple-Core-Nachfolger usw. Eigentlich ist es auch eine Frag wo man vergleicht, ein FX 8xxx nuckelt auch in Spielen mehr als ein Phenom II und ist da nicht 70% schneller, womit wir wieder auf die Single-Threa-Multithread-Schere bei den FXs kommen. ;)
 
@Mick
ich wollte damit nur andeuten, das es für den getätigten Vergleich unfair ist, auf der einen Seite das größte (also breiteste) Modell zu nehmen (FX8) und auf der anderen Seite den X4 gegenüber zu stellen, obwohl es noch eine Nummer breiter geht (mit dem X6)
Denn das breitere Design hat eben den Effizienzvorteil. Was im übrigen nicht nur bei AMD so ist, sondern auch bei den Intels...
Noch unsinniger wäre es den alten K10 X2 mit dem höchsten Takt gegen den FX antreten zu lassen und sich dann drüber zu echauffieren, das der FX8 ja irgendwo im Bereich fast 3,5 in der Leistung zulegt, wären die Leistungsaufnahme bestenfalls doppelt so hoch ist.
 
Man benötigt in Punkto Spieleleistung lediglich einen Phenom II x6 mit 3,8ghz und etwas angehobener NB um mit den heutigen Produkten gleichzuziehen.
Wenn man noch etwas optimiert hätte, wäre das wohl auch mit einem 45nm Bulk Prozess gegangen.

Sogar in Anwendungen läge man ohne Berücksichtigung des neuen Codes nicht wirklich zurück, so sind es vll 10%.
 
Zuletzt bearbeitet:
Lass es doch endlich gut sein, einen Phenom 2 oder 3 wird es nie mehr geben.

AMD hat sich nunmal für das Moduldesign entschieden und daran wird sich auch nichts mehr ändern. Und ob ein Phenom 2 wirklich so viel besser für AMD gewesen wäre werden wir auch nie erfahren.

Evtl wäre AMD gut gefahren Bulldozer erst einmal nur für den Server markt zu bringen und einen Phenom aufguss in 32nm zu bringen, aber das haben sie nicht gemacht und was wird mit Sicherheit auch seinen Grund gehabt haben. Also lass es doch endlich mal gut sein, das Thema ist durch und deine Vergleiche mit einem undervoltetem Llano vs einen Richland @stock passen so auch nicht, man kann beide undervolten ;)
 
@Mick
ich wollte damit nur andeuten, das es für den getätigten Vergleich unfair ist, auf der einen Seite das größte (also breiteste) Modell zu nehmen (FX8) und auf der anderen Seite den X4 gegenüber zu stellen, obwohl es noch eine Nummer breiter geht (mit dem X6)
Denn das breitere Design hat eben den Effizienzvorteil. Was im übrigen nicht nur bei AMD so ist, sondern auch bei den Intels...
Noch unsinniger wäre es den alten K10 X2 mit dem höchsten Takt gegen den FX antreten zu lassen und sich dann drüber zu echauffieren, das der FX8 ja irgendwo im Bereich fast 3,5 in der Leistung zulegt, wären die Leistungsaufnahme bestenfalls doppelt so hoch ist.

Stimmt natürlich auch. ;)
 
PS: habe vorhin übrigens erst eine Folie gesehen, wo AMD selbst von bis zu 30% sprach... :wink: Nur so als kleiner Denkanstoß.
Diese bis zu 30% waren ebenso mit nem kleinen Sternchen versehen -> und in der Fußnote stand, das es sich nicht um Messwerte handelt, sondern wörtlich um "Pre-silicon projection and not based on actual measured data"
Das gleiche Sternchen stand auch bei den "bis zu 20%" für den CPU Part :wink:
Von realen 40% kannst du dich definitiv verabschieden, wenn selbst der Hersteller da vorsichtig mit bis zu 30% rangeht...
Wer Beiträge richtig lesen kann, hat auch nichts von realen 40% gelesen. ;) Die Rede war von "Macht unterm Strich theoretisch ... Alles weitere sind eine Menge Unbekannter ...". Es sollte also klar gewesen sein, dass das lediglich der Ausgangswert war, was die iGPU theoretisch hergibt. Wie viel davon in der Praxis übrig bleibt, wird man sehen und hängt auch massgeblich vom Spiel selbst ab. Einfach mal irgendeinen spekulativen Wert in den Raum werfen, hilft da keinem weiter. Ein Vergleich zwischen HD 6970 und HD 7970 halte ich diesbezüglich auch nicht unbedingt für erleuchtend. Erstens haben sich die GCN Treiber im Laufe der Zeit erheblich weiterentwickelt. Womit Vergleiche zu Beginn der HD 7970 mittlerweile überholt sind. Und zweitens können Flaschenhälse bei solchen dGPUs ganz anders gelagert sein als bei APUs.


Ich hatte damals mehrere 45nm K10, 1055T @4Ghz, 1090T @4,2Ghz, X4-965 @4Ghz, @X4-955 3,7Ghz. Llano wurde in 32nm nicht gut optimiert, das kann ich dir bestätigen.
Thuban hatte auch ULK. Das hat einiges gebracht. Das gab's beim 32nm Prozess nicht mehr. Llano selbst ist schon gut optimiert. Was nicht gut optimiert ist, ist einfach die 32nm Fertigung bei >3 GHz.

Bulldozer kann man höher als K10übertakten, allerdings hat Bulldozer nicht mehr IPC als K10
Das dürfte jetzt mit Steamroller Geschichte sein. ;)

außerdem verbraucht BD bei Vollast mehr Strom als der K10.
Nein, tut er nicht. ZB ein Llano braucht bei vergleichbarer Performance unter Vollast mehr als Richland. Und das kann ich auch gut nachvollziehen. Ich habe zwar keinen Richland, aber Llano. Und den kann ich einigermassen gut beurteilen. Bei Teillast und <3 GHz ist die Leistungsaufnahme vergleichsweise gut. Bei allem anderen steigt die Leistungsaufnahme ziemlich ordentlich an. Das lustige bei meinen Tests war ja, dass mit steigendem Takt die Leistungsaufnahme fast genauso stark anstieg wie bei vergleichbaren Spannungserhöhungen. Was normalerweise nicht sein darf, da Spannung quadratisch in die Gleichung eingeht. Und das kann nur auf den Prozess selbst zurückzuführen sein, was Bulldozer dementsprechend genauso behindert, und nicht an Llano selbst liegen. Lustig ist auch, dass bei meinem Exemplar Kern 2 und 3 mehr brauchen als Kern 0 und 1. Das spricht ebenfalls für einen anfälligen Prozess bezüglich Leakage.


Hier gibt's den ersten ausführlicheren Test zu Kaveri. Teilweise enorme IPC Verbesserungen. ZB wPrime 32M legt 43% zu, Super Pi 31%. Allerdings sollte man noch vorsichtig sein. Die Japaner haben 65W Kaveri gegen 95W Richland getestet. Die Spieletests dürften also ziemlich für die Katz sein, da hier vermutlich die Kaveri iGPU schon früh gedrosselt hat. Selbst die Kaveri CPU scheint teilweise gedrosselt zu haben. Die Verbrauchswerte schauen auch in Ordnung aus. 5W weniger unter Idle, 10W weniger unter Last im Vergleich zu Richland bei 3,5 GHz.
 
war ja klar das du dich jetzt wieder ausredest... Aber mir solls wurscht sein.
Ich frage mich nur ernsthaft, warum du dann auf meine Ausführung überhaupt eingegangen bist!? Mit vorsichtig geschätzten "echten" 20-25% Leistungsplus, bin ich fast am "bis zu" von AMD dran...
Und das erste was du bringst ist ein (wörtlich): "wie kommst du darauf"!? :rolleyes: Um dich dann jetzt, nachdem die Erklärung der Wertebildung meinerseits erfolgte damit rauszureden, das du ja nur von "theoretisch" sprachst. Das interessiert jetzt genau wen!?

Manchmal glaube ich echt, ihr habt alle nix zu tun, wenn ich mir die Kommentare hier so ansehe... Das ganze hättest du dir nämlich reichlich sparen können. Zumal es den Initiator des ganzen, nämlich Bob_Busfahrer kein Stück interessieren dürfte, was da "theoretisch" steht. Sondern er sprach explizit von Praxiswerten.

EDIT:
du deinem verlinkten Test. Das soll es jetzt sein!?
Ich weis ja nicht... 3,5GHz, also mal locker flockig ganze 900/600MHz dem 6800K wegzunehmen und dann dem 7800er nur ~10W weniger Lastverbrauch aufzeigen!? Das haut mich bei weitem nicht vom Hocker :fresse:
Auch die GPU Leistung scheint nicht sonderlich schick zu sein... Teils nichtmal meine besagten 20-25%... eher deutlich drunter.
Der SuperPI Wert schaut aber gut aus. Der Cinebenchwert hingegen nicht so sehr. -> der 6800K macht default ~3,6 laut CB. Das wären knappe 10% weniger. -> bei 15% weniger Takt.
Auch der 3DMark11 Performancewert ist mau. Äußerst mau! Das sind nichtmal 5% mehr combined. -> das ist nix... In der GPU Leistungsregion sollte die Power der ALUs massiv durchschlagen. Und auch die IPC Steigerung müsste im Physikscore fast direkt durchfließen. Sprich 5% kombiniert am Ende mehr ist nichts... Das schafft wohl jeder Richland mit nem 2133er RAM ebenso :fresse: Wenn nicht gar schon der default Takt der CPU reicht um da drüber zu kommen ;)
 
Zuletzt bearbeitet:
Ich frage mich nur ernsthaft, warum du dann auf meine Ausführung überhaupt eingegangen bist!?
Weil es für deine Zahlen keinerlei herleitbare Infos gibt. Deshalb habe ich auch nachgefragt. Es gibt weder Tests, die das zeigen. Noch geben es die theoretischen Leistungswerte her. Und da ich dir auch keine Tests zeigen kann, habe ich dir zumindest aufgezeigt, wie die theoretischen Leistungswerte ausschauen. Diese kann man herleiten. Mit rausreden hat das nicht das geringste zu tun. Ich habe auch unmissverständlich hingeschrieben, dass es sich um theoretische Werte handelt. Aber dafür müsste man halt mal Beiträge sorgfältig lesen. Und nicht das, was man gerne lesen würde. ;)

du deinem verlinkten Test. Das soll es jetzt sein!?
Was soll was sein? Der hat einiges bei gleichem Takt verglichen, mehr nicht. Und der 7800 hat nun mal nur 3,5 GHz Basistakt und keinen offenen Multi. Ist logisch, dass man den 6800K dann auch auf 3,5 GHz taktet. Die restlichen Vergleiche sind wie gesagt wenig erhellend, da der 7800 lediglich ein 65W Modell ist. Der schnellste Kaveri ist beim Launch der 7850K mit 3,7-4 GHz und 95W TDP.

Auch die GPU Leistung scheint nicht sonderlich schick zu sein... Teils nichtmal meine besagten 20-25%... eher deutlich drunter.
Liest du Beiträge eigentlich? Ich zitiere mich mal selbst:
Die Japaner haben 65W Kaveri gegen 95W Richland getestet. Die Spieletests dürften also ziemlich für die Katz sein, da hier vermutlich die Kaveri iGPU schon früh gedrosselt hat.
 
ja habe ich durchaus vernommen ;)
Nur spielt das eine Rolle!? Wer das Ding kauft, erwartet, das das hinten raus kommt, was drauf steht... Und wie ich das sehe sind das für den 7800er eben volle 512 ALUs bei vollem Takt für diese, gepaart mit ner zwei Modulbesetzung am CPU Teil bei 3,5GHz/3,8GHz Turbo. Also erwartet man doch wohl, das das, was drauf steht, auch raus kommt... Oder etwa nicht?
 
Hi

Ihr hackt oft aufeinander rum wegen ein % Prozent Leistung hier und da. Macht das denn wirklich so ein Unterschied? Ich mein, schlussendlich muss die Leistung rauschauen, die man benötigt.

Und ob das Game nun mit 60 oder 80 fps läuft, ist mir eigentlich egal. Meine CPU's ideln meistens rum, hätt ich wohl auch zwei 4 Kerner nehmen können für Desktop und Server. Aber mehr ist nice to have, sag ich mal.
 
Re: AMDs "Kaveri" zeigt sich vor seinem Marktstart in Japan

Naja wenn dann das Topmodell.

Sieht an sich erstmal nicht schlecht aus - nur interessiert mich auch die OC Fähigkeit brennend.

Würde mir nicht viel nützen wenn bei denen bei 4Ghz Schluss ist während mein 760k bei 4,6Ghz rennt.

Lg Marti (gesendet von unterwegs)
 
weis jemand ob man den Turbo beim underclocken des Richland trotzdem definieren kann?
Wenn die den 6800K auf 3,5GHz festgetackert haben, müsste analog zum 7800er ja der Turbo bei 3,9GHz definiert sein... Geht sowas einzudrehen?
Könnte natürlich auch sein, das die den 7800er ebenso auf 3,5GHz ohne Turbo festgesetzt haben... Geht leider nicht ganz daraus hervor.

Aber ja, der 65W 7800er ist durchaus interessant. Wenn die Vermutung von mr.dude aber zutrifft, dann reichen die 65W TDP aber hinten und vorne nicht :(
 
Das geht ohne Probleme, beide Clocks können separat eingestellt werden (zumindest bei meinem Gigabyte).

Ich schätze aber das sie den Turbo Core einfach deaktiviert haben.
 
ja habe ich durchaus vernommen ;)
Nur spielt das eine Rolle!?
Nein, mal locker flockige >50% mehr Energiebudget spielen natürlich überhaupt keine Rolle. Wenn schon die CPU teilweise beim 7800 gedrosselt hat, dann ist das in Verbindung mit der iGPU natürlich erst recht nicht zu erwarten. :rolleyes: Zumal die Kaveri iGPU jetzt auch mittels Turbo gesteuert wird. Das war bisher bei der A-Serie nicht der Fall. Auch steht bei den Japanern nichts über die Speicherbestückung. Für die iGPU essentiell. Daher, wie gesagt, sollte man in die Spieletests noch nicht zu viel reininterpretieren.

Noch eine kleine Korrektur, CrazyCookie hat mich darauf hingewiesen, dass Richland natürlich mit bis zu 100W spezifiziert ist, nicht 95W.

weis jemand ob man den Turbo beim underclocken des Richland trotzdem definieren kann?
Wenn die den 6800K auf 3,5GHz festgetackert haben, müsste analog zum 7800er ja der Turbo bei 3,9GHz definiert sein... Geht sowas einzudrehen?
Turbo wird genauso wie manuelles Übertakten über P-States definiert. Wann was greift hängt einfach davon ab, wie du die P-States definierst. Der maximale Turbo ist P0. Den kannst du natürlich beibehalten und trotzdem den P-State für Basistakt (zB P2) anpassen.
 
Zuletzt bearbeitet:
Wie kommst du darauf? Wenn wir nur von Grafikanwendungen sprechen, da ist GCN Pi mal Daumen 20% effizienter als VLIW4. Hinzu kommen 33% mehr Shader. Macht unterm Strich theoretisch 60% mehr Performance. Da der Takt aber sinkt, von 844 auf 730 MHz, bleiben knapp 40% übrig. Das sollte die Ausgangsbasis sein. Alles weitere sind eine Menge Unbekannter, wie Turbo, Speicherlimitierung, hUMA, hQ, Mantle usw, die eine konkrete Prognose nahezu unmöglich machen.

Realistisch sind etwa 20 bis 25%, genau den Bereich den AMD auch selbst anpeilt. Deutlich unter den Vorhersagen über die Performance.
Hier jetzt von 40% zu reden, auch wenn das theoretisch ist ist völlig übertrieben. Sei froh wenn 20% am ende übrig bleiben.

Es sollte also klar gewesen sein, dass das lediglich der Ausgangswert war, was die iGPU theoretisch hergibt.

Wenn das klar gewesen sein soll, frage ich mich wieso du dann mit den Worten " wie kommst du darauf" in die Diskussion einsteigst.
Und da sind wir beim gleichen Verhalten wie bei Planet3dnow, alles pro AMD schönzureden.

Das dürfte jetzt mit Steamroller Geschichte sein.

Das glaube ich nicht Tim, da fehlen locker noch 5 bis 10% taktbereinigt.
Vor allem bei Spielen hinkt man noch weiter hinterher. Da schlägt ein Richland mit 4,2ghz nichtmal einen Llano mit 3,0ghz wirklich.

mr.dude schrieb:
Nein, tut er nicht. ZB ein Llano braucht bei vergleichbarer Performance unter Vollast mehr als Richland.

Wie sinnvoll dieser Vergleich ist, wenn bei Richland fast kein undervolting zu betreiben ist und bei Llano -0,2 Volt weniger anliegen kann, wissen wir bereits.
Llano braucht vielleicht mit in der ersten Version @ stock mehr. Dass Llano mit besserer Fertigung stromsparender wäre, kann man selbst mit Samples ende 2010 erriechnen.
Bulldozer hat in jeder Metrik eine viel schlechtere Leistungsaufnahme als vorherige Produkte, außer im idle.

Und das kann ich auch gut nachvollziehen. Ich habe zwar keinen Richland, aber Llano. Und den kann ich einigermassen gut beurteilen. Bei Teillast und <3 GHz ist die Leistungsaufnahme vergleichsweise gut. Bei allem anderen steigt die Leistungsaufnahme ziemlich ordentlich an. Das lustige bei meinen Tests war ja, dass mit steigendem Takt die Leistungsaufnahme fast genauso stark anstieg wie bei vergleichbaren Spannungserhöhungen.

Komisch, ich konnte meinen Llano bei 3,3ghz mit 1,0 Volt weniger Spannung und 20 Watt gesenktem Verbrauch betreiben, was im Mittel genauso performant wie ein 6800k ist bei weniger Verbrauch mit einem Sample von 2011.

Was normalerweise nicht sein darf, da Spannung quadratisch in die Gleichung eingeht. Und das kann nur auf den Prozess selbst zurückzuführen sein, was Bulldozer dementsprechend genauso behindert,

Der Prozess ist doch mittlerweile schon lange ausgereift, das sieht man auch an den astronomischen taktraten von Centurion, ich kann die CPU auf 5,4ghz ocen und kann damit sogar Crysis spielen und durchläufe im Cinebench machen.
Der Prozess war bei Llano noch ziemlich schlecht, da ist es ja noch vernichtender dass ein Sample von damals effizienttechnisch auf das Niveau eines 6800k zu bringen ist.
Wenn man da optimiert hätte, spränge sicherlich ein 3,6ghz Llano problemlos 2013 raus und dann kann man sich Trinity und Richland komplett in die Haare schmieren und hätte nebenbei noch mehr Performance.

Ganz im Gegenteil, CMT kann genauso wie SMT aufgrund gemeinsam genutzter Einheiten IPC fördern.

Man benötigt für CMT mehr Ressourcen, also muss man die Singlethread Ressourcen etwas kleiner machen, denn sonst ist der Chip größer als ein Kern + SMT, also irgendwo hat Mick Foley schon recht.
Muss aber nicht zwangsweise so sein.

Lustig ist auch, dass bei meinem Exemplar Kern 2 und 3 mehr brauchen als Kern 0 und 1. Das spricht ebenfalls für einen anfälligen Prozess bezüglich Leakage.

Wie kann man das messen und wie hast du es gemessen?

gibt's den ersten ausführlicheren Test zu Kaveri. Teilweise enorme IPC Verbesserungen. ZB wPrime 32M legt 43% zu, Super Pi 31%. Allerdings sollte man noch vorsichtig sein. Die Japaner haben 65W Kaveri gegen 95W Richland getestet. Die Spieletests dürften also ziemlich für die Katz sein, da hier vermutlich die Kaveri iGPU schon früh gedrosselt hat. Selbst die Kaveri CPU scheint teilweise gedrosselt zu haben. Die Verbrauchswerte schauen auch in Ordnung aus. 5W weniger unter Idle, 10W weniger unter Last im Vergleich zu Richland bei 3,5 GHz.

Wieso sollte die TDP so wichtig sein?

Man sieht doch hier eindeutig dass die IGP kaum schneller ist, da kannst du dir theoretisch 40% wirklich vergessen :d

Weil es für deine Zahlen keinerlei herleitbare Infos gibt. Deshalb habe ich auch nachgefragt. Es gibt weder Tests, die das zeigen. Noch geben es die theoretischen Leistungswerte her. Und da ich dir auch keine Tests zeigen kann, habe ich dir zumindest aufgezeigt, wie die theoretischen Leistungswerte ausschauen. Diese kann man herleiten. Mit rausreden hat das nicht das geringste zu tun. Ich habe auch unmissverständlich hingeschrieben, dass es sich um theoretische Werte handelt. Aber dafür müsste man halt mal Beiträge sorgfältig lesen. Und nicht das, was man gerne lesen würde.

Wieso? Du hast doch grade Tests verlinkt, die die schwache IGP Leistung von Kaveri zeigen. Auch Cinebench überzeugt überhaupt nicht.
Das sieht alles nach einem Reinfall aus und einer IPC Steigerung im Mittel vielleicht von 5 bis 10%, zu wenig um den alten Phenom II zu schlagen.

Mittlerweile könnte man da auch im 45nm Prozess 4x4,0ghz in 125 watt TDP anbieten und die NB auf 2,6ghz hochreißen. Ich frage mich halt da schon, für was man einen Bulldozer entwickelt hat, der nirgends besser ist.

Du wolltest mit den Beitrag lediglich wieder AMD schönreden, denn es gibt für deine Behauptung dass Kaveri jetzt nicht mehr IPC mäßig hinterherhinkt ja dann laut deiner Maßgabe auch keine Quellen, obwohl der Test den du verlinkst wahrscheinlich für eine Einschätzung taugt.

Was soll was sein? Der hat einiges bei gleichem Takt verglichen, mehr nicht. Und der 7800 hat nun mal nur 3,5 GHz Basistakt und keinen offenen Multi. Ist logisch, dass man den 6800K dann auch auf 3,5 GHz taktet. Die restlichen Vergleiche sind wie gesagt wenig erhellend, da der 7800 lediglich ein 65W Modell ist. Der schnellste Kaveri ist beim Launch der 7850K mit 3,7-4 GHz und 95W TDP.

Der Test hat ja beim gleichen Takt verglichen, was für Kaveri sogar noch positiv ist, da der ~10% weniger Takt ins Gulasch zur Würze wirft, da sieht es in der Praxis dann ja noch viel schlechter aus, das könnte auch auf einen Patt in der Performance hinauslaufen.

Und der 7800 hat nun mal nur 3,5 GHz Basistakt und keinen offenen Multi. Ist logisch, dass man den 6800K dann auch auf 3,5 GHz taktet. Die restlichen Vergleiche sind wie gesagt wenig erhellend, da der 7800 lediglich ein 65W Modell ist.

Wieso wenig erhellend? 3,5ghz basistakt und angeblich 65 watt TDP? Ich kenne das Modell nicht. Ich kenne nur den 7700 und den 7850.

Der 6700 ist auch ein 65 watt Modell und bietet 3,7ghz Standardtakt, das wiederspricht deiner Theorie, dass das nicht erhellend wäre.
Und die IGP performance eines 6700 ist ja nun auch nur 7% unter einem 6800k und das eher aufgrund des Rams, während hier ebenfalls DDR3 2133 genutzt wird bei dem 65 watt Modell.

AMDs

Ergo kann man die Spieleperformance wenn man den Test vertrauen will, für voll nehmen und kommt dabei letztendlich auf eine Mehrleistung von etwa +-0%.
Vielleicht wird es ja mit neueren Treibern etwas besser und es stehen 10% auf der Uhr. Mehr aber eher nicht.

mr.dude schrieb:
Wenn schon die CPU teilweise beim 7800 gedrosselt hat, dann ist das in Verbindung mit der iGPU natürlich erst recht nicht zu erwarten. Zumal die Kaveri iGPU jetzt auch mittels Turbo gesteuert wird.

Wenn die IGP beim 65 Watt Modell drosselt, dann ist diese kaum schneller als die eines 5700 oder 6700, das bleibt ergo bestehen.
Und da die Spieleleistung eines 6700 nahe am 6800k liegt und die des 5700 nah am 5800k, denke ich, sofern AMD nicht mit den TDP´s schummelt, bleibt das alles eher beim alten.

Das ist auch überhaupt kein Wunder, den Takt von 844mhz auf 720mhz zurückgeschraubt und die Einheiten von 384 Shadern auf 512 Shader erhöht.
Da bleibt am Ende nicht wirklich was übrig.
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh