CPU-Z-Benchmark: AMDs Ryzen 7 8700G und Ryzen 7 7800X3D liegen gleichauf

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.517
Übermorgen soll der offizielle Startschuss für AMDs erste APUs für den Sockel AM5 fallen, die unter dem Codenamen Phoenix geführt werden. Im Detail sogar unter Phoenix 1 für den Ryzen 7 8700G und Ryzen 5 8600G sowie unter Phoenix 2 mit dem Ryzen 5 8500G und dem Ryzen 3 8300G. Zum Flaggschiff-Modell, dem Ryzen 7 8700G, sind nun Benchmarkwerte mit CPU-Z angefertigt worden, die mit dem Ryzen 7 7800X3D verglichen wurden.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ich wollte den 8700G als Media-Server/NAS CPU einsetzen... vor allem für die Wiedergabe von unkomprimiertem 4K-Material etc.
Aber jetzt scheint er doch ein wenig Overkill zu sein xD
 
Mit dem Ryzen 7 8700G wurden 675 Punkte beim Single- und 7.318 Punkte beim Multi-Threading-Benchmark erreicht. Mit dem Ryzen 7 7800X3D waren es 683 respektive 7.301 Punkte. Dieser Unterschied ist nicht spürbar, sondern rein messbar
Also im 1T-Test ist der Unterschied 1,1 %, beim nT sind es gerade mal 0,2 %. Die beiden CPUs sind in dem Fall eigentlich eher faktisch gleichschnell. Werfe ich Geekbench an, dann hab ich eine Streuung auf der gleichen CPU im Mittel von 3 Prozent.

Bei einer Messreihe von 5 oder 10 Läufen, dürften beide am Ende auf die gleiche Punktzahl kommen.
 
Es sind Produkte für die Lust, sich ein individuelles System zu basteln. Aber eben nur für einen eingegrenzten Rahmen. Zwar hatte ich auch noch vor 3 Monaten mit dem Gedanken gespielt, mir Phoenix und GPU zu kaufen, aber die Faktenlage war eben nicht deutlich. Deswegen wurde es ein 7600 und GPU. Aus Versehen praktisch die richtige Entscheidung, aber gewollt die richtige Hauptplatine für einen späteren Verwendungszweck als Medien-Internet-Computer. Und dafür ist eine PCI-E 4.0 SSD auch in 10 Jahren schnell genug und ein 8500G die passende APU.
 
Warum immer diese kuriosen Benchmarks gemacht werden, klar schneiden die X3D dort nicht sonderlich gut ab, die nutzen den Cache nicht aus, genau wie bei TimeSpy oder Cinebench.
 
Und wird eine selbsterstellte Grafik präsentiert. Warum heisst 8700G 8, wo ist da die Entwicklung?
 
@UrwaldWasserQuelle
Auf der anderen Seite kann man auch fragen, warum die 12 Kerne des 12700K/F nur 6% schneller sind. Letztlich ist es immer nur ein Thema für Leute die keine Leidenschaft teilen wollen und können, sondern nur die Leidenschaft zu einer Marke bekunden möchten.

Natürlich ist ein 7800X3D auch langsamer in Anwendungen als ein 7700X, obwohl beide die gleichen 8 Kerne haben. Der 7800X3D ist die sparsame Zocker CPU und keine andere CPU kann dieses Prädikat für sich in Anspruch nehmen. Und natürlich braucht ein 7800X3D für die gleiche Aufgabe länger als zum Beispiel ein 13700K, hat aber trotzdem dabei eine deutlich niedrigere Leistungsaufnahme.
Wer Anwendungsleistung und Spieleleistung haben will, muss zum 7950X3D greifen. Der zwar bei gleicher Aufgabe 5% langsamer ist, als ein 13900K, dafür aber, ganzer PC, 160W weniger Leistungsaufnahme braucht.
 
wo ist da die Entwicklung?
Ja wo ist denn deine Entwicklung stecken geblieben? Für Leute wie dich, die keine Ahnung haben, gibt es ja genügend Informationen im Netz zu finden. Denn irgendwelche Zahlen sind immer ungenügend. Datenblätter sind wichtig.
Damit auch du dich nicht benachteiligt fühlen musst, weil dir die Erkenntnis der Entwicklung fehlt.

Wo findet man die Prozessoren bei AMD?

AMD Homepage

1706536139597.png
1706536155748.png
 
Ich bin eher auf die technische Gesamtleistung in unterschiedlichen Disziplinen gespannt.
Wenn man die CPU mit einer Mittelklasse GPU ausstatten kann ohne viel Abstriche zu machen bei den FPS ist es nicht unbedingt eine schlechte CPU.

Für Systeme mit einem Preisgünstigen Intel gepaart, hätte man für Titel die älter sind und DX9/10 basiert wären die IGPU 8-)
 
Und wird eine selbsterstellte Grafik präsentiert. Warum heisst 8700G 8, wo ist da die Entwicklung?
AMD hatte angekündigt die Benennung an das Erscheinungsjahr zu knüpfen. 7xxx = 2023, 8xxx = 2024, etc...
Technisch ist der 8700G zwar eigentlich ein 7xxx, aber halt erst 2024 und somit 8xxx.
 
Tests gibt es schon.
 
Was bin ich hier lesend!?
64 L3 Cache.
120W TDP wird eher seltener erreicht!?

Selten?
Selteeeen?

Würde ich die Screenshots nicht sehen, würde ich nicht glauben, dass die CPUs wirklich getestet wurden.
Naja egal. Zwei verschiedene CPUs für zwei verschiedene Anwender.
Gehört natürlich trotzdem immer alles verglichen, keine Frage. Aber ich hoffe, dass niemand jemals bei den beiden zwischen zwei Stühlen steht.
 
Warum sollte nur Intel einen Refresh eines Refresh releasen können? AMD kanns doch auch. ;)
 
Phoenix ist kein Refresh, da es Phoenix aus dem Notebook ist. Wo gab es denn vor Ryzen 8000G schon diese CPU im Desktop?
Hawk Point ist der Refresh von Phoenix im Notebook. Letztlich nur eine Umbenennung mit höherem Takt für die neuronale Verarbeitungseinheit. Weil es eben genügt gegenüber der neu entwickelten Meteor CPU.
1706554169043.png

1706554189341.png
 
Zuletzt bearbeitet:
Interessant ist auch der TDP-Unterschied von 65 W für den Ryzen 7 8700G und 120 W für den Ryzen 7 7800X3D. Wobei anzumerken ist, dass Letzterer eher selten in diese Region hereinrutscht.
Die TDP sagt doch nun wirklich nichts über die tatsächliche Leistungsaufnahme aus, die hängt vor allem von den BIOS Einstellungen ab. Mit PBO kann man den 8700G sicher auch auf über 129W Package Power pushen und umgekehrt den 7800X3D im Eco Modus auch auf deutlich unter 120W deckeln. Solche Tests sind ohne Angabe der jeweilen CPU Package Power während des Tests recht sinnlos und komplett sinnfrei, wenn es darum geht die Effizienz zu vergleichen.
 
Zuletzt bearbeitet:
... jetzt wird halt die PRO Version davon interessant.

Ich mag den Ryzen Pro 5750G in meinem NAS/ Server/VMhost.
Das Ding ist zwar nicht ultra-low-power, liefert aber bei verhältnismäßig weniger Leistungsaufnahme beachtliche Leistung ab, ist dabei verhältnismäßig günstig. Kann ECC und was man sonst so braucht.
IPMI gibts zwar nur auf den kleinen Server-Boards dafür, aber wenn man ohne leben kann, spart man schnell mal ~300-500€.
Den Cache brauchts für die Anwendugnen kaum, die monolithische Architektur ist auch zweckdienlich und der "langsamere" PCIe stört auch nicht, ist wenigstens sparsam und kühl.

Wenn die 8er Reihe hier in diesen Fußspuren geht, nur mit deutlich mehr GPU Leistung, ist nix verkehrt dran. Auch das Konzept der "AI Hardware Beschleunigung" in der CPU/GPU ist nicht verkehrt. Da wird noch was kommen. Und nicht jede "AI" Anwendung braucht eine 4090 oder größer. Für manche Sachen leistet so eine Schmalspur-GPU schon ein 100-faches einer CPU (Wert aus den Fingern gesaugt).


Und hey, wäre doch cool, ein schönes ITX/mini System zu haben, mit dem man FHD zocken kann.


Zum Thema Clickbait und Titel:
Man könnte auch schreiben "i5 im Gaming mit i9 gleichauf"... wäre ähnlich richtig (und auch tatsächlich nicht falsch). Nur traut sich das da halt niemand :d...
 
Warum gleich so ablenkend übertrieben. Die APUs sind bei 88W gedeckelt und fertig. Es sind keine Intel Prozessoren die mit einer 65W TDP auch 160W verblasen.
 
Zuletzt bearbeitet:
Wir sind uns hoffentlich zumindest alle einig das TDP != Verbrauch entspricht. Nach meinem Verständnis sind die Boosts immer so ausgelegt das sie drosseln sobald das thermische Ziel/Limit erreicht ist oder die maximale Stromaufnahme.

Da kocht AMD und Intel prinzipiell die gleiche Suppe. https://www.amd.com/de/support/kb/faq/cpu-pb2

AMD nutzt den Spielraum zwischen thermischem Ziel und Stromaufnahme um dynamisch die Leistung je nach Auslastung zu optimieren. Aber das macht ja Intel auch nur mit Unterschied das die soviel Saft drauf geben bis die Thermische Grenze erreicht sind, zumindest mit dem standard Profil PL2=>2xxW.

Das Clockstreching Problem könnte allerdings auch bei AMD existieren. Das merkt nur keiner, weil ja angezeigt wird das 4,6 Ghz anliegen. Da müsste man mittels Benchmarks ermitteln ob dann die IPC/Core genauso hoch ist wie 1-2 Kerne die den gleichen Headroom zum boosten nutzen.

Abseits von Gaming Tasks FPS per W dank Cache bei den Ryzen, fällt die Curve aber auch wieder leicht ab.

Man müsste dann schon eher einen 13700K als Beispiel eher mit einem Ryzen 9 in der Stromaufnahme vergleichen. Leider hat es Intel hier verpasst einen 8 Kerner mit nur 4 E oder ohne E Cores auf den Markt zu bringen. Ich bin mir sicher dort wäre vergleichbarer mit den kleineren Ryzen.

Du brauchst halt mit weniger Cache mehr Taktzyklen um die gleiche Informationen vorzubereiten, hier hat Intel das nachsehen.
Mit APO hat aber intel gezeigt das wenn man sich der schwächen bewusst ist und die spezifischen Anforderungen der Anwendung berücksichtigt, eben mehr Performance möglich ist.

Von mir aus nennen wir es das DLSS der CPUs. (technisch völlig falsch, aber vergleichbar im Effekt/Resultat). Da geht zumindest noch was, natürlich auch bei AMD.
 
Wir sind uns hoffentlich zumindest alle einig das TDP != Verbrauch entspricht.
Sicherlich, trotzdem ist AMD mit einem 7950X 170W TDP näher an der maximalen Leistungsaufnahme, als ein 13900K mit einer 125W TDP, der dann locker den 7950X bei der maximalen Leistungsaufnahme überjubelt.
 
Thema Clock Stretching lässt sich ganz einfach herausfinden, indem man effektiv anliegenden Takt vergleicht. Das kannst du in HWiNFO z. B. machen.
Wenn der unter Last identisch ist, ist alles gut. Weicht der ab hast du Clock Stretching.

Also Beispiel in Cinebench wird dir 5.2Ghz angezeigt, der effektive Clock liegt aber bei 4.5 = Clock Stretching
 
AMD nutzt den Spielraum zwischen thermischem Ziel und Stromaufnahme um dynamisch die Leistung je nach Auslastung zu optimieren. Aber das macht ja Intel auch nur mit Unterschied das die soviel Saft drauf geben bis die Thermische Grenze erreicht sind, zumindest mit dem standard Profil PL2=>2xxW.
Wobei die PL2 ja nur für Tau anliegt und dann wieder PL1 greift und nur sofern der gleitende Durchschnitt dadurch nicht über PL1 geht. AMD gibt nur eben offenbar keine Grenze in Watt an bis zu der die Leistungsaufnahme steigen kann, wenn die CPU mit PBO2 boostet, aber die Leistungsaufnahme steigt dann dabei eben genauso wie bei Intel, anderes bekommt man ja auch nicht mehr Takt und man braucht mehr Takt um mehr Leistung zu bekommen.

Leider hat es Intel hier verpasst einen 8 Kerner mit nur 4 E oder ohne E Cores auf den Markt zu bringen. Ich bin mir sicher dort wäre vergleichbarer mit den kleineren Ryzen.
Kerne die nicht genutzt werden, erzeugen so gut wie keinerlei Leistungsaufnahme und daher macht es keinen Unterschied bei der Leistungsaufnahme ob es 4 oder 16 e-Kerne gibt, wenn die Idle sind. Außerdem kann man die e-Kerne ja auch im BIOS deaktivieren.

Du brauchst halt mit weniger Cache mehr Taktzyklen um die gleiche Informationen vorzubereiten
So kann es man auch ausdrücken, es muss halt öfter auf das RAM zugegriffen werden und dies dauert länger als ein Zugriff auf den Cache und damit muss die CPU mehr Wartezyklen einlegen bis die Daten angekommen sind.

Thema Clock Stretching lässt sich ganz einfach herausfinden, indem man effektiv anliegenden Takt vergleicht. Das kannst du in HWiNFO z. B. machen.
Wenn der unter Last identisch ist, ist alles gut. Weicht der ab hast du Clock Stretching.

Also Beispiel in Cinebench wird dir 5.2Ghz angezeigt, der effektive Clock liegt aber bei 4.5 = Clock Stretching
Bei Cinebench, welches ja eine praktisch konstante Volllast auf allen Kernen erzeugt, mag das Funktionieren, aber bei anderen Lasten die eben nicht alle Kerne ständig voll auslasten, wird der effektive Takt sowieso oft unter dem angezeigten Takt liegen.
 
Ist schon klar. Deshalb hab ich's ja erwähnt 😉
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh