Aktuelles

AMD Ryzen 5 3400G im Test: Weniger Änderungen als erwartet

Thread Starter
Mitglied seit
06.03.2017
Beiträge
40.522
amd_ryzen_5_3400g-teaser.jpg
Im letzten Jahr erwiesen sich die Raven-Ridge-APUs als gute Alternative, wenn man sich einen sparsamen und günstigen Office-Rechner zusammenbauen wollte. Die Kombination aus Zen-Prozessor und Vega-Grafiklösung erwies sich als durchaus leistungsfähig für den Alltag. Ob dies auch für die Neuauflage in Form des AMD Ryzen 5 3400G gilt, das wollen wir nun auf den nachfolgenden Seiten klären. Da sich die Änderungen im Vergleich zum Vorgänger stark in Grenzen halten, sollte...

... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Marteng

Enthusiast
Mitglied seit
04.04.2002
Beiträge
611
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.
 

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
31.707
Ort
dieser thread
Zuletzt bearbeitet:

RoBBe07

Enthusiast
Mitglied seit
04.10.2009
Beiträge
3.634
Ort
Eisscholle hinten links
Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?
 
Zuletzt bearbeitet:

Holzmann

The Saint
Mitglied seit
02.05.2017
Beiträge
31.707
Ort
dieser thread
Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?

Shit Storm incoming ...

Ach sorry dass er verlötet ist ... das war der Vorgänger doch schon, oder?
 
Zuletzt bearbeitet:

busiderbaer

Experte
Mitglied seit
27.07.2015
Beiträge
2.892
Ort
Hannover

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.309
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.
Eben, der wichtigste Vergleich ist doch immer der mit dem Vorgänger.

Hab ichs überlesen, oder wirds wirklich nicht erwähnt, das der Heatspreader des 3400G, im Gegensatz zum Vorgänger, verlötet ist?
Gibt es irgendwo einen Beleg für diese Aussage?
 

busiderbaer

Experte
Mitglied seit
27.07.2015
Beiträge
2.892
Ort
Hannover

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.309
Ah Ok, wusste ich auch nicht, hilft aber natürlich die Taktraten zu erhöhen.
 

busiderbaer

Experte
Mitglied seit
27.07.2015
Beiträge
2.892
Ort
Hannover
Macht die tatsächlich auch sehr gut kühlbar. Hab gestern einen 3400G im Deskmini verbaut und musste den von ASRock gelieferten Mini-Kühler nehmen, da dem 3400G ein Wraith Spire beiligt (auch eine Neuerung zum 2400G, der hatte glaube ich nur einen Stealth). Temps gingen in Games nicht über 62 °C.
 
G

Gelöschtes Mitglied 285234

Guest
Die Werte in Cinebench Multi des Ryzen 5 3600 sind zu gering.
 

NewLuxxUser

Profi
Mitglied seit
30.12.2017
Beiträge
28
Da der 2400g und 2400g auch einen anderen sinnvollen Einsatzbereich hat wie HTPC vermisse ich dazu leider ein paar Sätze.
Unter FullHD läzft er spitze. Wie macht er sich unter 4K.
Gerade wenn man die Spitzen HTPC Software Team MediaPortal einsetzt.
 

Tzk

Ich Horst
Mitglied seit
13.02.2006
Beiträge
18.964
Ort
Koblenz
"Am Ende gibt es also nur eine kleine Takterhöhung für CPU und GPU sowie eine theoretisch geringere Leistungsaufnahme."

Gibt es nicht auch noch mehr IPC? Zen+ hat doch 4-5% mehr IPC als Zen, oder nicht?!
 

Squall2010

Enthusiast
Mitglied seit
05.01.2007
Beiträge
3.083
Ort
NRW
"Am Ende gibt es also nur eine kleine Takterhöhung für CPU und GPU sowie eine theoretisch geringere Leistungsaufnahme."

Gibt es nicht auch noch mehr IPC? Zen+ hat doch 4-5% mehr IPC als Zen, oder nicht?!

Das ist doch beides Zen+. Der 3400G ist nur ein 2400G mit mehr Takt, mehr nicht.
 

Squall2010

Enthusiast
Mitglied seit
05.01.2007
Beiträge
3.083
Ort
NRW
Jau, hast Recht.

Von der Leistung her trotzem fast gleich.
 

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.762
Na ja, im Vergleich zum 2400G sind die Taktraten marginal nach oben gegangen - wer da einen großen Sprung erwartet hat wohl etwas zu große Hoffnungen.

Der Hauptflaschenhals bei der APU ist der Systemspeicher - wenn man dort nach oben schrauben, wird sowohl die CPU als auch die GPU schneller. Da diese APU aber vor allem günstig sein soll, wäre hier die Betrachtung von günstigem, aber schnellem Speicher ganz nett gewesen. Samsung B-Die macht in der Preisklasse wohl kaum Sinn, aber mit etwas getune, kann man hier die Leistung schön um ~20% erhöhen, womit die HTPC Sparte durchaus interessant wird.
 

Oberst

Enthusiast
Mitglied seit
03.07.2007
Beiträge
267
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen:confused:.
 

Shevchen

Urgestein
Mitglied seit
20.01.2011
Beiträge
2.762
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen:confused:.

Eventuell ist das die iGPU mit drin, aber generell laufen diese Teile sehr sparsam. Mit nem 150W Netzteil solltest du da keine Probleme haben.
 

Oberst

Enthusiast
Mitglied seit
03.07.2007
Beiträge
267
Eventuell ist das die iGPU mit drin, aber generell laufen diese Teile sehr sparsam. Mit nem 150W Netzteil solltest du da keine Probleme haben.

Die IGP müsste bei beim CPU Verbrauch mit drin sein, die braucht sicher auch keine 35W. Bei 35W Verbrauch auf der iGPU würden die CPU Kerne und der Uncore noch 30W brauchen dürfen, sonst legt die TDP ja irgendwann einen Deckel drüber. Ich glaube eher, dass das irgendwo anders verblasen wird, aber wo ist mir nicht klar. Dass für eine APU alleine ein 150W Netzteil reicht, ist mir klar, aber ich finde die Verbrauchswerte halt auffällig und würde halt gerne wissen, was da los ist.
 

Squall2010

Enthusiast
Mitglied seit
05.01.2007
Beiträge
3.083
Ort
NRW
Weiß irgend jemand, warum das Gesamtsystem in Verbindung mit dem 3400G 100W verbraucht? Mich stört die Differenz von "Leistungsaufnahme nur CPU" zu "Leistungsaufnahme Gesamtsystem". Betrachtet man nur die CPU, verbraucht der 3400G etwa so viel als ein R5 3600. Beim Gesamtsystem braucht der 3600 dann aber 35W weniger. Wie lässt sich das erklären? Geht die 2080TI da nicht auf die niedrigsten P-States? In der CPU kann das ja kaum verbraten werden (siehe "nur CPU"). Und bei der Plattform kann es ja wohl auch nicht hängen bleiben, oder? Der Chipsatz kann ja wohl kaum 35W mehr verbrauchen:confused:.
Mit hinzugeschalteter GeForce RTX 2080 Ti, die wir für unsere CPU-Tests standardmäßig benutzen, steigt der Energiehunger deutlich an, wobei die integrierte Vega-Grafik hier natürlich abgeschaltet wird. Dann genehmigt sich unser Testsystem runde 185 W, was in etwa auf dem Niveau eines Ryzen 7 1700X der ersten Ryzen-Generation liegt.

Es wird abermals deutlich, dass die Zen-2-Architektur der großen Ryzen-3000-Modelle deutlich effizienter arbeitet als die Zen+-Kerne des Ryzen 5 3400G. Der Wechsel auf die kleinere 7-nm-Technik im nächsten Jahr dürfte den APUs zu einem größeren Sprung in Sachen Performance und Leistungsaufnahme verhelfen.

Ich hatte vorher einen 1200 drin und der 3600 liegt im Idle auch bei ~60W.
Unter Last verbrauche ich sogar ein paar Watt weniger.
 

XTR³M³

Enthusiast
Mitglied seit
15.02.2008
Beiträge
1.379
Ort
Zürich/CH
Wie schade, so ein schöner Test und dann fehlt bei den Benchmarks durchgehend das "Bezugsobjekt" (Ryzen 5 2400G) um den direkt vergleichbaren Leistungsunterschied bei CPU/GPU für 30-40% Preisaufschlag erkennen zu können.

nicht nur das, OC vermisse ich auch, samt dicken speicher... letzteres beschleunigt nämlich grad die vega ungemein.
 

Oberst

Enthusiast
Mitglied seit
03.07.2007
Beiträge
267
Ich hatte vorher einen 1200 drin und der 3600 liegt im Idle auch bei ~60W.
Unter Last verbrauche ich sogar ein paar Watt weniger.

Ja, aber sicher keine 35W bei gleich gebliebenem CPU Verbrauch(!). Genau das ist ja mein Problem am Test! Die CPU soll angeblich gleich viel verbrauchen, das Gesamtsystem dann aber 35W mehr. Wo sollen die hin verschwinden?
CPU Verbrauch:
CPU.PNG
Gesamtsystem:
System.PNG
 

Squall2010

Enthusiast
Mitglied seit
05.01.2007
Beiträge
3.083
Ort
NRW
Ich kann mir höchstens vorstellen, dass die IGPU mit an war.

Oder beim 3400G werden Anschlüsse versorgt, die nicht gebraucht werden wie die Grafikanschlüsse hinten.
Kann auch sein, dass am Board noch was anderes mehr gefordert wird.
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.309
Die CPU soll angeblich gleich viel verbrauchen, das Gesamtsystem dann aber 35W mehr. Wo sollen die hin verschwinden?
Das ist in der Tat sehr seltsam, da die Testsysteme nur bzgl. der Boards (wieso überhaupt?) unterschiedlich sind:
Aber das ASUS ROG Crosshair VIII Hero als gut ausgestattetes X570 Board wohl kaum eine so viel geringere Leistungsaufnahme haben dürfte als ein B350 Board wie das MSI MSI B350M Mortar, wobei ich bei MSI kein B350 Mortar ohne M hinter dem B350 finde. Die Angabe ich mindestens mal unvollständig und schon damit fehlerhaft und die Bilder in der Galerie zeigen als CPU Testsystem 2019 nochmal andere Hardware, nämlich ein großes MSI Board (offenbar das MEG X399 Creation für die TR) und dazu eine GTX1660Ti, statt der angeblich verwendeten RTX 2080TI. Die einzig schlüssige Erklärung wären, dass mit unterschiedlichen Grakas oder eben deutlich anderen Einstellungen gebencht wurde.
 

Oberst

Enthusiast
Mitglied seit
03.07.2007
Beiträge
267
Ich kann mir höchstens vorstellen, dass die IGPU mit an war.
Die ist aber im TDP Budget der CPU mit drin. Wenn die mehr verbraucht, müssen die CPU Kerne weniger verbrauchen. Und 35W wären da zu viel. Das muss andere Gründe haben (vielleicht auch mehrere).
Das ist in der Tat sehr seltsam, da die Testsysteme nur bzgl. der Boards (wieso überhaupt?) unterschiedlich sind.
Vielleicht hat ja ein Redakteur hier die Erklärung. Ich könnte mir auch vorstellen, dass es z.B. Probleme mit der IGP und der D-GPU gab, vielleicht ist die 2080TI im Idle nicht auf die üblichen Taktraten runter oder so. Also, dass die Grafikkarte unnötig viel verbraucht hat (Treiber-Konflikt oder so was). 30-40W mehr auf der GPU ist der Karte im Idle ja recht egal, der Kühler bringt das auch locker weg. Aber dann müsste die im Idle deutlich höhere Temperaturen haben.
Unterschiedliche Testsysteme finde ich auch ungünstig, da fehlt die Vergleichbarkeit. Man sollte da immer möglichst alles gleich lassen, oder, wenn das nicht geht, für die einzelnen Testsysteme auch separate Diagramme verwenden, da Leistung und Verbrauch dann nicht mehr direkt vergleichbar sind. Schon alleine der Vergleich B350 zu X570: Der X570 verbraucht sicherlich deutlich mehr, hat ja auch üblicherweise einen Lüfter. Dazu haben die X570er Boards meist noch viele Zusatz-Chips für 2xLAN, WLAN oder weiteres drauf. Da kann ein X570 kaum weniger brauchen als ein B350 aber leicht sehr viel mehr. Entsprechend sind die Werte nicht mehr vergleichbar und man sollte einfach ein Cahrt für X570 und ein separates für B350 machen, sodass man sofort erkennen kann, dass die Werte so nicht 1:1 zusammen passen. Wäre vielleicht was für zukünftige Tests.
 

Holt

Legende
Mitglied seit
05.07.2010
Beiträge
23.309
Die ganze Testumgebung ist recht unsinnig, wer kauft sich eine sauteure 2080TI und dann eine APU, deren CPU Part eher lahm ist und gegen die deren GPU wie der Scheibenwischermotor im Vergleich zum Motor in einem Ferrari wirkt? Durchaus denkbar das sich da keiner der Treiberentwickler je mit dem Verbrauch so einer Kombination befasst hat.

Also ich würde mal sagen: Wer sich eine APU kaufen will, sollten auch deren GPU nutzen wollen und wer dies nicht möchte, sollte besser gleich die Finger von einer APU lassen oder deren iGPU im BIOS deaktivieren.
 

JackA

Urgestein
Mitglied seit
08.05.2006
Beiträge
8.433
Ort
Oberbayern
Ich habe da mal eine Frage.
Im Buyers-Guide-Komplettsystem für 800€ kommt besagter 3400G zum Einsatz, dazu dann eine RX 580, wieso? wenn Ich mit dem 2600er einen Ryzen aus der selben Generation mit mehr Kernen, mehr SMT und zum günstigeren Preis bekommen kann?
Unsterstützt die iGPU jetzt mittlerweile irgendwie die zusätzliche GPU oder wird die iGPU beim Einsatz einer dedizierten GPU abgeschalten?
 
Zuletzt bearbeitet:
Oben Unten