[User-Review] AMD Cezanne Bench und Laberthread (5700G/5600G/5300G)

Der 5700G hat genauso wie der 4650G eine TDP von max. 65 Watt, also denke zumindest ich dass das weiterhin reicht....
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Mag sein dass das höher ist, aber ich denke das reicht trotzdem. Aber mal sehen, was die anderen Jungs dazu meinen....
 
Zuletzt bearbeitet:
Ok, ich könnte jetzt mal ausschalten und mein Messgerät dazwischen klemmen... ich weis aber, dass mein 5700g (kein OC) wirklich nur die ca. 88W benötigt. Dazu RAM, SSD, 10Gbit-Karte.... ich denke, der Rechner kommt auf keine 120W unter Volllast.

Was der 5700G im Boost noch reisst, weis ich aber nicht! Save biste mit dem 5600G. ;)


Edit: System wie beschrieben, ohne PBO:
129W Multicore im Cinebench R23 an der Steckdose. habe ein BeQuiet Straight Power 400W.
144W Prime95 FPU-Test.
120W Handbrake
30,5W Idle (die Mellanox 10GBit frisst mind. 6W)

-> nimm den 5600G
 
Zuletzt bearbeitet:
ich lasse meinen 5700G grundsätzlich mit Max 65W laufen, das passt sehr gut.

ein 120W Netzteil an die Grenze von 118W zu bringen ist weder effizient noch ratsam. Das ist wie Im Auto ständig auf Vollgas fahren oder den Mitarbeiter mit Arbeit bis zum Anschlag fluten.
Mag mal gehen, auf Dauer geht das nicht gut. Irgendwo gibt was auf oder raucht was ab.
 
@Strikeeagle1977 Ja, hab meinen 4650g auch auf 45w cTDP eingestellt, würde ich mit einem 5600g/5700g auch so machen (wäre eh die Frage, ob der 5700g@45w dann noch einen Vorteil hat).

Wie stellst Du denn 65w ein? Mit 45w cTDP?

Ging mir nur darum, ob es prinzipiell ginge (also quasi wenn die BIOS Batterie leer ist und die cTDP vergessen wird).
 
Wie stellst Du denn 65w ein? Mit 45w cTDP?
Mein Asus TUF B550 Pro bietet verschiedene Einstellungen im UEFI, was die max TDP bzw deren Begrenzung angeht, afaik 65 und 45W ...
Ob er Generationssprung 4650G auf 5700G so viel bei 45W bringt, i dont know.

Ich sehe da nur 2 Kerne mehr und minimal bessere iGPU.


 
Zuletzt bearbeitet:
Ich habe damals vom 4650G auf den 5700G gewechselt. Beste Entscheidung für mich!

Da ich seit einigen Jahren keine dedizierte GPU mehr benutze/n (möchte), kann ich nun in WQHD bspw. Diablo 3 flüssig spielen. Bei Master of Orion hakelt es bei weitem nicht so krass mit dem 5700G bei Rundenwechsel und beim OTTD kann ich einige Züge mehr aufs Gleis schicken.
Handbrake flutscht auch besser.

Kommt halt aufs Szenario an. :)

Grafik reicht mir mitlerweile, aber mehr SC Bums wäre nett. Von daher mal schauen, was ein 7700G leistet.
 
Ich habe damals vom 4650G auf den 5700G gewechselt. Beste Entscheidung für mich!
Wie hat sich das im normalen Windows-Alltag bemerkbar gemacht? Wenn ich mich nicht irre, ist der 5700er "nur" ca 15% schneller...
 
Wie hat sich das im normalen Windows-Alltag bemerkbar gemacht?
Gar nicht? Da reicht auch ne Intel iGPU von nem Core i locker aus.
Im Windows Betrieb mit Office, Web und Co spielen unterstützte Codecs und Hardwarebeschleunigung eine Rolle, aber nicht die Gamingperformance eines 4650G oder 5700G.
 
Du kannst Dich nicht zufällig noch an den max Verbrauch mit dem 4650g erinnern:)?
Nee, leider nicht. Allerdings könnte das hier im Forum im Renoir-Thread stehen. Musst mal 20 Seiten hier zurück blättern.


Im Windows-Betrieb merke ich keinen Unterschied. Nur in den von mir genannten Szenarien.
 
R5 5600G auf ASUS B450M-K dazu 16 GB RAM, WD 512 GB NVME, eine 60GB Kingston SSD, ein LG DVD-Brenner - und das alles betreibe ich mit einem sehr billigen 240 Watt LC-Netzteil. Wobei die CPU bei mir fast nie etwas zu tun hat. Die R5 5600G erzeugt vermutlich im Gegensatz zum Vorgänger R3 3200G von daheim aus etwas mehr Wärme. Bei R3 3200G ist nämlich der identische CPU-Lüfter immer zwischen aus und an gependelt, jetzt läuft er ständig und fast immer mit Minimaldrehzahl. Der Lüfter ist einer den AMD mit dem R3 3700X mitgeliefert hatte. Wobei ich z.B. bei der Datensicherung und beim Scannen nach Schadsoftware zwischen R3 3200G und R5 5600G keinen Unterschied bemerke - der Durchsatz der NVME (nur PCIe 3) ist die Bremse.
 
Hallo,

Ich versuche mich gerade am Overclocking meines neuen Rechners:

Gigabyte A520M
2x 8GB Corsair Vengeance LPX DDR4 3600, darauf Micron M8E
5600G

ich bin gerade beim RAM, habe aber kein Gefühl dafür, was ich da dauerhaft in Sachen Volt einstellen sollte/darf.

Mit 3933 MHz läuft er stabil bei
1.100v VCore SOC,
0,950v VDDP und
1.390v DRAM.

bei 4000 MHz reichen nicht mal
1.125v VCore SOC,
1.000v VDDP und
1.500v DRAM

und prime95 erzeugt Fehler bei large FFTs. Hier scheint ihr aber noch sehr viel weiter zu kommen.
was ist üblich? Bin ich zu vorsichtig? M8E soll ja eigentlich gut sein.
die Timings sind aktuell aber bei ganz schlechten 18-22-22-42 eingestellt, das hatte ich in einem Guide gefunden - Timings hoch, Frequenzende ausloten. Die zu schärfen habe ich noch nicht gemacht.
Das Verhältnis FCLK MCLK und UCLK ist bei 1:1

Danke und Grüße!
R
 
Die Spannungen skalieren normalerweise recht linear, bis man an die Grenze eine der Komponenten vordringt, dann kann es auch größere Sprünge geben. Ein guter Anfang wäre ein ZenTimings Screenshot von deinen Einstellungen für DDR4-4000. Da auch eine APU vereinzelt FCLK Löcher haben kann, kann es zudem sinnvoll sein, diesen Takt ggf. zu überspringen und direkt eine höhere Taktrate zu testen.
 
Meint ihr eigentlich es kommt noch eine richtige APU für AM5 ? mit 12 oder mehr CU`s wie im 6800H ?
 
Meint ihr eigentlich es kommt noch eine richtige APU für AM5 ? mit 12 oder mehr CU`s wie im 6800H ?
warum sollte AMD diesen Vorteil aufgeben? Bestimmt kommt da was. Die APUs auf AM4 sind ja auch nicht so schlecht angenommen worden.

Bin selbst Nutzer von 2200G und 5700G 👍
 
Man konnte mit Vega 8 und Co sogar mal ein kleines Spielchen zocken sprich soo schlecht waren die gar nicht. Ansonsten war die rein für Bild recht flott, wenn sie noch etwas Video-RAM spendiert bekam und H.265 beschleunigte sie extra noch. Ich bin zufrieden....
 
Ich habe seid gestern wieder einen 4600G und wusste garnicht das es da PBO für CPU und auch GPU gibt. Läuft jedenfalls mit 2200Mhz auf der Vega 8 top stabil und ich bin von der Gamingleistung in 1080P überrascht. bei gerade mal 50-60W Gesamtverbrauch vom System.
Beitrag automatisch zusammengeführt:

warum sollte AMD diesen Vorteil aufgeben? Bestimmt kommt da was. Die APUs auf AM4 sind ja auch nicht so schlecht angenommen worden.

Bin selbst Nutzer von 2200G und 5700G 👍

Stell dir mal einen 6 Kerner mit 12CU`s auf 2,5Ghz, DDR5 6000 und vielleicht noch einem 128MB dedizidiertem GPU Speicher auf dem Die vor.
Das würde mit AMD`s FSR und RSR locker 1440p reichen.
Und ich könnte endlich meinen Traum von einem Mini ITX Spiele PC unter 2L verwirklichen
 
Vega lässt sich freilich übertakten; muss man nur wissen und abschätzen, ob sich das lohnt in Sachen Stromverbrauch und Kühlung. Letzteres bekommt man aber beizeiten mit....
 
vielleicht noch einem 128MB dedizidiertem GPU Speicher auf dem Die
da träumst du jetzt aber etwas wirr, oder? ;)

dedizierter RAM für die Grafik war bei Chipsätzen schon recht selten,
afaik kenne ich nur AMD 790 Chipsätze mit 128MB Grafikram und ne Via KM266, der 32 oder 64MB GFX Ram dediziert bereitgestellt wurden.
Asrock AOD790 irgendwas und nen MSI KM2M Combo z.B.

der Rest hat sich immer beim Arbeitsspeicher bedient.
 
da träumst du jetzt aber etwas wirr, oder? ;)

dedizierter RAM für die Grafik war bei Chipsätzen schon recht selten,
afaik kenne ich nur AMD 790 Chipsätze mit 128MB Grafikram und ne Via KM266, der 32 oder 64MB GFX Ram dediziert bereitgestellt wurden.
Asrock AOD790 irgendwas und nen MSI KM2M Combo z.B.

der Rest hat sich immer beim Arbeitsspeicher bedient.

Nix da, ich bin zwar alt aber du hast anscheinend den Intel 5775C vergessen bei dem sie genau das gemacht haben ;-) und da man ja die X3D modelle bald bringt, könnte man die sowieso vorhandene Technologie nutzen um sie auf den GPU Die zu packen. die Bandbreite wäre ja sowieso Immens.


PS: Ja, ich träume :-)
 
Nix da, ich bin zwar alt aber du hast anscheinend den Intel 5775C vergessen bei dem sie genau das gemacht haben ;-)
Man darf sich darüber streiten ... mal ganz davon ab, mit den besonderen CPUs hat Intel nicht einen cent verdient, angeblich sogar gut draufgelegt ...


Die Besonderheit liegt beim Core i7-5775C und dem kleineren Bruder Core i5-5675C in der integrierten GT3e-Grafikeinheit, die als Iris Pro 6200 nicht nur 48 Execution Units sondern auch noch 128 MByte eDRAM bietet. Dieser fungiert als letzte Zwischenstufe zwischen Cache und Arbeitsspeicher, auf den sowohl der Prozessor- als auch der Grafikteil zugreifen können. Er wird deshalb oft auch als L4-Cache bezeichnet und so von Programmen erkannt und getestet.
war ja auch mehr so ein ganz besonderer Versuchsballon, eine sehr kleine besondere Serie, sozusagen der Porsche 959 unter den Core i CPUs
 
Nein, streiten tun wir hier nicht. Aber ja, von der seite betrachtet bleibt das vermutlich eine Wunschvorstellung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh