AMD stellt Ryzen-7000-Serie mit Zen-4-Chiplet in 5 nm und IOD mit RDNA-2-Grafik vor

Oh hah meine befürchtung haben sich bewahrheitet. Das gefällt mir so garnicht. Wenn man sich so ne CPU kaufen wird und dann auf 142 Watt eundrosselt dann bleibt wohl am Ende kaum mehr Leistung übrig. Nur die 2,5 % mehr Leistung sind dann noch übrig. Sowas hätte ich wenn ich verrückt wäre schon gemacht. 2000 € dafür ausgeben, dann her gehen und die 142 als Grenze einstellen. Dann sich über die mehrleistung freuen. Allerdings wäre ja wenn ich nicht nen ryzen 9 5950x schon habe. Da macht das ja sehr wenig Sinn das Ganze. Und ja es gibt bestimmt welche die das ganau so machen wie ich geschrieben hatte.
Es rüsten ja auch bei gpu wegen 10 % auf also warum nicht auch dann bei cpu und dem Rest des gesamten Systems.
Zum Glück bin ich nicht verrückt und gebe wegen 10 % mehrleistung 2000 € und mehr aus.
Wenn ich das wäre, hätte ich gewiss mir schon nen threadripper geholt. Dann wäre es kein ryzen System sondern für 1200 € Aufpreis ein threadripper 3970x System geworden. Aber dummerweise kommt Geld nicht aus dem Hintern raus. Und zaubern kann ich auch nicht. Also von daher wird das echt noch heiter für die Zukunft. Teuer, steomfressend ohne ende und zu anfang fehlerhafte Produkte weil beta und so.
Mal sehen wie es weiter gehen wird.

Kommt auf den Bedarf drauf an. 10% mehr Leistung können bei einem Workload der 10 Stunden brauch gleich ne Stunde ausmachen.
Ich hab auch noch einen 3900x *obwohl der 5900x attraktiv wäre, so ist ein Wechsel für mich auf die neue Plattform auch.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ja gut bei 10 Stunden ist es was anderes.Da sage ich ja nix und wenn das dann jeden tag so ist,dann lohnt es sich ja schon.Damals wo ich so viel hatte waren es 7 Stunden gewesen und das dann 3 x in der Woche. Bei mir wären das dann 3x 42 Minuten Zeitersparnis bei allerdings dann höherem Stromverbrauch Pro Sunde. Wir schreiben ja da von bei meinem 142 Watt Pro Stunde aus. Hier wäre es dann 230 Watt. Also wäre die Leistung Pro Watt schlechter weil auch wenn die Zeit eingespart wäre,diese durch die pro Stunde aber wieder mehr wäre.Wenn man so wie ich auf Leistung pro Watt schaut,sieht es mit der 7000 Serie schlechter aus.
Beim Threadripper ist zwar auch schlechter aber wäre immer noch besser als bei der 7000 Serie aber schlechter als die 5000 Serie.

Achja die Leistung pro Watt wäre dann Leistung pro Stunde.Also je besser dieser Wert desto besser auch die Stromrechnung. Und ich nutze den Ryzen 9 5950x wenn ich diesen Auslaste wirklich gut aus. Der Threadripper 3970x steht nur besser da als eigentlich dank der 75 % CPU Auslastung.Würde der auch auf 92 % Auslastung stehen,würde auch dieser mehr als 200 Watt an Strom pro Stunde verbrauchen.Gehe dann mal von 200 Watt aus.Wäre immer noch sparsamer als so ein Ryzen 9 7950x mit 230 Watt.
Leistung Technisch dürften beiden auf dem selben Level sein.Also Threadripper 3970x Leistung mit 30 Watt mehr Stromverbrauch.
Hoffe die Nachfolger werden besser beim Stromverbrauch.Weil irgendwann wird meiner mal defekt sein und dann wird geschaut was dann als Nachfolger gut ist.Würden wir also von nun an immer höheren Stromverbrauch haben,gefällt mir diese Entwicklung so garnicht.
Meine Anwenung steigt zwar mit höheren Takt aber nicht so hoch wie ich mir das Wünschen würde. Und 1 ghz mehr Takt mag zwar cool sein,wenn dabei aber dann nur 6 % mehrleistung dabei heraus springt ist das sehr wenig für mich.
 
Dass 3D-Cache nicht kommen wird war doch recht klar, man sieht beim 5800X3D schon dass es sich kaum lohnt. Kosten sind zu hoch und beim 5800 vernichtet der niedrige Takt jeden Vorteil den der Cache bringt.

Eine GPU wäre schon nett, mir würde da schon eine reine 2D-GPU reichen. Zum Testen ist sowas immer mal nützlich und mancher der keine dGPU braucht kann den PC dann einfach ohne betreiben.
ich habe neulich erst mit der iGPU eines i5 4670k gezockt. besser als nix ist es alle male.
AOE II und LoL laufen damit immer noch. VIele alte Spiele auch. Dabei ist eine neuere iGPU schon massiv besser als eine HD 4600 wie bei dir, alleine der neuere Speicher bringt enorme Vorteile. Von DDR4 auf DDR5 bringt bei der iGPU gewaltige Zuwächse. Eventuell reicht es dann sogar für BF4 in 720p oder so. Kein Knaller aber besser als nichts, wenn die dGPU mal kaputt ist. Wäre meine kaputt hätte ich nur noch eine GT 610, da würde nicht mal mein Monitor in 60 Hz mit laufen. Wahrscheinlich könnte sie es, jedoch machen die Anschlüsse das nicht mit. Das Problem haben viele.
Aber die absolute Zahl der Desktop PC war demnach auch 2019 noch ungefähr so hoch wie 2001 und damit belegt es eben nicht, dass Desktops in der Bedeutungslosigkeit verschwinden, sie haben nur zusätzliche Konkurrenz bekommen.
Es kommt auf die Verwendung an. Für zu Hause und zum Zocken macht für mich nur ein Desktop Sinn. Gaming-Laptops sind viel zu teuer und leistungsschwächer, sowas lohnt sich echt nur für Leute die damit wirklich reisen (wobei man selbst dann noch einen ITX-PC bauen kann). Für Unterwegs legt man sich besser noch ein kleines und leichtes Notebook zu, mit dem man alles bis auf High-Performance-Anwendungen erledigen kann. Ich finde beim Notebook schwache und sparsame Hardware da sogar besser, zumal solche Geräte auch weniger wiegen.

HEDT wie früher ist wegen des MCM-Designs nicht mehr nötig. Früher führte nichts daran vorbei wenn man mehr als vier Kerne wollte. Ich denke aber dass die 16-Kerner praktisch HEDT sind, sie haben lediglich kein Quadchannel und weniger Lanes. Der 5820K zum Beispiel hatte aber auch "nur" 28 Lanes - Die anderen hatten glaube ich 40. Insgesamt dürfte eine aktuelle Plattform dennoch mehr Bandbreite liefern, da mittlerweile ja sogar PCIe 5.0 existiert. Mich stört es letztlich nicht und ich bin froh damals nicht auf TR4 gesetzt zu haben.

Mich würde übrigens nicht wundern wenn Zen 3 erstmal noch weiterläuft, alleine wegen dem DDR5. Zen 4 wird mutmaßlich überteuert und seine Startprobleme haben. Für Budgetspieler reicht auch ein 5600, eigentlich würde der selbst mir locker reichen, zumindest was Spiele betrifft. Bei den meisten Leuten macht eine neue GPU immer mehr Sinn als die teuerste CPU.

Möglicherweise ignoriere ich Zen 4 sogar wie Zen 2, was im Nachhinein gar nicht mal so schlecht war da sich die Mehrleistung dann wirklich lohnt. In 2 - 3 Jahren wird DDR5 mutmaßlich deutlich bezahlbarer sein. Eigentlich würde ich unter 6400+ gar nicht erst umsteigen wollen. Weniger lohnt sich mit den heftigen Latenzen kaum über DDR4, dazu kostet da ein 32 GB Kit schon praktisch so viel wie eine DDR4-Plattform mit Board und CPU. 32 GB generischer DDR4 mit ~3600 kosten ja mittlerweile fast gar nichts mehr. Also unter 150 €, während DDR5 weit über 300 liegt.
 
Dass 3D-Cache nicht kommen wird war doch recht klar
Es solll gerüchteweise später noch zumindest ein Modell mit 3D V-Cache kommen. AMD hat den 5800X3D ja auch erst später nachgeschoben.

man sieht beim 5800X3D schon dass es sich kaum lohnt. Kosten sind zu hoch und beim 5800 vernichtet der niedrige Takt jeden Vorteil den der Cache bringt.
Das stimmt doch so nicht. In bestimmten Anwendungen, vor allem Games, bringt der zusätzliche L3 Cache schon eine ganze Menge.

Eine GPU wäre schon nett, mir würde da schon eine reine 2D-GPU reichen.
Wieso sollte AMD da extra was entwickeln und dies wäre dann für andere wie etwas aber nicht allzuviel höhere Anforderungen haben, nicht genug? Da nimmt AMD doch besser ein Design welches schon vorhanden ist und eine RDNA-2 GPU aus 6nm Fertigung ist ja auch schon in den RYZEN 6000 APUs (Mendocino) vorhanden.

Es kommt auf die Verwendung an. Für zu Hause und zum Zocken macht für mich nur ein Desktop Sinn.
Darum was wann besser ist, geht es doch überhaupt nicht, sondern um die Marktanteile und welche Plattformen die Hersteller priorisieren. Außer solltest du so langsam mal eine Leiter nehmen um über den Tellerrand zu schauen, es kommt nämlich nicht nur auf dich an!
 
Zuletzt bearbeitet:
@Niftu Cal

Naja anscheinend hat sich was geändert gehabt weil wie es aussieht die Bandbreite so hoch gestiegen ist das nur noch Dualchannel nötig ist oder die Arbeitsanwndung nicht so viele so Banbdreiten Limitierend sind wie gedacht.So kann man also so wie ich auch mit Dualchannel wunderbar auskommen.DIe 16 Kerne verhungern also nicht an der Bandbreite.Und bei ddr5 erst recht nicht mehr.Ich begrüße diese Entwicklung sehr und bin froh das man nicht mehr auf Quadchannel angewiesen sind.Zumal ja je mehr Riegel desto mehr Strom verbraucht auch das System,logisch weil mit Luft und Liebe läuft halt kein Ramriegel mit.

Achja du hast es gut,ich habe zur Auswahl als schnellen Ersatz nur ne AMD HD 5450 mit 1 gb GDDR3 sowie ne Gt 9600 mit 1 Gb GDDR wo ich verwenden kann.Wobei die 9600 gt wohl auf dem selben Level wie ne gt 610 wohl zu sein scheint.Damit kann man nur wenig Spiele noch spielen. Für Spiele wie Serious sam 2(2005),Counter strike source usw läuft alle Wunderbar. Ich habe nur 2 Spiele wo ich nicht mehr zocken kann weil unter den Minimum Anforderungen ,ansonsten kann ich mit allen Pc SPiele zocken.
Die HD 5450 ist sogar schlechter als ne intel HD 4000 und selbst die ist echt mit 720p auf low hart an der Kante genäht.Mit sowas kann die Onbard GPu von AMD wo im Zen 4 rein kommt,im schlaf überflügeln.Das ist keine große Herausforderung.

Freut mich das so eine gute Onboard GPU in der CPU verbaut wird.Da ich ja eh durch nur 1080p mit 720p nur geringfügig weniger Auflösung habe,schmerzt es weit weniger als so manche hier.
Und in Zukunft wird die Onbard GPU immer besser werden.Irgendwann mal wird es mit etwas glück sogar ne Vega 8/Gtx 750 ti Level erreichen.Die beiden haben die selbe Leistung und die reicht mir bis auf 1 Spiel völlig aus. Und kann damit sogar nen akutelles Game in 720p noch zocken,wenn auch in low Settings.

Die Zukunft schaut gut aus und bei mir wird sich nicht wirklich viel tuen weil Spiele mäßig nicht so viele dazu kommen ,das es die Welt dann wäre.
Wir werden ja sehen auf welchem Level die Onboard GPU wirklich sein wird.Welchen Takt es mit so hohen Stromverbrauch es erreichen wird usw.
 
Möglicherweise ignoriere ich Zen 4 sogar wie Zen 2, was im Nachhinein gar nicht mal so schlecht war da sich die Mehrleistung dann wirklich lohnt. In 2 - 3 Jahren wird DDR5 mutmaßlich deutlich bezahlbarer sein. Eigentlich würde ich unter 6400+ gar nicht erst umsteigen wollen. Weniger lohnt sich mit den heftigen Latenzen kaum über DDR4, dazu kostet da ein 32 GB Kit schon praktisch so viel wie eine DDR4-Plattform mit Board und CPU. 32 GB generischer DDR4 mit ~3600 kosten ja mittlerweile fast gar nichts mehr. Also unter 150 €, während DDR5 weit über 300 liegt.
Zen4 wird wohl nur Enthusiasten ansprechen. Also solche die für 15% mehr Performance gerne 1500 Euro auf den Tisch legen. (MB+RAM+CPU)
Beitrag automatisch zusammengeführt:

Kommt auf den Bedarf drauf an. 10% mehr Leistung können bei einem Workload der 10 Stunden brauch gleich ne Stunde ausmachen.
Ich hab auch noch einen 3900x *obwohl der 5900x attraktiv wäre, so ist ein Wechsel für mich auf die neue Plattform auch.
Hier muss man auch immer den Verbrauch betrachten um schneller zu sein...

Beitrag automatisch zusammengeführt:

Eine Frage die mich umtreibt, wird es das AMD Board geben? Finde das ziemlich geil xD
Extrem erstaunlich ist ja, wie alle anderen Mainboards von Asus, MSI usw diesem gleichen. Fast alle haben 3 PCIex16 Slots in dieser Anordnung.
 
Zuletzt bearbeitet:
59XX3D sollte meines Wissens ja kommen, wurde dann aber doch gelassen. Ich habe die Benchmarks gesehen, es ist vor allem in 1080p und ganz bestimmten Anwendungen, dennoch wäre der Vorsprung bei gleichem Takt sicher besser. Die Non-3D takten alle besser.

Extra entwickeln nein, natürlich nimmt man da RDNA oder Vega, mit 2D meine ich nicht teuer = für 3D praktisch unbrauchbar. Für Leute die eine starke iGPU brauchen macht man besser Sondermodelle.

9600 GT ist so alt dass es da wohl schon an den Codecs hakt, die 5450 ist auch schon grenzwertig. Die dürfte verglichen mit einer iGPU auch ziemlich viel verbrauchen. Dahingehend fand ich Intel schon immer besser. Die neuen iGPUs haben auch mit 4K60 kein Problem mehr und bieten frische Codecs.

Ist das mit den 230 W endgültig? Mir wird bei den Intel-Benchmarks schon übel, vor allem weil ich den Strom ja selber zahlen muss (36 Cent pro kwh). Jedoch würde ich trotzdem Intel kaufen wenn es günstiger wäre, denn man kann die CPUs sicher bändigen. Das war bislang bei AMD ja leider immer so, siehe 290>390, 480>580 usw. Für die letzten paar % werden extrem hohe Verbräuche in Kauf genommen. Da war der 5900X wohl ein guter Kauf da der mit maximal 140 W und UV extrem effizient ist. Wer sich jetzt so eine CPU zulegt wird mutmaßlich in den kommenden Jahren auch keine Probleme bekommen. Manche sitzen ja immer noch auf ihren i7 Quadcores... Selbst ein 6-Kerner wie der 3600 oder 5600 wird für die meisten Zwecke reichen. Ob man die letzten 10 % für viel zu viel Geld und extremen Mehrverbrauch braucht muss jeder selbst entscheiden.

Ich lasse auch die GPUs künftig im UV laufen, dann reicht auch eine Luftkühlung ohne dass es einem die Ohren wegbläst. Dazu kommt dass die Hardware zunehmend unbezahlbarer wird, da die Leute das Gescalpe und die Extrempreise ja auch weiter mitmachen. Für Leute wie mich bleibt dann nur noch selber zu scalpen oder zu verzichten. Man kann zu 100 % davon ausgehen dass RDNA3 und Lovelace am Anfang genauso sein werden die diese Generation, sprich man darf die geringen Bestände für mindestens den doppelten UVP einkaufen. Es ist anzuraten sich jetzt möglichst günstig mit der aktuellen Generation einzudecken oder das kurz vor Launch zu machen. Wenn ich dann für ~600 eine 3090 sehe schlage ich zu. Die kann man dann immer noch nutzen oder ein paar Wochen doppelt so teuer weiterverkaufen. So werden die Preise für High-End dann fast schon wieder normal - Früher bekam man ja für rund 700 € das TI-Flaggschiff zum Launch ohne Umstände, heute kostet selbst die gammelige 3080 TI mit 12 GB 1199 UVP... Das wird nicht mehr besser.
 
@Niftu Cal

Ja da gebe ich dir völlig recht,da ist dann auch egal,da kann man dann auch in meinem fall auch gleich nur die Onbard GPU verwenden.Auch wenn der 9600 gt die codecs haken sollte wobei ich ja noch immer nur überwiegend H264 Videos wiedergebe.Das dürfte die GPU noch packen aber gut ist halt was anderes.Zum Spielen mag die 9600 gt noch im vergleich zu manche Onbard GPU gut sein,weil besser als ne Intel Hd 4000 ist halt die 9600 gt noch immer.Ich habe halt nur solche als resvere ,da ist es dann echt schwer sich zu Entscheiden.Ich weis nur das ich dann so Spiele wie Borderlands 2 dann mit ner 9600 gt auch die Grafikeinstellungen runter drehen musste und das nicht gerade wenig um zumindest in 40 fps zocken zu können.
Das kann man nicht mehr als richtig gut Spielen bezeichnen.Hier brauche ich auf jedenfall noch ne gute Ersatz GPU.
Dann werde ich wohl doch ne gtx 1070 für 185 € noch gebraucht holen.Weil ich wechsele ja nicht zu der kommenden Ryzen Plattform mit Onbaord GPU.
Es ist dennoch gut das sowas kommt,weil sollte ich doch mal ne aktuelle Plattform noch nehmen ,dann habe ich gleich noch ne extra GPU gekauft gehabt die alle ersatz GPUS ersetzt mit nur einem Schlag.

Aber so Pc Komponennten halten wirklich ne halbe ewigkeit.Meist so lange das man vorher bevor die wirklich defekt gehen man diese ja eh schon Ersetz hat. Meine Hardware ist noch nie 20 Jahre alt geworden,also ich weis ja nicht wie alt CPU und co so insgesammt werden können,der i7 3770k ist jedenfalls schon 9 Jahre alt.Das ist noch kein richtiges Alter ,weil die meistens so 15 Jahre und älter sind.

Das gute ist das weil die Hardware so lange hält man ja dann mehrere Generation überspringen kann.
Und ich trenne die Pcs zu reinen Zocker kisten und reiner Arbeitskiste auf.Dadurch bin ich flexibler und weis dann auch besser welche Komponennten man so kaufen braucht.Ne reine Zocker kiste soltle dennoch idealerweise mindestens 6-8 Kerne haben um unbeschert zocken zu können. Und je nach Preis kann man auch mehr Kerne nehmen wenn man nicht nur zocken tut.

Achja und das was du da so angegeben hast,bringt für so einen wie mich nix der mit 450 und 550 Watt Netzteilen Unterwegs ist.Da geht dann auch sowas wie ne rtx 3090 eben nicht mehr rein weil das Netzteil eben zu klein ist.Oder wird der Pc dann überhaupt ein gehen?
 
Für Leute die eine starke iGPU brauchen macht man besser Sondermodelle.
Eigentlich braucht man nur für Notebooks eine starke iGPU, aber im Desktop sollte jeder der mehr GPU Power braucht als eine iGPU liefert, eben einfach eine Graka einbauen.

Ist das mit den 230 W endgültig? Mir wird bei den Intel-Benchmarks schon übel, vor allem weil ich den Strom ja selber zahlen muss ... denn man kann die CPUs sicher bändigen
Eben, setze einfach die Power Limits und Tau, vor allem PL1 im BIOS so wie du es willst, dann braucht die CPU auf Dauer im Schnitt nie mehr als der eingestellte Wert. Die Boardhersteller stellen da gerade bei den Z Boards in der Defaulteinstellung oft extrem hoch Werte ein, denn die Kunden wollen ja meist Übertakten und pfeifen auf die Leistungsaufnahme.
 
Natürlich wird der an gehen, liegt ja keine Last an.
Ja spätestens wenn man damit dann zockt,dann wird er ausgehen.Ich weis es noch ganz gut,hatte ne gtx 1060 mit nur 1 Stromstecker pin angeschlossen gehabt weil vergessen hatte beide Anzuschliesen. Sobald dann mal so richtig mehr Last angeschlagen war,ging dann der Pc aus.Ich hatte mich das immer gewunder gehabt,jedoch nach ner gewissen Zeit gemerkt gehabt,das es eben vergessen wurde.Also so wird es auch mit so ner teuren GPU auch nicht anders ergehen.Nen 550 Watt Netzteil wird jedenfalls die rtx 3090 in der Last nicht ziehen können.
 
Auch beim Notebook sehe ich wenig Sinn darin, wer Spielen will braucht sowieso eine dedizierte Karte. Die iGPU sollte vor allem effizient sein. Das werden nun noch spannende Zeiten mit DDR5, da die kommenden iGPUs damit auf die Leistungsklasse so mancher älterer High-End-Modelle kommen werden. Ich denke sogar dass der Speicher da gerade der Flaschenhals ist. Neue grafikintensive Spiele mit iGPU zu spielen ist utopisch, ältere Titel jedoch dürften dann brauchbar laufen. Gerade BF4 fällt mir da ein, denn das lief als es rauskam auf Intel-Karten mit weniger als 20 FPS in 720p Low.

Selbst eine 3090 kann man mutmaßlich stark undervolten und auf unter 550 bringen. Es kommt auch auf die CPU an und ob man diese dann noch auf Anschlag übertaktet hat. Ich habe auch nur ein 650 W. Mehr braucht man auch nicht, sollten die echt GPUs mit 600 W bringen werden die einfach nicht gekauft, zumal die sowieso teuer sein werden. Wobei es früher auch Dual-GPUs gab wie die 295X2, die war glaube ich mit 500 W angegeben. Da kann man es eventuell noch verkraften wenn die Leistung dann auch dazu stimmt.

Was Zen 4 betrifft, der L2 wird doch verdoppelt. Das ist immerhin was. Mehr L3 wäre sicher auch lecker gewesen, jedoch dürfte der doppelte L2 auch gut sein. Interessanter wären die Preise und ob es mit B650 weiterhin ~120 € Boards geben wird.
 
Das werden nun noch spannende Zeiten mit DDR5, da die kommenden iGPUs damit auf die Leistungsklasse so mancher älterer High-End-Modelle kommen werden.
Wohl eher schon uralter, denn die Bandbreite wird immer noch durch das nur 128 Bit breite RAM Interface massiv eingeschränkt und die iGPU muss sich diese mit den CPU Kernen teilen. Man sollte die Erwartungen an die Performance einer iGPU nicht zu hoch hängen und wenn man an Spiele denkt, mit dem zufrieden sein was sie liefert und sich sonst eine Graka kaufen. Diese iGPUs sind im Desktop eine besseren Graka immer massiv unterlegen, schau Dir nur an wie viel Leistungsaufnahme solche Grakas haben und stell Dir vor was für die CPU übrig bleiben würde, wenn die iGPU diese auch haben dürften.
 
Wie schon gesagt, ich erwarte gar nicht dass sie mit aktuellen Desktop-GPUs mithalten. In Zeiten wo eine Mittelklassekarte jenseits der 400 liegt muss man sich schon gut überlegen ob man das überhaupt braucht. So eine starke iGPU düfte je nach Shaderzahl problemlos mit einer GT 1030 oder gar 1050 mithalten. Die maximale Bandbreite liegt auf Niveau des RAMs - 60+ GB/s sind da drin. Meine GT 650M hatte damals nichtmal die Hälfte davon mit DDR3. Dabei hat die Auswirkung der Bandbreite bei solchen Karten immer sehr gut gezeigt was möglich ist, die Varianten mit GDDR5 sind deutlich schneller.

Für Leute die nur ältere Titel spielen ist so eine Lösung dann möglicherweise attraktiver, dafür gibt es ja auch die APUs. Das ist auch weitaus sparsamer als irgendwelche uralten GPUs weiterzubetreiben. Ich war erstaunt als ich mal vor zwei Jahren eine GTX 460 hier hatte, manches geht damit sogar in 1080p, doch die Leistungsaufnahme ist enorm. So eine Karte zieht sicher das Vierfache des ganzen Systems mit einer modernen APU.

Es wird auch spannend was Intel da noch abliefert, wenn sie sich trauen diskrete GPUs zu liefern werden auch die iGPUs besser. Bei denen hakte es vor allem an den Treibern neben der bescheidenen Leistung. Allerdings war meine letzte Intel HD die 4000 - Die 5XX in dem Atomprozessor bei diesem Gerät mal ausgelassen. Bei 3D hatte sie damals seltsame Artefakte in manchen Spielen. Sowas geht natürlich nicht wenn man es als ernsthafte Alternative ansehen soll.
 
So eine starke iGPU düfte je nach Shaderzahl problemlos mit einer GT 1030 oder gar 1050 mithalten.
Wobei zumindest die 1030 auch nur für Windows Desktop und Multimedia taugt, wer irgendwelche Ansprüche an Gamingperformance hat, der sollte von der 1030 die Finger lassen oder damit zufrieden sein was er bekommt und sich darüber freuen, dass sie billig ist. Genau dies gilt auch für die iGPUs.
 
falls es fuer eine 1050ti langen sollte waere das schon eine passable 1080p gpu.
 
nope für eine 1080p ist sie inzwischen zu schwach,wenn dann eine passble 720ßp GPU. Weil ich kenne nen spiel wo diese eher mittlere -hohe Details kann.Bei 1080p ist diese aber zu schwach ,es sei denn man will low Setting haben ,dann ja.Dann kann man auch sagen passle 1080p GPU mit low Settings.Gillt allerdings nur bei den neuen Games,nicht bei den alten.

Dennoch joa würde mich das sehr wohl freuen,weil dass wäre echt ne saubere Leistungssteigerung.Da wäre dann meine GPU mit ner gtx 1050 ti dann obsolut also hinfällig.
Das ist schon zu begrüßen.Tendiere allerdings eher so richtung 750 ti Leistung.Man will ja die Vega 8 onbaord nicht überflüssig machen.Also Vega 8 ist auf gtx 850m sowie gtx 750 ti Level.Was für kleine Spielchen völlig reicht.Es kommen auch anspruchslose neue Games ebenso raus.
Von daher spielt es für mich keine Rolle ob diese oder Jene Leistung.Fakt ist das es ne Ordentliche Leistungssteigerung gibt.

Dann ist Zen 4 selbst mit nur kleinen Sprüngen auf CPU Seite noch immer für einige Interessant.Liegt an der GPU Part das es so ist.Somit werden sie den Verkauf schon Ordentlich alleien durch das ankurbeln können.Sehe da keine schlechten Karten.
 
Zuletzt bearbeitet:
Hier hast Du vergessen dass Zen4 nun 230W gegen 142W aus dem Sockel zieht um ~10% schneller zu sein.
Für diese Info hätte ich gern mal eine halbwegs seriöse Quelle.
Nach allem was ich so mitbekommen habe ist das absurdester Spekulatius, fernab dessen was aufgrund der bekannten Eckdaten logisch und realistisch ist.
 
Zuletzt bearbeitet:
Für diese Info hätte ich gern mal eine halbwegs seriöse Quelle.
Nach allem was ich so mitbekommen habe ist das absurdester Spekulatius, fernab dessen was aufgrund der bekannten Eckdaten logisch und realistisch ist.
Habe den Text geändert zum besseren Verständnis.
 
Zuletzt bearbeitet:
Und wo steht das der neue Sockel für die 10% mehr Leistung diese Werte garantiert zieht?

Ich bin nur auf Latioses Annahme eingegangen.
Es rüsten ja auch bei gpu wegen 10 % auf also warum nicht auch dann bei cpu und dem Rest des gesamten Systems.
Ich habe nur n3cron seinen Wert übernommen...
Ich bin auf keine Werte konkret eingegangen, die ich nicht habe???

Es war nur in Bezug darauf, ob sich auch bei 10% schon ein Wechsel lohnen würde mit entsprechendem Beispiel.
 
Und wo steht das der neue Sockel für die 10% mehr Leistung diese Werte garantiert zieht?

Ich bin nur auf Latioses Annahme eingegangen.


Ich bin auf keine Werte konkret eingegangen, die ich nicht habe???

Es war nur in Bezug darauf, ob sich auch bei 10% schon ein Wechsel lohnen würde mit entsprechendem Beispiel.
Habe den Text geändert, zum besseren Verständnis.
 
Zuletzt bearbeitet:
ja ich schrieb ja auch nur das es wer für 10% auf GPU schon aufrüstet.Nicht genau mich auf CPU fixiert.Da kann man nur raten.Man weis es ja nicht genau.Zudem werden eingie besser und manche schlechter skalieren weil diese Angabe ja nur ein durschnittswert ist.Ich denke mal ich habe ein Programm das wohl so viel oder weniger Profitiert.Aber von lohnen ist ne andere Frage.Wäre das System dann hin und müsste es ersetzen weil eh ein neues Mainbaoard,dann wäre es auch egal,aber danach sieht es nicht so aus(zum glück)
 
Hä? Ich habe nur geschrieben, dass ein System das 10% schneller ist auch mehr Strom zieht! Und das sollte man auch berücksichtigen in so einer Rechnung von 10% schneller. Da habe ich mich wohl kompliziert ausgedrückt...
Ja aber doch genau diesen Wert haben wir ja noch nicht, wir wissen nur was der Sockel theoretisch kann. Aber nicht was die CPU die präsentiert wurde gebraucht hat.
Wir wissen auch, das der neue Sockel auch für große CPUs angedacht wurde, also auch 24 Kerne stehen im Raum. Das diese die volle Power brauchen werden ist definitiv logisch nachvollziehbar, bei den anderen muss das nicht sein.
 
Hä? Ich habe nur geschrieben, dass ein System das 10% schneller ist auch mehr Strom zieht! Und das sollte man auch berücksichtigen in so einer Rechnung von 10% schneller. Da habe ich mich wohl kompliziert ausgedrückt...
Woher nimmst du diese Aussage?
Oder reimst du dir da irgendwas zusammen?
 
ja ich schrieb ja auch nur das es wer für 10% auf GPU schon aufrüstet.Nicht genau mich auf CPU fixiert.

Ich glaube, mein Kopf explodiert, wenn ich noch einen Satz von Dir lese.
 
Ich glaube, mein Kopf explodiert, wenn ich noch einen Satz von Dir lese.
Hm an was liegt es denn, schreibe ich zu unverständlich oder Text zu lange?

Meinst du nicht das es auch welche gibt die sich ne neue Generation wegen der onboard gpu anstatt des CPU wegen zu kaufen?

Oder kennst du keinen der so verrückt ist?
 
Hm an was liegt es denn, schreibe ich zu unverständlich oder Text zu lange?

Ist das jetzt eine ernsthaft gemeinte Rückfrage?

das es wer für 10% auf GPU schon aufrüstet.

Meinst Du damit, ob es Leute gibt, die wegen 10% Mehrleistung der integrierten Grafikeinheit ihre CPU aufrüsten? Kann ich mir kaum vorstellen, aber das heißt exakt überhaupt nichts.

Nicht genau mich auf CPU fixiert.

Ich kapituliere.
Es könnte bedeuten, dass dir CPU Leistung wichtiger ist.

Das könnte "Mir CPU mehr besser groß" allerdings auch.
 
jap mir ist in der tat cpu Leistung wichtiger weil ich das ja durchaus mehr verwende als GPU.
Aber wegen 10 % egal ob CPU oder GPu rüste ich nicht mehr auf.das lohnt sich halt nicht weil es schnell bei CPU Seite richtung 2000€ gehen würde.Bei GPU sind auch so wenig Mehrleistung mit nen saftigen Aufpreis versehen.Das es sich somit auf beiden bezogen nicht lohnen würde.
Aber gut,das gibt bestimmt welche die sowas auch machen,hauptsache Mehrleistung vorhanden oder halt welche die damit Geld verdienen.Als Privat Nutzer gehe ich mal nicht davon aus.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh