AMDs Sockel-AM5 soll DDR5, aber kein PCIe 5.0 mitbringen

Wobei die Frage ist, ob AMD wieder so lange am AM5 Sockel festhalten wird wie an AM4. Damals mussten sie dies machen, um überhaupt wieder einen Fuß in die Tür zu bekommen und haben es daher für AM4 und EYPC versprochen
Haha, guter Witz. Dazu wurde bei Epyc auch bei fast allen Herstellern eine neue Revision ihres Mainboards fällig. Die Supermicro Rev 1.X unterstützen jedenfalls nur Naples, und selbst Asus hat für das KNPA-U16 über ein Jahr für ein Rome-BIOS-Update gebraucht (und damit hat man sich dann die nachträgliche Abwärtskompatibilität mit Naples kaputt geflasht). Also für mich sieht da eine Kompatibilitätszusage, insbesondere im Enterprise-Markt des Epycs, anders aus.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Haha, guter Witz. Dazu wurde bei Epyc auch bei fast allen Herstellern eine neue Revision ihres Mainboards fällig.
Es ist kein Witz, AMDs CEO hat sich darauf festgelegt das AM4 und die EPYC Plattform entsprechend lange leben, die Hersteller der Mainboards müssen dies aber nicht mitmachen, wie man auch bei AM4 sieht, hier waren von AMD auch nicht alle Prozessoren für alle Chipsätze vorgesehen und teils lag es in der Hand des Mainboardherstellers ob er diese unterstützten wollte:

AMD_AM4_Zen2_Chipsetmatrix.jpg


AMD-AM4-Kompatibilitaet-Zen3.jpg


Im Enterprisesegment machen OEM Systemen den Löwenanteil aus und diese werden in aller Regel nicht aufgerüstet. Bei AMD mag der Anteil der Selbstbauer etwas höher sein, aber dies dürfte die Mainboardhersteller auch nicht wirklich animieren den unbezahlten Aufwand auf sich zu nehmen um die Boards für neue CPU Generationen zu validieren. Fujitsu hat auch für Intel Xeons regelmäßig neue Verisonen, gerne B Version genannt, auf den Markt gebracht die dann die CPUs der neuen Generation für den gleichen Sockel unterstützt haben, statt diesen Support für die alten Boards nachzuliefern. Die Mainboardhersteller haben eben vor allem Kosten davon, wenn sie später erschienene CPUs für die gleiche Plattform unterstützen müssen, wirklich mehr Mainboards können sie aber nicht verkaufen, wenn sie es lassen, denn wer eine noch recht neue CPU gegen deren direkten Nachfolger tauscht, wird in aller Regel diese CPU weiterverkaufen und der Käufer dieser gebrauchten CPUs braucht dann auch ein Mainboard dafür.

Damit ist es egal ob nun der Käufer der noch recht neuen Gebraucht-CPU ein neues Mainboard braucht oder derjenige der sie ihm verkauft ein neues Mainboard für seine neue CPU kaufen muss und eben dann auch sein alten Mainboard zu Verkauf anbietet, welches dann eben von eimem Käufer einer Gebrauchten CPU des Vorgängermodells gekauft wird.
Also für mich sieht da eine Kompatibilitätszusage, insbesondere im Enterprise-Markt des Epycs, anders aus.
AMD kann die Boardhersteller wohl kaum zwingen, sondern nur von seiner Seite diese Kompatibilität ermöglichen, oder eben nicht, wie sie es bei TR gemacht haben.

Aber warten wir es ab, ich würde mich wie gesagt nicht wundern, wenn AMD diesmal keine Aussage darüber machen wird wie lange AM5 aktuell bleiben soll und damit ebenfalls auf eine kürzeren Rythmus von 2 Generationen geht, wobei es durch die getrennten APU Linie dann rechnerisch auch leicht 4 werden können, wenn man diese als eigene Generationen zählt, was dann sicher manche hier im Forum machen werden.
 
Intel wird nicht wieder der zweite sein wollen, so wie sie es bei PCIe 4.0 waren und während AMD und seine Fanboys dies ausgeschlachtet haben, kommt jetzt, von der Ecke der Hinweis PCie 5.0 wäre für Consumer überflüssig.
Es kommt immer nur von deiner Ecke, du und dein Fanboy-Leben. Auch dieser eine User, der die HWL Redaktion als AMD Fanboys bezeichnet, ja genau, Holt heißt der. Der konnte auch über jedes noch so bedeutungsloses Detail schwärmen, dass wohl selbst Intel rot werden würde.

Na hoffentlich startet mein PC noch. Nicht das meine SATA SSD plötzlich 16 sec, anstatt 15 sec beim Hochfahren braucht. Wenn Intel seinen Murks-Lake, aber immerhin mit PCI-E 5.0 liefert, wird es wieder lustig :banana:
 
Wann sagen wir Holt, dass AlderLake vermutlich nur im Server AVX512 bekommt und im Desktop wieder auf AVX2 runterfährt? :fresse:

Er war doch dieser AVX512-Junkie - oder war das fdsonne? ;)
 
AVX512 hat doch eh begrenzten Nutzen, weil der Takt so weit zurückgeht, das die entsprechende Software es sehr extrem nutzen muss... Sonst ist man bei gemischten Instruktionen hinterher effektiv langsamer. Ich meine mich an einen Post der Cinebench Entwickler zu erinnern, das dort AVX2 nützlich war, AVX512 aber eben aus diesem Grund nicht wirklich.
 
Ich meine mich an einen Post der Cinebench Entwickler zu erinnern, das dort AVX2 nützlich war, AVX512 aber eben aus diesem Grund nicht wirklich.
Das ist ja auch eine Frage der Fertigungstechnologie und wie intensiv man AVX512 bei der Anwendung nutzen kann, wobei letzteres eben eine Frage der Optimierung ist, die wohl am Besten immer noch per Hand gemacht werden sollte. Nur gibt es eben nicht viele Leute die dies wirklich können und wenn man sich die Ergebnisse von Cinebench ansieht, dann ist selbst die AVX2 Nutzung/Optimierung da nicht gerade besonders gut gelungen. Dabei würde ich eigentlich erwarten, dass so eine Anwendung wie Rendering davor besser profitieren könnte, denn da laufen die gleichen Befehle auf sehr vielen Daten und dies offenbar über sehr kleine Datenvolumen, da die RAM Bandbreite ja auch kaum Einfluss auf den Score hat und RAM Bandbeite ist bei vielen AVX512 Anwendung ein echtes Problem, eben weil sehr viele Daten auf einmal verarbeitet werden können und wenn diese nicht im Cache stehen, eben aus dem RAM gelesen werden müssen, was eine hohe RAM Bandbreite erfordert um nicht zum Flaschenhals zu werden.

AVX512 ist auf jeden Fall für einige Anwendungen interessant und wenn es intensiv genutzt wird, bietet es einen gewaltigen Performancevorteil, aber es wird zumindest bisher noch von wenigen Anwendung wirklich so intensiv genutzt, dass auch der Taktnachteil mehr als kompensiert wird, erst recht wenn es um Consumeranwendungen geht. Man wird sehen wie sich das entwickelt, aber solche Befehlserweiterungen sind ein Weg um die IPC zu steigern und AMD hat seine AES-INI seit Zen so gut hinbekommen, dass sie in den entsprechenden Benchmarks entsprechend gut abschneiden. Software hängt aber den Möglichkeiten der Hardware immer einige Jahre hinterher und nicht jeder HW Ansatz ist am Ende auch erfolgreich, wie 3DNow! ja gezeigt hat.
 
Kluge Köpfe sprechen über Ideen, mittelmäßige über Vorgänge und schwache über Menschen.
- Unbekannt

Mehr gibt's dazu nicht zu sagen.

AVX512 ist auf jeden Fall für einige Anwendungen interessant und wenn es intensiv genutzt wird, bietet es einen gewaltigen Performancevorteil,
Damit fasst du es sehr gut zusammen. Das von mir beispielhaft genannte Cinebench kann bzw. tut das eben nicht. Deshalb nützt dort AVX512 wohl nicht ausreichend viel. Wenn AVX512 ordentlich genutzt wird, dann ist es trotz des Taktverlusts klar im Vorteil. Sonst aber eben nicht... Aber das ist bei sehr speziellen Instruktionen ja auch zu erwarten. Umso spezieller es wird, desto weniger allgemein kann man es einsetzen. Von daher keine Überraschung.
 
AVX512 hat doch eh begrenzten Nutzen, weil der Takt so weit zurückgeht, das die entsprechende Software es sehr extrem nutzen muss... Sonst ist man bei gemischten Instruktionen hinterher effektiv langsamer. Ich meine mich an einen Post der Cinebench Entwickler zu erinnern, das dort AVX2 nützlich war, AVX512 aber eben aus diesem Grund nicht wirklich.
Jupp, nur wollte Intel AVX512 so weit pushen, dass es jetzt sogar aktuelle Notebook-CPUs bekommen. Siehe TigerLake.

Da scheint wohl Intel selbst zu merken, dass es im Consumer-Bereich wurscht ist und ziemlich viele Nachteile mit sich bringt. Aber Hauptsache hier gibt es einige, die das ganze glorifizieren.

Es gibt einige Games, die von AVX profitieren. Aber ob da AVX2 oder AVX512 von der CPU unterstützt wird, macht am Ende keine FPS aus.
 
Das mag (auch) ein Henne-Ei Problem sein. Gibt's kein AVX512 im Mainstream, dann gibts auch keine Spiele mit AVX512 Support im Mainstream. Immerhin muss man einen Rechenpfad mit AVX512 und einen ohne pflegen und optimieren. Wenn da massig Stunden reingehen und der Nutzen eher begrenzt ist, dann kann ich jeden Entwickler verstehen, der lieber bei AVX2 bleibt.
 
Vielleicht ist mit dem Tweet ja auch nur gemeint daß die Plattform des neuen Sockels mit den 600er Chipsätzen PCI-E 4.0 bieten wird, also der Chipsatz. Die CPUs der ersten Generation für AM5 haben vielleicht auch "nur" PCI-E 4.0 und spätere bieten dann 5.0 von den CPU Lanes, sofern es das Board unterstützt dann eben auf den GPU Slot bzw. M.2 Slot die von der CPU angebunden sind.
Es sei denn AMD will das nicht und schiebt dem einen Riegel vor (siehe 400er Chipsätze und Zen3 CPUs).

Je nachdem wie lange AM5 am Markt bleibt wird schon rechtzeitig Support für PCI-E 5.0 kommen.

Über Sinn und Nutzbarkeit lässt sich natürlich immer streiten, Ich persönlich denke es liegt hier an den Herstellern der Komponenten ob und wann die Geräte dafür bieten. Macht keinen Sinn PCI-E 5.0 zu haben aber nichts daß es nutzt. Klar werden die GPUs neben den NVMe SSDs die ersten sein die es supporten, aber wenn man kaum einen Nutzen davon hat ist es kein Argument das für eine Pro/Contra Entscheidung bei der Anschaffung sprechen sollte.

Für Server, Workstations, Supercomputer etc. ist das natürlich sinnvoller, kein Thema.
Bei Laptops wird das wohl auch nur genutzt und relevant sofern es (wie in den News erwähnt) mit Stromsparen konform ist. Sprich die Komponenten (CPU, Chipsatz, SSD, GPU ...) deswegen nicht mehr Leistung verbraten als wenn sie PCI-E 4.0 oder 3.0 hätten.

...
Wobei die Frage ist, ob AMD wieder so lange am AM5 Sockel festhalten wird wie an AM4. Damals mussten sie dies machen, um überhaupt wieder einen Fuß in die Tür zu bekommen und haben es daher für AM4 und EYPC versprochen, nicht aber für TR der ja erst später gekommen ist und dessen Sockel nach 2 Generation auch ersetzt wurde, wobei der eigentliche Sockel physikalisch sogar identisch und praktisch auch mit EYPC identisch ist. Schon bei Zen2 hat dies zu Problemen geführt und Kompromisse erzwungen und da AMD und weit besser aufgestellt ist, würde es mich nicht wundern, wenn sie künftig den Sockel auch öfter wechseln würden, einfach weil dies technisch weniger Probleme bedeutet.

Außerem sehe ich diese regelmäßigen Plattformwechsel auch nicht wirklich als so ein Problem an, die meisten machen entweder nur alle paar bis viele Jahre ein Systemupgrade und dann ist sowieso ein neues Board fällig oder nehmen jeder Generation mit und wollen dann auch das neuste Mainboard mit den neusten Features. Schau Dir an wie viele hier im Forum ihre AM4 Boards mit 300er Chipsatz beim Wechsel auf Zen+ gleich gegen eines mit 400er Chipsatz getauscht haben, nur beim Zen2 haben viele vor dem Preis und dem Lüfter auf X570 Boards zurückgeschreckt und die B550 (und A520) ließen ja lange auf sich warten. ...
Das ist wieder die Sache ... schön daß AMD den Sockel AM4 so lange supported, allerdings hat das wie man gesehen hat ja sowieso nicht funktioniert alle CPUs auf allen Sockel AM4 Boards zu nutzen. Bei den 300er Chipsätzen war/ist sowieso nur bis zur 3000er Serie (Zen2) möglich, und dann auch nicht bei allen Modellen bzw. teils auch nur wenn man den Support für die 1000er Serie verliert (weil die BIOS Chips zu klein sind). Die 500er Serie unterstützt sowieso keine 1000er und 2000er CPUs mehr usw.

Ist ähnlich wie damals beim Intel Sockel 775. Da konnte man bei den letzten Boards auch uralte Netburst Celeron und Pentium 4 CPUs drauf nutzen, sowie spätere Pentium Ds (zwei Pentium 4 Dies auf einem Package) sowie dann das komplette Core2 LineUp inkl. Quad Cores.
War jetzt Sockel 775 deshalb so toll? Wäre doch nicht so schlimm gewesen dazwischen einen neuen Sockel zu bringen. Man wollte doch neue Features wie schnelleren DDR2 oder gar DDR3 RAM, PCI-E 2.0, neue SATA II Standards etc.
 
Wenn AMD klug ist und sich das etwas kundenfreundlichere Image behalten möchte, dann sollten sie schon die an der CPU hängenden Slots für PCIe5.0 vorbereiten, wie Intel das bei S1200 für PCIe4.0 gemacht hat. Die Hardware dazu sollte vorhanden sein, wenn Intel zeitgleich schon mit PCIe5.0 (sicher auch nur an der CPU) startet. Wäre schon ein deutlicher Pluspunkt, wenn das beim AM5-Start zugesichert ist.

Ich bin sehr gespannt, da ich mir im Herbst bzw. zu Weihnachten dann nach 8 Jahren wieder ein komplett neues System gönnen werde. Meinem aktuellen vertrau ich nicht mehr so, seit Pins am Sockel verbogen wurden (toll, dass AMD nun auch auf LGA wechselt *hust*), gerade wieder starke Bootprobleme gehabt.

Etwas merkwürdig finde ich es aber schon, wenn AMD jetzt noch mit einer Silent-Revision des X570 um die Ecke kommt. Je nachde, wie viele neue Boards kommen und wie die ausgestattet sind, hätte das AM4 und X570 deutlich attraktiver gemacht, wenn es mit den Ryzen 5000 und nicht so spät gekommen wäre. Ist ja schon lächerlich, dass die B550er meist besser ausgestattet sind als die X570, vor allem was 2.5GbE und USB3.2x2 angeht.
Vielleicht kommt ja im Herbst garnicht AM5 sondern Zen3+ mit X570S? Oder X670 ist =X570S.

Mit PCIe5.0 geht es mir nun auch etwas schnell, PCIe2.0 ist mit X38 auf S775 im September 2007 für Consumer gestartet, PCIe3.0 mit Sandy Bridge-E aus S2011 im November 2011, also vier Jahre später, PCIe4.0 mit Ryzen3000 im Juli 2019, satte acht Jahre später, und nun soll PCIe5.0 schon zwei Jahre später kommen?
 
Zuletzt bearbeitet:
Ist ähnlich wie damals beim Intel Sockel 775. Da konnte man bei den letzten Boards auch uralte Netburst Celeron und Pentium 4 CPUs drauf nutzen, sowie spätere Pentium Ds (zwei Pentium 4 Dies auf einem Package) sowie dann das komplette Core2 LineUp inkl. Quad Cores.
War jetzt Sockel 775 deshalb so toll? Wäre doch nicht so schlimm gewesen dazwischen einen neuen Sockel zu bringen. Man wollte doch neue Features wie schnelleren DDR2 oder gar DDR3 RAM, PCI-E 2.0, neue SATA II Standards etc.
Das sind zwei paar Schuhe. S775 hatte auch Einschränkungen. P35 bspw. hatte doch offiziell keinen Netburst Support. Das ist aber ne andere Nummer, weil das was supportet ist und das was technisch durchführbar ist, wenn alle Seiten "mitspielen" und das auch nicht einseitig verboten wird (PCIe 4.0 auf alten AM4 Boards, irgendwelche CPUs auf alte Sockel bei Intel S11xx irgendwas usw.), kann man so einfach nicht direkt pauschalisieren.
Der Blick in der Vergangenheit ist leider dazu oft nicht ganz korrekt, wenn man die Details betrachtet. Du konntest bei S775 nämlich selten wirklich aufrüsten. Neue CPU = neues Board, war eher die Regel. Deswegen ist/war S775 auch nicht sonderlich toll.

Über Sinn und Nutzbarkeit lässt sich natürlich immer streiten, Ich persönlich denke es liegt hier an den Herstellern der Komponenten ob und wann die Geräte dafür bieten. Macht keinen Sinn PCI-E 5.0 zu haben aber nichts daß es nutzt. Klar werden die GPUs neben den NVMe SSDs die ersten sein die es supporten, aber wenn man kaum einen Nutzen davon hat ist es kein Argument das für eine Pro/Contra Entscheidung bei der Anschaffung sprechen sollte.
Kann man so oder so sehen... Ich hab ein PCIe 4.0 fähiges System und nutze 2.0 und 3.0 Geräte. Das läuft doch deswegen trotzdem... Das eine bedingt nicht automatisch das andere. Es ist doch lediglich ein Angebot. Wenn sie es bei AMD nicht liefern im ersten Anlauf, dann liefern sie eben PCIe 5.0 nicht - wenn es Intel liefert, dann ist das ebenso. Davon geht in keine der beiden Richtungen die Welt unter. Zumindest abseits der Markenaffinitäten ;)
Je nach Lebensdauer des Sockels kann das halt auf Dauer dann schon ein Pluspunkt sein/werden, ob das supportet ist oder nicht. Aber das ist soweit in der Zukunft, da kann sonstwas passieren. Die viel interessante Frage ist, ob sie auf der CPU Seite so ne Art S939 > AM2 Sidegrade einschieben oder ob das wieder 10-20% pro Takt Performance drauf gibt. Um so kleiner die Sprünge werden, desto mehr Sinn ergibt es, Standards neuester Art zu supporten, weil der Kunde wahrscheinlich die System auch länger nutzen kann und auch wird.
DDR5 wird im Zuge der Fehlerkorrekturtechniken für die Speicherchips definitiv ein Pluspunkt, der zu einem Wechsel anregen könnte. Aber gerade auch AMD ist ja mit dem IO Die + Compute Die Ansatz zumindest auf dem Papier einfach in der Lage, nen geänderten IO Die nachzuschieben - und dann gibts die gliechen CPUs mit nem neuen IO Die, vllt gepaart mit neuen Board Revisionen und PCIe 5.0 ist quasi ohne Aufwand möglich.
Das mag (auch) ein Henne-Ei Problem sein. Gibt's kein AVX512 im Mainstream, dann gibts auch keine Spiele mit AVX512 Support im Mainstream. Immerhin muss man einen Rechenpfad mit AVX512 und einen ohne pflegen und optimieren. Wenn da massig Stunden reingehen und der Nutzen eher begrenzt ist, dann kann ich jeden Entwickler verstehen, der lieber bei AVX2 bleibt.
Find das immer bisschen putzig, wie man da über die Aufwände spricht... Das wird lange nicht so heiß gegessen als es gelebt wird.
Am Ende ist das eine Frage der Basis. Entwickler entwickeln nicht x-fach. Es gibt ne Basis. Und sollte die mal sagen wir AVX2 only bedeuten, dann wird das dann einfach mit Flags in alternative Renderpfade geschubst, wie heute mit SSE Themen auch schon der Fall. Das ist weniger eine "wir bauen das genau so und deswegen ist das jetzt eben schnell" Thematik. Da wartet auch keiner drauf, dass da jetzt unbedingt AVX512 in die CPUs rein kommt, damit die endlich anfangen können... Sowas denken nur Träumer ;) Programmierer sind eher pragmatisch.

Btw. ist das auch gar nicht so einfach dort Fortschritte zu erreichen. Denn es gibt immer Leute mit alten Systemen, die beschweren sich dann Lautstark wenns gar nicht läuft. Stichwort SSE4.irgendwas auf alten vor Bulldozer AMD CPUs. Nur sind das schon 10 bis teils 12 Jahre alte CPUs - und man beschwert sich immernoch diese Zeit später. Wie soll das denn mal bei AVX512 ausschauen? Da reden wir dann über 2050 oder so :fresse2:
 
etwas mehr FPS bei kleinen GPUs mit wenig VRAM (á la RX5500 4GB)
Dabei unterschlägst du aber, dass AMD die RX5500 künstlich auf 8 Lanes beschnitten hat...

AVX512 hat doch eh begrenzten Nutzen, weil der Takt so weit zurückgeht, das die entsprechende Software es sehr extrem nutzen muss... Sonst ist man bei gemischten Instruktionen hinterher effektiv langsamer. Ich meine mich an einen Post der Cinebench Entwickler zu erinnern, das dort AVX2 nützlich war, AVX512 aber eben aus diesem Grund nicht wirklich.
Da bist du aber auf einem alten Stand. Der niedrige AVX-512 Takt war bei SKL noch ein Problem, aber seit ICL nicht mehr. https://travisdowns.github.io/blog/2020/08/19/icl-avx512-freq.html
 
Dabei unterschlägst du aber, dass AMD die RX5500 künstlich auf 8 Lanes beschnitten hat...
Weil das nix damit zu tun hat. Die ebenfalls auf 8 Lanes beschnittene RX5500 mit 8GB profitiert wie fast alle anderen Karten so gut wie gar nicht von PCIe4.0


Es geht also tatsächlich um den RAM - der muss möglichst schnell gefüllt und geleert werden können, sonst hängt die 4GB-Karte im RAM-Limit. Bei der 6GB "großen" 5600XT sieht man das gleiche Spiel. 2GB zu wenig VRAM sind heute einfach shitty.
 
Update in der News: https://www.hardwareluxx.de/index.p...dr5-aber-kein-pcie-5-0-mitbringen-update.html

Ein weiterer Tweet soll nun das mögliche Layout des LGA-Pads zeigen.

(...)

Außerdem enthalten sind Informationen zur auf der Zen-4-Architektur basierenden nächsten Ryzen-Generation, die mit dem Codenamen Raphael versehen worden ist. Diese wird den Sockel-AM5 verwenden und auf DDR5 setzen. Der PCI-Express-Standard verbleibt zunächst bei 4.0, der Prozessor soll aber vier zusätzliche Lanes bieten. Bisher sind es 24 (16 oder 8+8 für die PCI-Express-Slots plus vier für eine NVMe-SSD und weitere vier für die Anbindung des Chipsatzes). Mit Raphael sollen es dann 28 sein.

Was die Themal Design Power betrifft soll die maximale Leistungsaufnahme von derzeit 105 auf 120 W ansteigen. Ein Sondermodell könnte es gar auf 170 W bringen – wenn diese Informationen denn zutreffend sind.
 
Dabei unterschlägst du aber, dass AMD die RX5500 künstlich auf 8 Lanes beschnitten hat...
Die 5500-6600xt sind ja auch für Laptops ausgelegt und nicht für Desktop PCs und laufen selbst mit PCIe 3 nicht ins Limit.
 
Weil das nix damit zu tun hat. Die ebenfalls auf 8 Lanes beschnittene RX5500 mit 8GB profitiert wie fast alle anderen Karten so gut wie gar nicht von PCIe4.0
[...]
Es geht also tatsächlich um den RAM - der muss möglichst schnell gefüllt und geleert werden können, sonst hängt die 4GB-Karte im RAM-Limit. Bei der 6GB "großen" 5600XT sieht man das gleiche Spiel. 2GB zu wenig VRAM sind heute einfach shitty.
Natürlich hat das was damit zu tun. Die RX5500 4GB reagiert sehr viel deutlicher darauf, ob sie PCIe4.0 nutzen kann oder nicht, weil sie nur dann die effektive Bandbreite zum RAM hat wie die höheren Modelle. Da 8GB heutzutage noch genug sind, ist dass bei der RX5500 8GB und der RX5700(XT) irrelevant, bei der RX5600XT mit 6GB sieht man auch einen kleinen Effekt, weil sie zwar ebenfalls auf den RAM zugreifen muss, aber mit grundsätzlich doppelter Bandbreite.

Das heisst übertragen, dass man irgendwann auch bei 8GB-Karten den Effekt von PCIe4.0 deutlich merkt, wenn man sie solange benutzt, dass 8GB öfter knapp werden. Das ist aber ungewöhnlich, weil Menschen, die aktuell Boards und Karten mit PCIe4.0 und 8GB kaufen eher häufiger komplett das System wechseln.
 
Der niedrige AVX-512 Takt war bei SKL noch ein Problem, aber seit ICL nicht mehr. https://travisdowns.github.io/blog/2020/08/19/icl-avx512-freq.html
Der Link zeigt aber nur einen Teil der Wahrheit, das ist dort doch sogar extra erwähnt:

Now, this adjustment of expectations comes with an important caveat: license-based downclocking is only one source of downclocking. It is also possible to hit power, thermal or current limits. Some configurations may only be able to run wide SIMD instructions on all cores for a short period of time before exceeding running power limits
Also ja, Intel hat mit Icelake den automatischen AVX-Offset, der immer greift abgeschafft bzw. verringert. Dennoch kann eine Cpu ins Power, Strom oder thermische Limit laufen und dann dennoch heruntertakten. Das heisst auch, das das "Problem" keineswegs gelöst ist. Also zumindest nicht, wenn die Cpu sich halbwegs an die Powerlimits hält.

Der einzige Unterschied der sich nun ergibt ist, dass die Cpu nicht sofort runtertaktet, falls nur ein klein bisschen AVX512 genutzt wird. Bisher bremste das sofort massiv ein, ohne das Powerlimit o.Ä. ein Problem waren, nun darf die Cpu weiter höher takten bis sie in eins der anderen Limits läuft.
 
Der einzige Unterschied der sich nun ergibt ist, dass die Cpu nicht sofort runtertaktet, falls nur ein klein bisschen AVX512 genutzt wird. Bisher bremste das sofort massiv ein, ohne das Powerlimit o.Ä. ein Problem waren, nun darf die Cpu weiter höher takten bis sie in eins der anderen Limits läuft.
Das ist doch aber das Standardverhalten so ziemlich aller aktueller CPUs am Markt?
Betrifft AMD und Intel gleichermaßen. Ist zum Glück auch keine ICL Eigenart. Sondern das ist mit der 9000er Reihe im Mainstream schon eingeführt wurden. Der 9900k hat auch keinen negativen AVX Offset mehr ;)
Die 8000er hatten meine ich noch. Die 9000er HEDT haben es btw. auch noch, bzw. allgemein bei HEDT und Servern ist das noch aktiv.

Die Drossel nach Last/Temperatur/Verbrauch ist ja allgemein recht sinnig. Zumindest wenn überhaupt gedrosselt wird. Der AVX negativ Offset ist aber ultra nervig, weil du dich alt gar nicht gegen wehren kannst. Im Serverbereich ist/war das auch ein recht klarer Kritikpunkt an Skylake based Xeons.
 
  • Danke
Reaktionen: Tzk
Mh, 170W ... Finde ich nicht so pralle.
Die 105 TDP Schiene hätte mir besser gefallen.
AMD ist doch nicht im Zugzwang die TDP erhöhen zu müssen. Bisher war gerade das doch ein großer Vorteil ggü Intel.
 
@fdsonne
Ich hatte den Artikel so verstanden, das bisherige Cpus (SKL-X) ohne Temp/Power/Current Limit sofort runtergetaktet haben, wenn AVX2/512 anlag. Zumindest scheint das dort "license-based downclocking" zu heissen. Und das fällt dann mit ICL-X weg. Die Temp/Power/Current Limits bleiben natürlich erhalten, wie gehabt. Oder bin ich da auf dem Holzweg?!
 
Zuletzt bearbeitet:
Mh, 170W ... Finde ich nicht so pralle.
Die 105 TDP Schiene hätte mir besser gefallen.
AMD ist doch nicht im Zugzwang die TDP erhöhen zu müssen. Bisher war gerade das doch ein großer Vorteil ggü Intel.
105W TDP = 142W real ;)
Was die 170 jetzt genau bedeuten müsste man mal abwarten. 125W x 1,4 = wären auch 175W. Der gleiche Faktor ergibt 147W bisher. Möglich, dass das also einfach nur die entsprechende Zahl an maximal zugelassener Leistungsaufnahme für den Sockel ist. Möglich, dass das nur ne ausgedacht Zahl ist, weil man das gleiche Verhältnis wie bisher ansetzt. Möglich, dass was komplett anderes gilt. Würde ich noch nicht über bewerten.

Btw. 170W lassen sich mit ner AIO bei Zen3 noch relativ entspannt wegkühlen - ohne großen Aufwand. Ob das zu nem größeren Problem wird, müsste man dann mal schauen. Kleinere Die Size wäre halt eher kontraproduktiv.
@fdsonne
Ich hatte den Artikel so verstanden, das bisherige Cpus (SKL-X) ohne Temp/Power/Current Limit sofort runtergetaktet haben, wenn AVX2/512 anlag. Zumindest scheint das dort "license-based downclocking" zu heissen. Und das fällt dann mit ICL-X weg. Die Temp/Power/Current Limits bleiben natürlich erhalten, wie gehabt. Oder bin ich da auf dem Holzweg?!
Bei HEDT ja - bzw. bei Servern.
Mainstream 9000/10000/11000er Desktop CPUs haben aber auch kein negatives AVX Offset. Wobei ich mir nicht 100% sicher bin, ob das auch für AVX2 gilt. Ich meine aber ja. Hab hier grad keinen Prozessor zum Gegenprüfen. Die Server Dies hatten ja am Ende für alle AVX Versionen verschiedene Offsethöhen. Und ohne AVX halt vollen Takt.

EDIT: du kannst nen negativen Offset aber selbst eindrehen, wenn du möchtest. Viele haben das auch gemacht, weil Allcore 5GHz beim 9900KS bspw. halt ohne negativem Offset bei AVX Volllast ggf. zu nem Problem wird. :fresse:
 
  • Danke
Reaktionen: Tzk
125W x 1,4 = wären auch 175W.
Denke das AMD sich selbst Spielraum einräumt. Ob man dann ne Cpu mit 125W TDP und somit ~175 Spitzenverbrauch bringt, das sehen wir dann 2022 :d

Zum Rest: Jop, so hab ich mir das gedacht. Da sind wir uns einig ;)
 
4 Lanes mehr von der CPU klingt auch interessant!
Da kann man sich in vielen Fällen ja den PCH direkt sparen.
 
Zuletzt bearbeitet:
Natürlich hat das was damit zu tun. Die RX5500 4GB reagiert sehr viel deutlicher darauf, ob sie PCIe4.0 nutzen kann oder nicht, weil sie nur dann die effektive Bandbreite zum RAM hat wie die höheren Modelle. Da 8GB heutzutage noch genug sind, ist dass bei der RX5500 8GB und der RX5700(XT) irrelevant, bei der RX5600XT mit 6GB sieht man auch einen kleinen Effekt, weil sie zwar ebenfalls auf den RAM zugreifen muss, aber mit grundsätzlich doppelter Bandbreite.
Bitte lies den CB-Test. Ich zitiere:

  • Einen Leistungsverlust gibt es aber immer noch. Mehr Bandbreite über den PCIe-Slot beziehungsweise PCIe 4.0 allgemein hilft zwar bei Speichermangel, kann einen größeren Speicher mit noch deutlich höherer Bandbreite aber nicht ersetzen.
Das bedeutet, dass die Lanes HELFEN, das Problem aber nicht beheben.

Deswegen schrieb ich, dass sich PCIe4.0 bei Karten mit kleinem VRAM lohnt, weil man so den VRAM-Mangel etwas ausgleichen kann. Volle 16 Lanes würden das Problem aber nicht weiter lindern oder gar beheben. 16 volle Lanes wären dann nur ein Tropfen auf den heißen Stein.

Schau dir einfach eine GTX970 bei 8 Lanes und 16 Lanes an. Du hast IMMER die berühmten Mikro-Ruckler. Die Lanes lösen das Problem nicht.
 
Der einzige Unterschied der sich nun ergibt ist, dass die Cpu nicht sofort runtertaktet, falls nur ein klein bisschen AVX512 genutzt wird. Bisher bremste das sofort massiv ein, ohne das Powerlimit o.Ä. ein Problem waren, nun darf die Cpu weiter höher takten bis sie in eins der anderen Limits läuft.
Dafür ist nur die BIOS Einstellung verantwortlich, genauer der dort eingestellt AVX Offset und während man den bei Servern vielleicht nicht anpassen kann, ist dies bei den Desktop Boards eigentlich immer möglich und im Default haben die meist keine AVX Offsets eingestellt. Das ist ja auch der Grund warum die Leistungsaufnahme bei Prime95, welches ja AVX2 und auch AVX512 intensiv nutzen kann, so durch die Decke geht, zumal ja meist auch die Power Limits im Default extrem hoch eingestellt sind. Damit begrenzt schon heute nicht selten die Temperatur dann die maximale Leistungsaufnahme auf Desktopsystemen, wenn man das Power Limit nicht an die Möglichkeiten der Kühlung angepasst hat und die CPU taktet dann auch bei AVX512 Last erst runter, wenn sie zu warm wird.

Zumindest im Desktop und der dürfte hier für die meisten relevant sein, kann man also über das BIOS selbst bestimmen ob die CPU bei AVX2/AVX512 Lasten sofort runtertakten oder eben erst wenn sie ans Power Limit kommt oder erst wenn sie ans Temperaturlimit kommt und der Default sind die Einstellungen (kein AVX Offset und hohe Powerlimits) meist für letzteres voreingestellt.
 
4 Lanes mehr von der CPU klingt auch interessant!
Da kann man sich in vielen Fällen ja den PCH direkt sparen.
Da sind wir wieder bei der Idee des X300 "Chipsatz". Letztendlich ist das Teil nicht auf normalen Consumerboards gelandet, sondern nur z.B. im Asrock Deskmini. Aber ja, mit 2x NVMe SSD und 16 Lanes für die Gpu lässt sich schon ein schönes chipsatzloses System basteln. Mir würde das bereits reichen, wenn noch 2x SATA, USB und Wifi verfügbar ist.
 
@Tzk Bei 16x GPU und zwei mal 2x NVME hättest du ja nochmal 4 Lanes über. :)
 
  • Danke
Reaktionen: Tzk
Jau, die hatte ich in Gedanken für den erwähnten Rest eingeplant, das aber nicht dazu geschrieben... :d
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh