Ampere-Details: Error Detection and Replay vereinfacht GDDR6X-Overclocking

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.375
geforce-rtx-3080.jpg
Nicht am morgigen Montag, sondern am Mittwoch um 15:00 Uhr werdet ihr unseren gewohnt ausführlichen Test zur GeForce RTX 3080 Founders Edition lesen können, in dem wir auf alle Details der neuen Generation eingehen werden. Die Details der Ampere-Architektur, der Kühlung und des neuen 12-Pin-Anschluss haben wir uns bereits genauer angeschaut.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Was ja auch nicht neu wäre.
 
JA ich hoffe auch das Error Count auslesbar ist. Wie macht sich den sonst zu hohes OC bemerkbar? wird man langsamer durch die Korrekturen?
 
@Don
Deine Erklärung habe ich gelesen, danke (y)
Nach dem simplem Schema des Bildes sieht es so aus, als wäre diese Fehlerkorrektur für diejenigen die durch Speicherübertaktung mehr Leistung wollen, ein Bärendienst.
"Anstatt der Darstellung von Artefakten werden die Übertragungsfehler erkannt und der Speichercontroller versucht diese zu kompensieren."
1) Die Artefakte sind ein eindeutiges bildliches Signal dass man es mit der Übertaktung übertrieben hat. Fällt diese weg, erkennt man es nun woran?
2) Der Speichercontroller versucht diese zu kompensieren. Dies kostet dann Leistung? Und wie genau wird dies dann mitgeteilt, man habe es mit der Speicherübertaktung übertrieben?

Nach dem Bild "OLD", tritt zwar ein Absturz früher ein, man hat aber keinen/kaum einen Leistungsabfall bevor dieses oder Artefakte eintreten.
Bei "NEW" kommt der Absturz zwar später, aber dafür zeigt der Graph einen Leistungsabfall.
Den einzigen Vorteil diesbezüglich sehe ich, dass erst nachdem der Leistungsabfall eingetreten ist, kurz vor dem Absturz, die Rate der Kompensierung stark ansteigt.
 
Man kann auch wirklich alles als OC Feature verkaufen. Ich wage einfach Mal die Behauptung dass man die Geschichte wegen der geringeren Signalintegrität durch PAM4 verbauen musste damit es beim Normalbetrieb nicht schon zu Artefakten kommt.
 
@Hyrasch
Auf dem NEW Graph siehst du ja dass die Leistung erst noch ein Stück ansteigt bevor sie abfällt. Wenn NV's Folien realistsiche Bedingungen darstellen gibt es eben einen Bereich wo der Taktvorteil mehr Leistung bringt, als die Korekturen Leistung "aufbrauchen".
Man zögert den Punkt wo man mit Übertaktung übertrieben hat, somit hinaus.
Ob damit wirklich mehr drin ist, wird man natürlich in realen Tests sehen müssen. Und ja, die Fehlerrate auslesen sollte man können. Am Besten noch mit einer Information darüber ab welchem Niveau es zu den leistungseinbußen kommt.
 
JA ich hoffe auch das Error Count auslesbar ist. Wie macht sich den sonst zu hohes OC bemerkbar? wird man langsamer durch die Korrekturen?

Wenn ich das richtig verstanden habe, sollte man bis zu einer gewissen Menge an Fehlern sogar noch schneller werden. Langsamer wird es wohl erst, wenn die Menge an Fehlern mehr Bandbreite frisst, als man hinzugewonnen hat.

Für ein wirklich stabiles OC ohne eventuelle Spätfolgen, müsste man das wirklich auslesen können. Sonst sehe ich das eher als hinderlich für OC an.
 
Okay. Dann gibt es keine visuellen Signale (Artefakte), aber auch mehr Leistung.
Den Punkt of diminishing return (oder die Zone) und Leitungsabfall muss man dann mühsam mit Benchmarks selber erforschen👌
Geschichte wegen der geringeren Signalintegrität durch PAM4 verbauen
Könnte sein. Werden jedenfalls wissen was sie tun und eine Verschlechterung wird es wohl nicht sein (y)
 
Ich erinnere mich noch daran, wie ich meine erste GTX 1070 zurückschicken musste, weil ich gelegentliche Bildfehler hatte. Mit der Error Correction hätte ich dann einfach weniger Performance gehabt. Finde ich jetzt nicht so berauschend.
 
Hätte Pascal nicht schon sowas?! Da ging auch mit mehr Takt die Leistung runter. Ich sehe das jetzt nicht so skeptisch wie einige hier.
 
Mehr Speicherdatenrate sollte bei Ampere auch noch weniger bringen als mit Turing. Datenrate ist schon bei 3080 und 3090 für 4k uhd hoch genug.
Für 1440p sind die Karten ja eh nichts.

Jop. Hatte Pascal auch schon.
Hat aber nicht so wirklich funktioniert. Hat bei meiner gtx 1080 ti jedenfalls total genervt.
100 MHz mehr auf den Speicher brachten minimal mehr Leistung. 200 - 400 MHz wieder gar nichts mehr. Ab 400 - 500 MHz wieder einen kleinen Zuwachs.
 
500 - 600 Mhz gingen bei Pascal auch. Den meisten Mehrwert hat man dort in 4K. Aber auch nicht viel. Vielleicht 2 - 3 %. Seltsamerweise ging es bei der 1080 Ti besser als bei der 1070 bei der ich sogar Samsung-RAM hatte.
 
Die Leute machen sich sowieso nur verrückt und denken das die wirklich ernsthaft doppelte Leistung rausholen werden bei 1080p und 1440p ..... die träumen alle.

Die 3000er Serie ist eine reine 4K Karte alles andere wird sich im Rahmen halten zu der RTX2080Ti.

Gibt ja auch schon Benchmarks mit 1080p und 1440p und 2160p und da sieht man auch das 4K vorne ist und der Rest schläft ein. Wie bei 1080ti zu 2080ti

Eines der Gründe ist die CPU die Bottleneckt einfach zu hart. Nvidia hat nicht umsonst nur 4K Benchmarks gezeigt, damit die Leute ausflippen .... wer hat hier schon ein 4K Monitor? Die Masse ganz sicher nicht, die werden niemals auf mindestens 144HZ verzichten. Ein 4K 144HZ kannste vergessen zu kaufen .... zahlt Heute keiner. Nvidia zeigt eigentlich nur die Zukunft mit der 3000er Serie.

Wer schlau ist kauft sich eine RTX2080Ti nachdem die auf 300 - 350€ gedroppt ist, eventuell eine RTX3070. Alles andere heißt warten auf neue CPU´s um FullHD und WQHD voll zu befeuern.
 
500 - 600 Mhz gingen bei Pascal auch. Den meisten Mehrwert hat man dort in 4K. Aber auch nicht viel. Vielleicht 2 - 3 %. Seltsamerweise ging es bei der 1080 Ti besser als bei der 1070 bei der ich sogar Samsung-RAM hatte.
Schon die GTX 1080 hatte Microns GDDR5X-Speicher und die GTX 1070 nur normalen GDDR5.
Im Gegensatz zur 1080 kommt bei der GTX 1070 kein GDDDR5X-Videospeicher zum Einsatz. Stattdessen verfügt die Karte über 8,0 GByte GDDR5-VRAM.
ist doch klar das da mehr ging als bei deiner 1070
 
wer hat hier schon ein 4K Monitor? Die Masse ganz sicher nicht, die werden niemals auf mindestens 144HZ verzichten. Ein 4K 144HZ kannste vergessen zu kaufen .... zahlt Heute keiner. Nvidia zeigt eigentlich nur die Zukunft mit der 3000er Serie.
Man kann 4k auch als AA-Methode wunderbar nutzen, auch mit nem 1440p Monitor. Spart man sich den FXAA TAA SMAA Krempel.
 
Lass ihn doch. Es ist ja nicht so als ob man vorher nicht übertakten konnte.

4K habe ich tatsächlich, schon ewig. Darum brauche ich ja auch so ein Schlachtschiff. Ob die 2080 Ti auf 300 € fällt halte ich aber für fraglich. Die RTX 3070 wird (8 GB) vermutlich bei 600+ liegen, die 3080 liegt ja schon bei 900 für die guten Customs. Genau so habe ich es schon bei jener Karte prophezeit und so ist es auch eingetreten. Es kann gut sein dass die Preise am Ende dann mal bei 850 liegen werden, was immer noch deutlich mehr ist als vorher angenommen wurde. Die Leute die noch auf 1080p unterwegs sind können sich glücklich schätzen, denn dann reicht bereits eine 5700 XT oder ähnliches völlig. Andersrum braucht man für 4K keinen i9 mit 5,5 GHz, da reicht dann auch eine billige CPU.
 
Hätte Pascal nicht schon sowas?! Da ging auch mit mehr Takt die Leistung runter. Ich sehe das jetzt nicht so skeptisch wie einige hier.
Maxwell ebenso.
Entweder ist das nix neues oder es fehlt noch ne Info.
 
Lass ihn doch. Es ist ja nicht so als ob man vorher nicht übertakten konnte.

4K habe ich tatsächlich, schon ewig. Darum brauche ich ja auch so ein Schlachtschiff.

Das ist okay, also wenn du auf 60HZ spielen kannst und du damit glücklich bist passt das. Ich bin mir nicht sicher aber ich denke das sich der Markt jetzt sehr spalten wird zwischen 1080p und 1440p @ mindestens 144hz und 4K 60HZ

Je nachdem muss man seine Grafikkarte halt skalieren. Für 1080P würde ich Heute noch eine 1080Ti kaufen wenn man RTX verzichten kann. Ich kriege die 2080Ti nicht mal aufgelastet auf einem 3700X @ 4.4Ghz bei Battlefield V gammelt es im Multiplayer bei 85% rum .... und hat dabei AVG 160FPS.

Ich bin eher auf die neuen CPUs gespannt die damit umgehen können das die 1080p und 1440p Leute was davon haben.
 
Lass ihn doch. Es ist ja nicht so als ob man vorher nicht übertakten konnte.

4K habe ich tatsächlich, schon ewig. Darum brauche ich ja auch so ein Schlachtschiff. Ob die 2080 Ti auf 300 € fällt halte ich aber für fraglich. Die RTX 3070 wird (8 GB) vermutlich bei 600+ liegen, die 3080 liegt ja schon bei 900 für die guten Customs. Genau so habe ich es schon bei jener Karte prophezeit und so ist es auch eingetreten. Es kann gut sein dass die Preise am Ende dann mal bei 850 liegen werden, was immer noch deutlich mehr ist als vorher angenommen wurde. Die Leute die noch auf 1080p unterwegs sind können sich glücklich schätzen, denn dann reicht bereits eine 5700 XT oder ähnliches völlig. Andersrum braucht man für 4K keinen i9 mit 5,5 GHz, da reicht dann auch eine billige CPU.
900 ist nur hier bei uns gab heute die Strix in Frankreich für 780 Euro und da ist der Versand nach Deutschland schon drin.
 
geforce-rtx-3080.jpg
Nicht am morgigen Montag, sondern am Mittwoch um 15:00 Uhr werdet ihr unseren gewohnt ausführlichen Test zur GeForce RTX 3080 Founders Edition lesen können, in dem wir auf alle Details der neuen Generation eingehen werden. Die Details der Ampere-Architektur, der Kühlung und des neuen 12-Pin-Anschluss haben wir uns bereits genauer angeschaut.
... weiterlesen


ist ja nix neues, selbst bei GDDR5 wars ja schon so, das ab nen bestimmten takt erst alles langsamer wurde(fehler korrektur arbeitet) und ab einem gewissen punkt dahinter dann artefakte...
 
Zuletzt bearbeitet:
Irgendwie erinnern mich die letzten Woche um die NVidia an die moderne Form der Götzenanbetung :lol:
 
ECC ja, diese Error Detection und Replay ja nicht. Sprich, sobald die ECC ja einsetzt vor allem bei starkem Overclock ist es ja schon zu spät, evlt. wird man das mit dem OC-Scanner kombinieren damit die Leute für ihre Karte immer dann fast das Maximum zur Verfügung haben.
Naja, praktisch konnte man das ja vorher auch schon, denn wenn die Performance zurück gegangen ist, wars zu viel Takt. :)
 
Theoretisch kann man auch mit Profilen beispielsweise im Afterburner die Frequenzen anpassen, je nach Anwendung auch on the fly. Der Speichercontroller verschiebt allerdings den Punkt dieser Fehler wohl nach hinten weil er eben selbst erkannt das Fehler aufgetreten sind und diese ausbessert, das konnte er vorher nicht.

"Anstatt der Darstellung von Artefakten werden die Übertragungsfehler erkannt und der Speichercontroller versucht diese zu kompensieren."
Das sollte auch das ausloten eigentlich vereinfachen und den Punkt des zumindest sauberen Betriebes etwas nach hinten verschieben, ob das klappt werden dann die Tests zeigen. Ich wage aber zu bezweifeln das der GDDR6X anfangs so starke Reserven hat wie der GDDR6 vor ihm speziell die 10GB der 3080 müssen schon auf die Tube drücken.
 
Ob die technische Umsetzung gleich ist, kann ich nicht beurteilen, aber genau das Verhalten hatte man bei zB Maxwell auch schon: Bei zu hohem Speichertakt hat irgendwann die Performance wieder etwas nachgelassen, weil fehlerhafte Daten neu übertragen wurden und das noch bevor man Grafikfehler bekommen hat.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh