Aktuelles

Ampere-Details: Error Detection and Replay vereinfacht GDDR6X-Overclocking

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Don

[printed]-Redakteur, Tweety
Mitglied seit
15.11.2002
Beiträge
32.608
Was ja auch nicht neu wäre.
 

NightFly2

Experte
Mitglied seit
11.09.2011
Beiträge
1.640
System
Details zu meinem Desktop
Prozessor
i9 9900k@5Ghz
Mainboard
Asus Apex XI
Kühler
Custom wasserkühlung
Speicher
F4-3600C16D-32GTRS @4100 CL16
Grafikprozessor
GTX 1080 @H2O 2100Mhz
Display
ROG SWIFT PG278Q
SSD
Samsung 970 EVO 1 TB NVMe M.2
Gehäuse
Phanteks Enthoo primo
Netzteil
Seasonic Snow Silent 1050W
Betriebssystem
Win 10 Pro
JA ich hoffe auch das Error Count auslesbar ist. Wie macht sich den sonst zu hohes OC bemerkbar? wird man langsamer durch die Korrekturen?
 

Hyrasch

Experte
Mitglied seit
10.12.2012
Beiträge
2.351
@Don
Deine Erklärung habe ich gelesen, danke (y)
Nach dem simplem Schema des Bildes sieht es so aus, als wäre diese Fehlerkorrektur für diejenigen die durch Speicherübertaktung mehr Leistung wollen, ein Bärendienst.
"Anstatt der Darstellung von Artefakten werden die Übertragungsfehler erkannt und der Speichercontroller versucht diese zu kompensieren."
1) Die Artefakte sind ein eindeutiges bildliches Signal dass man es mit der Übertaktung übertrieben hat. Fällt diese weg, erkennt man es nun woran?
2) Der Speichercontroller versucht diese zu kompensieren. Dies kostet dann Leistung? Und wie genau wird dies dann mitgeteilt, man habe es mit der Speicherübertaktung übertrieben?

Nach dem Bild "OLD", tritt zwar ein Absturz früher ein, man hat aber keinen/kaum einen Leistungsabfall bevor dieses oder Artefakte eintreten.
Bei "NEW" kommt der Absturz zwar später, aber dafür zeigt der Graph einen Leistungsabfall.
Den einzigen Vorteil diesbezüglich sehe ich, dass erst nachdem der Leistungsabfall eingetreten ist, kurz vor dem Absturz, die Rate der Kompensierung stark ansteigt.
 

Olstyle

Enthusiast
Mitglied seit
25.05.2007
Beiträge
1.275
Ort
NRW
Man kann auch wirklich alles als OC Feature verkaufen. Ich wage einfach Mal die Behauptung dass man die Geschichte wegen der geringeren Signalintegrität durch PAM4 verbauen musste damit es beim Normalbetrieb nicht schon zu Artefakten kommt.
 

DragonTear

Enthusiast
Mitglied seit
06.02.2014
Beiträge
13.422
Ort
Im sonnigen Süden
@Hyrasch
Auf dem NEW Graph siehst du ja dass die Leistung erst noch ein Stück ansteigt bevor sie abfällt. Wenn NV's Folien realistsiche Bedingungen darstellen gibt es eben einen Bereich wo der Taktvorteil mehr Leistung bringt, als die Korekturen Leistung "aufbrauchen".
Man zögert den Punkt wo man mit Übertaktung übertrieben hat, somit hinaus.
Ob damit wirklich mehr drin ist, wird man natürlich in realen Tests sehen müssen. Und ja, die Fehlerrate auslesen sollte man können. Am Besten noch mit einer Information darüber ab welchem Niveau es zu den leistungseinbußen kommt.
 

Betabrot

Experte
Mitglied seit
26.04.2015
Beiträge
1.314
JA ich hoffe auch das Error Count auslesbar ist. Wie macht sich den sonst zu hohes OC bemerkbar? wird man langsamer durch die Korrekturen?
Wenn ich das richtig verstanden habe, sollte man bis zu einer gewissen Menge an Fehlern sogar noch schneller werden. Langsamer wird es wohl erst, wenn die Menge an Fehlern mehr Bandbreite frisst, als man hinzugewonnen hat.

Für ein wirklich stabiles OC ohne eventuelle Spätfolgen, müsste man das wirklich auslesen können. Sonst sehe ich das eher als hinderlich für OC an.
 

Hyrasch

Experte
Mitglied seit
10.12.2012
Beiträge
2.351
Okay. Dann gibt es keine visuellen Signale (Artefakte), aber auch mehr Leistung.
Den Punkt of diminishing return (oder die Zone) und Leitungsabfall muss man dann mühsam mit Benchmarks selber erforschen👌
Geschichte wegen der geringeren Signalintegrität durch PAM4 verbauen
Könnte sein. Werden jedenfalls wissen was sie tun und eine Verschlechterung wird es wohl nicht sein (y)
 

Smagjus

Experte
Mitglied seit
10.10.2013
Beiträge
1.675
Ich erinnere mich noch daran, wie ich meine erste GTX 1070 zurückschicken musste, weil ich gelegentliche Bildfehler hatte. Mit der Error Correction hätte ich dann einfach weniger Performance gehabt. Finde ich jetzt nicht so berauschend.
 

DDbom

Experte
Mitglied seit
10.10.2016
Beiträge
2.674
Ort
Im Norden
System
Desktop System
Computer
Details zu meinem Desktop
Prozessor
AMD Ryzen 9 3950X
Mainboard
Aorus Xtreme X570
Kühler
EK Velocity
Speicher
32GB G.Skill Trident Z RGB 3800MHZ
Grafikprozessor
2080TI
Display
Acer Predator X34A
SSD
960 Pro 512GB 960 Evo 1TB 860 Evo 1TB MP510 1,92TB
Soundkarte
Soundblaster AE9 PE
Gehäuse
Coolermaster C700M
Netzteil
Dark Power Pro 11 1000Watt
Keyboard
Corsair K95 Platinum
Mouse
Logitech G903
Betriebssystem
Windows 10
Hätte Pascal nicht schon sowas?! Da ging auch mit mehr Takt die Leistung runter. Ich sehe das jetzt nicht so skeptisch wie einige hier.
 

Hyrasch

Experte
Mitglied seit
10.12.2012
Beiträge
2.351
Mehr Speicherdatenrate sollte bei Ampere auch noch weniger bringen als mit Turing. Datenrate ist schon bei 3080 und 3090 für 4k uhd hoch genug.
Für 1440p sind die Karten ja eh nichts.

Jop. Hatte Pascal auch schon.
Hat aber nicht so wirklich funktioniert. Hat bei meiner gtx 1080 ti jedenfalls total genervt.
100 MHz mehr auf den Speicher brachten minimal mehr Leistung. 200 - 400 MHz wieder gar nichts mehr. Ab 400 - 500 MHz wieder einen kleinen Zuwachs.
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
1.235
500 - 600 Mhz gingen bei Pascal auch. Den meisten Mehrwert hat man dort in 4K. Aber auch nicht viel. Vielleicht 2 - 3 %. Seltsamerweise ging es bei der 1080 Ti besser als bei der 1070 bei der ich sogar Samsung-RAM hatte.
 

swat23052

Enthusiast
Mitglied seit
07.10.2008
Beiträge
2.040
Die Leute machen sich sowieso nur verrückt und denken das die wirklich ernsthaft doppelte Leistung rausholen werden bei 1080p und 1440p ..... die träumen alle.

Die 3000er Serie ist eine reine 4K Karte alles andere wird sich im Rahmen halten zu der RTX2080Ti.

Gibt ja auch schon Benchmarks mit 1080p und 1440p und 2160p und da sieht man auch das 4K vorne ist und der Rest schläft ein. Wie bei 1080ti zu 2080ti

Eines der Gründe ist die CPU die Bottleneckt einfach zu hart. Nvidia hat nicht umsonst nur 4K Benchmarks gezeigt, damit die Leute ausflippen .... wer hat hier schon ein 4K Monitor? Die Masse ganz sicher nicht, die werden niemals auf mindestens 144HZ verzichten. Ein 4K 144HZ kannste vergessen zu kaufen .... zahlt Heute keiner. Nvidia zeigt eigentlich nur die Zukunft mit der 3000er Serie.

Wer schlau ist kauft sich eine RTX2080Ti nachdem die auf 300 - 350€ gedroppt ist, eventuell eine RTX3070. Alles andere heißt warten auf neue CPU´s um FullHD und WQHD voll zu befeuern.
 

NightFly2

Experte
Mitglied seit
11.09.2011
Beiträge
1.640
System
Details zu meinem Desktop
Prozessor
i9 9900k@5Ghz
Mainboard
Asus Apex XI
Kühler
Custom wasserkühlung
Speicher
F4-3600C16D-32GTRS @4100 CL16
Grafikprozessor
GTX 1080 @H2O 2100Mhz
Display
ROG SWIFT PG278Q
SSD
Samsung 970 EVO 1 TB NVMe M.2
Gehäuse
Phanteks Enthoo primo
Netzteil
Seasonic Snow Silent 1050W
Betriebssystem
Win 10 Pro
500 - 600 Mhz gingen bei Pascal auch. Den meisten Mehrwert hat man dort in 4K. Aber auch nicht viel. Vielleicht 2 - 3 %. Seltsamerweise ging es bei der 1080 Ti besser als bei der 1070 bei der ich sogar Samsung-RAM hatte.
Schon die GTX 1080 hatte Microns GDDR5X-Speicher und die GTX 1070 nur normalen GDDR5.
Im Gegensatz zur 1080 kommt bei der GTX 1070 kein GDDDR5X-Videospeicher zum Einsatz. Stattdessen verfügt die Karte über 8,0 GByte GDDR5-VRAM.
ist doch klar das da mehr ging als bei deiner 1070
 

Supermax2003

Enthusiast
Mitglied seit
04.12.2003
Beiträge
6.390
wer hat hier schon ein 4K Monitor? Die Masse ganz sicher nicht, die werden niemals auf mindestens 144HZ verzichten. Ein 4K 144HZ kannste vergessen zu kaufen .... zahlt Heute keiner. Nvidia zeigt eigentlich nur die Zukunft mit der 3000er Serie.
Man kann 4k auch als AA-Methode wunderbar nutzen, auch mit nem 1440p Monitor. Spart man sich den FXAA TAA SMAA Krempel.
 

Niftu Cal

Experte
Mitglied seit
02.12.2018
Beiträge
1.235
Lass ihn doch. Es ist ja nicht so als ob man vorher nicht übertakten konnte.

4K habe ich tatsächlich, schon ewig. Darum brauche ich ja auch so ein Schlachtschiff. Ob die 2080 Ti auf 300 € fällt halte ich aber für fraglich. Die RTX 3070 wird (8 GB) vermutlich bei 600+ liegen, die 3080 liegt ja schon bei 900 für die guten Customs. Genau so habe ich es schon bei jener Karte prophezeit und so ist es auch eingetreten. Es kann gut sein dass die Preise am Ende dann mal bei 850 liegen werden, was immer noch deutlich mehr ist als vorher angenommen wurde. Die Leute die noch auf 1080p unterwegs sind können sich glücklich schätzen, denn dann reicht bereits eine 5700 XT oder ähnliches völlig. Andersrum braucht man für 4K keinen i9 mit 5,5 GHz, da reicht dann auch eine billige CPU.
 

Techlogi

Urgestein
Mitglied seit
25.02.2006
Beiträge
8.111
Ort
Lübeck
System
Desktop System
Desktop
Laptop
Laptop
Details zu meinem Desktop
Prozessor
Ryzen 7 3700X @4.2Ghz allcore
Mainboard
Asus Crosshair VI Hero
Kühler
Boxed / Morpheus + 2x eloop
Speicher
4x8gb Corsair Vengeance LPX 3600 CL18
Grafikprozessor
Radeon 5700XT Ref. @2ghz @1.075v
Display
Dell S3220DGF + U2713HM + 1x U2412M + Panasonic TX-50ASW654
SSD
Samsung 970 Evo 250gb + Sandisk Ultra II 960gb
HDD
n/a
Opt. Laufwerk
n/a
Soundkarte
Asus Xonar DGX
Gehäuse
Antec P182 ohne Midplate
Netzteil
be quiet! Straight Power 10-CM 500W
Keyboard
Logiteh Illuminated
Mouse
Logitech MX518 Refresh
Betriebssystem
Win10 x64 EN
Webbrowser
Firefox
Sonstiges
Aquacomputer Quadro
Hätte Pascal nicht schon sowas?! Da ging auch mit mehr Takt die Leistung runter. Ich sehe das jetzt nicht so skeptisch wie einige hier.
Maxwell ebenso.
Entweder ist das nix neues oder es fehlt noch ne Info.
 

swat23052

Enthusiast
Mitglied seit
07.10.2008
Beiträge
2.040
Lass ihn doch. Es ist ja nicht so als ob man vorher nicht übertakten konnte.

4K habe ich tatsächlich, schon ewig. Darum brauche ich ja auch so ein Schlachtschiff.
Das ist okay, also wenn du auf 60HZ spielen kannst und du damit glücklich bist passt das. Ich bin mir nicht sicher aber ich denke das sich der Markt jetzt sehr spalten wird zwischen 1080p und 1440p @ mindestens 144hz und 4K 60HZ

Je nachdem muss man seine Grafikkarte halt skalieren. Für 1080P würde ich Heute noch eine 1080Ti kaufen wenn man RTX verzichten kann. Ich kriege die 2080Ti nicht mal aufgelastet auf einem 3700X @ 4.4Ghz bei Battlefield V gammelt es im Multiplayer bei 85% rum .... und hat dabei AVG 160FPS.

Ich bin eher auf die neuen CPUs gespannt die damit umgehen können das die 1080p und 1440p Leute was davon haben.
 

NightFly2

Experte
Mitglied seit
11.09.2011
Beiträge
1.640
System
Details zu meinem Desktop
Prozessor
i9 9900k@5Ghz
Mainboard
Asus Apex XI
Kühler
Custom wasserkühlung
Speicher
F4-3600C16D-32GTRS @4100 CL16
Grafikprozessor
GTX 1080 @H2O 2100Mhz
Display
ROG SWIFT PG278Q
SSD
Samsung 970 EVO 1 TB NVMe M.2
Gehäuse
Phanteks Enthoo primo
Netzteil
Seasonic Snow Silent 1050W
Betriebssystem
Win 10 Pro
Lass ihn doch. Es ist ja nicht so als ob man vorher nicht übertakten konnte.

4K habe ich tatsächlich, schon ewig. Darum brauche ich ja auch so ein Schlachtschiff. Ob die 2080 Ti auf 300 € fällt halte ich aber für fraglich. Die RTX 3070 wird (8 GB) vermutlich bei 600+ liegen, die 3080 liegt ja schon bei 900 für die guten Customs. Genau so habe ich es schon bei jener Karte prophezeit und so ist es auch eingetreten. Es kann gut sein dass die Preise am Ende dann mal bei 850 liegen werden, was immer noch deutlich mehr ist als vorher angenommen wurde. Die Leute die noch auf 1080p unterwegs sind können sich glücklich schätzen, denn dann reicht bereits eine 5700 XT oder ähnliches völlig. Andersrum braucht man für 4K keinen i9 mit 5,5 GHz, da reicht dann auch eine billige CPU.
900 ist nur hier bei uns gab heute die Strix in Frankreich für 780 Euro und da ist der Versand nach Deutschland schon drin.
 

XTR³M³

Enthusiast
Mitglied seit
15.02.2008
Beiträge
1.267
Ort
Zürich/CH
Nicht am morgigen Montag, sondern am Mittwoch um 15:00 Uhr werdet ihr unseren gewohnt ausführlichen Test zur GeForce RTX 3080 Founders Edition lesen können, in dem wir auf alle Details der neuen Generation eingehen werden. Die Details der Ampere-Architektur, der Kühlung und des neuen 12-Pin-Anschluss haben wir uns bereits genauer angeschaut.
... weiterlesen

ist ja nix neues, selbst bei GDDR5 wars ja schon so, das ab nen bestimmten takt erst alles langsamer wurde(fehler korrektur arbeitet) und ab einem gewissen punkt dahinter dann artefakte...
 
Zuletzt bearbeitet:

Techlogi

Urgestein
Mitglied seit
25.02.2006
Beiträge
8.111
Ort
Lübeck
System
Desktop System
Desktop
Laptop
Laptop
Details zu meinem Desktop
Prozessor
Ryzen 7 3700X @4.2Ghz allcore
Mainboard
Asus Crosshair VI Hero
Kühler
Boxed / Morpheus + 2x eloop
Speicher
4x8gb Corsair Vengeance LPX 3600 CL18
Grafikprozessor
Radeon 5700XT Ref. @2ghz @1.075v
Display
Dell S3220DGF + U2713HM + 1x U2412M + Panasonic TX-50ASW654
SSD
Samsung 970 Evo 250gb + Sandisk Ultra II 960gb
HDD
n/a
Opt. Laufwerk
n/a
Soundkarte
Asus Xonar DGX
Gehäuse
Antec P182 ohne Midplate
Netzteil
be quiet! Straight Power 10-CM 500W
Keyboard
Logiteh Illuminated
Mouse
Logitech MX518 Refresh
Betriebssystem
Win10 x64 EN
Webbrowser
Firefox
Sonstiges
Aquacomputer Quadro
ECC ja, diese Error Detection und Replay ja nicht. Sprich, sobald die ECC ja einsetzt vor allem bei starkem Overclock ist es ja schon zu spät, evlt. wird man das mit dem OC-Scanner kombinieren damit die Leute für ihre Karte immer dann fast das Maximum zur Verfügung haben.
Naja, praktisch konnte man das ja vorher auch schon, denn wenn die Performance zurück gegangen ist, wars zu viel Takt. :)
 

Infi88

Enthusiast
Mitglied seit
09.09.2010
Beiträge
976
Ort
Köln
Theoretisch kann man auch mit Profilen beispielsweise im Afterburner die Frequenzen anpassen, je nach Anwendung auch on the fly. Der Speichercontroller verschiebt allerdings den Punkt dieser Fehler wohl nach hinten weil er eben selbst erkannt das Fehler aufgetreten sind und diese ausbessert, das konnte er vorher nicht.

"Anstatt der Darstellung von Artefakten werden die Übertragungsfehler erkannt und der Speichercontroller versucht diese zu kompensieren."
Das sollte auch das ausloten eigentlich vereinfachen und den Punkt des zumindest sauberen Betriebes etwas nach hinten verschieben, ob das klappt werden dann die Tests zeigen. Ich wage aber zu bezweifeln das der GDDR6X anfangs so starke Reserven hat wie der GDDR6 vor ihm speziell die 10GB der 3080 müssen schon auf die Tube drücken.
 

Techlogi

Urgestein
Mitglied seit
25.02.2006
Beiträge
8.111
Ort
Lübeck
System
Desktop System
Desktop
Laptop
Laptop
Details zu meinem Desktop
Prozessor
Ryzen 7 3700X @4.2Ghz allcore
Mainboard
Asus Crosshair VI Hero
Kühler
Boxed / Morpheus + 2x eloop
Speicher
4x8gb Corsair Vengeance LPX 3600 CL18
Grafikprozessor
Radeon 5700XT Ref. @2ghz @1.075v
Display
Dell S3220DGF + U2713HM + 1x U2412M + Panasonic TX-50ASW654
SSD
Samsung 970 Evo 250gb + Sandisk Ultra II 960gb
HDD
n/a
Opt. Laufwerk
n/a
Soundkarte
Asus Xonar DGX
Gehäuse
Antec P182 ohne Midplate
Netzteil
be quiet! Straight Power 10-CM 500W
Keyboard
Logiteh Illuminated
Mouse
Logitech MX518 Refresh
Betriebssystem
Win10 x64 EN
Webbrowser
Firefox
Sonstiges
Aquacomputer Quadro
Ob die technische Umsetzung gleich ist, kann ich nicht beurteilen, aber genau das Verhalten hatte man bei zB Maxwell auch schon: Bei zu hohem Speichertakt hat irgendwann die Performance wieder etwas nachgelassen, weil fehlerhafte Daten neu übertragen wurden und das noch bevor man Grafikfehler bekommen hat.
 
Oben Unten