Haben Ampere-Karten ein Temperaturproblem des GDDR6X-Speichers?

Nicht ich wollte das, sondern Shevchen sprach von Vega als es um die Effizienz von Turing ging. Das wollte ich lediglich richtig stellen.
Dann hättest du das aber auch richtig richtig stellen sollen.
Vega kam übervoltet aus den Fabs und du hast sogar noch Performance gewonnen, wenn du die Spannungen reduziert hast. Das passiert hier bei Ampere nicht (denn obwohl auch Ampere schluckt wie ne Hafendame, ist die Kurve steigend und hat keinen "Knick" wie bei Vega)

Für den Kindergarten hier:
- Vega war scheiße eingestellt und per manuellem Tuning konnte man dort noch eine ganze Ecke an Perf/W rausholen (durch Reduktion der Wattzahl)
- Nachdem AMD zwei weitere Iterationen mit Vega hatte, wurde dass Ding final gefixt in die APUs geschmissen und läuft dort heute effizient
- Die Leistung von Vega ist für Gaming nur mittelmäßig gut geeignet, da es eine Mischarchitektur ist, mit der man vor allem auch compute bewältigen kann (Ist auch der Grund warum Arcturus existiert)

Und final für die Lesekompetenz:
Das Helmchen sagte:
"Nicht, dass das bei einer High-End Karte in meinen Augen überhaupt relevant wäre, aber Tatsache ist: Ampere IST effizienter als Turing. Wenn man auf die absolute Leistungsmaximierung verzichten will, gibt es sogar viel mehr FPS/Watt."
Wenn ich den Chip einfach größer skaliere und mit dem Takt etwas runtergehe, kommt genau das dabei raus. Was an Ampere ist jetzt also ne Steigerung gegenüber Turing, was nicht auf die Parametrisierung zurückzuführen ist? Und selbst die ist gerade mal lächerliche 10-15%.
Und jetzt der Bogen zu Vega: Diese 10% Perf/W habe ich bei Vega durch Tuning auch rauskitzeln können. DAS ist, was ich mit meiner Antwort gemeint habe. Genützt hat es Vega nix, da mal nicht bessere Perf/W haben wollte, sondern mehr Leistung. (Die es durch undervolting sogar gab, aber halt nur im einstelligen Prozentbereich)

Aber gut, feiert eure 15% als wären es 190%. Nehmt noch einen tiefen Zug an der Lederjacke und preiset den Herrn!

performance-per-watt_3840-2160.png


PS: Das geübte Auge sieht in der Tabelle ne 5700 mit 82%. Mit einer Perf/W Steigerung von 22% hätte AMD die 3080 schon im Sack. Gemunkelt wird 50%-60%. (den echten Wert sehen wir dann in den Benches) Was wir hier im Forum also lesen dürfen ist pure Panik und Pipi in der Hose der grünen Fraktion, weil Nvidia ein AMD gepullt hat und AMD mit einem Nvidia kontern könnte.

*am tee nippt*
Beitrag automatisch zusammengeführt:

Oder es sind eben einfach nur Lötkugel gebrochen - weil das Bleifreie Zeug eben bei weitem nicht mehr so elastisch ist wie Bleihaltiges...
Und dieser Bruch wird durch ständiges aufheizen und abkühlen befeuert, was bei einem großen Temperaturdelta natürlich schön zum Tragen kommt. Die Chips selbst haben auch ihre eigene Spezifikation und die hat Igor in seinem Video auch schon elaboriert. Wenn die dauernd kurz vor Kotzgrenze laufen, rechne ich mit einer stark verkürzten Lebenserwartung. Wie die exakt aussehen wird, kann ich nur raten - obs 2 Monate oder 2 Jahre sein werden... werden wir sehen. Für ne 800€ Karte ist mir das aber... zu heiß.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Wie die exakt aussehen wird, kann ich nur raten - obs 2 Monate oder 2 Jahre sein werden... werden wir sehen. Für ne 800€ Karte ist mir das aber... zu heiß.

Der Gebrauchtkauf dürfte bei den FE-Karten, zumindest wenn es wirklich so schlimm ist, zum russischen Roulette werden.
 
Jep, keine Frage, viel zu heiß. Auf Dauer sicherlich nicht gut für die Lebenserwartung.
Je Kühler desto besser... Aber das sieht man leider bei vielen Herstellern und deren Kühlern das entweder die RAM Kühlung wenig Priorität hat, oder die VRMs :-/
 
Dann hättest du das aber auch richtig richtig stellen sollen.
Vega kam übervoltet aus den Fabs und du hast sogar noch Performance gewonnen, wenn du die Spannungen reduziert hast. Das passiert hier bei Ampere nicht (denn obwohl auch Ampere schluckt wie ne Hafendame, ist die Kurve steigend und hat keinen "Knick" wie bei Vega)

Für den Kindergarten hier:
- Vega war scheiße eingestellt und per manuellem Tuning konnte man dort noch eine ganze Ecke an Perf/W rausholen (durch Reduktion der Wattzahl)

So ist es, besitze selber eine Vega64 schon fast 3 Jahre, man hat durch Reduktion von 1,2V GPU auf 0,95V die karte auf unter 170W gedrückt, im Mittel verbraucht die bei mir 135W-160W ich habe nur im Furmark bei der Spannung 185W anliegen. Dabei Boostet die karte jetzt auf 1620Mhz dauerhaft und der HBM Läuft mit 1150Mhz statt 945Mhz, damit liegt die 64er etwa auf dem Niveau einer normalen RTX2070 bei weniger oder dem gleichen verbrauch. Vega ist eigentlich richtig gut Effizient, wenn man Selber hand anlegt wenn überlegt dass man so in etwa bei einer 2070 liegt und 1,5 Jahre älter ist...
 
Meine V64 ging leider mehr in Richtung Zitrone und hat deine Werte nicht ganz erreicht (Maximaler HBM-Takt war 1070) und am Kern waren es 1590 dauerhaft - aber auch hier eine ähnlich massive Reduktion im Verbrauch von 280W auf ~200W (Um genaue Werte zu bekommen müsste ich meinen Loop auseinanderbauen um die Vega wieder reinzustecken worauf ich ehrlich gesagt keine Lust habe)
Spannung war wenn ich mich recht erinnere 1.075V

Des Pudels Kern ist halt, dass wir mit 200W statt 280W auf der Vega mal eben +30% mehr Perf/W rausgekitzelt haben und da liegen wir dann mitten drin in der Turing-Effizienz. Und wenn man keine gurke erwischt hat, liegt man wie bei dir auch mit 2070-Leistung wunderbar im zockbaren Bereich für 1080p - 1440p. Ich hab die damals für 400€ geschossen und da gabs halt nur die 1080Ti mit ~800€. Also für 5% mehr Leistung nach Tuning mal eben der doppelte Preis.

Sehen wir auch bei der 3090. 8% mehr Performance für 115% Aufpreis.

Ich sags mal so: Wenn die paar Prozente so einen derben Aufpreis fürs Ego rechtfertigen, wie groß ist dann der Nervenzusammenbruch dieser Leute, wenn der rote Lada 3x hupt?
 
@Don
Hast du und andere Redakteure das Verbot des Auseinandesnehmens und Zeigen des PCB/Kühlers der 3080/3090 FE freiwillig unterschrieben, oder wurde es euch reingedrückt?
Bis auf Igor und GamersNexus (Youtube) habe ich nun keinen Redakteur/Tester gesehen der beiden Karten auseinandergenommen und ausführlich analysiert hat.

Nun habe die Antwort selber gefunden: GamersNexus hat es mit dem Unboxing-/Teardown-Embargo bestätigt. Tear-Down: NVIDIA RTX 3080 Founders Edition Disassembly - A Lot Fewer Screws

Wie kommt es dann dass Igor und GamerxNexus das vertragliche Verbot umgehen, du und andere aber nicht?

Man sieht im Video auch dass zwar die GPU ganz gut gekühlt wird, aber der Ansatz für den Vram ist doch eher mau. Keine Bodenplatte aus Kupfer.
Ist dies Aluminium für den Speicher etc.? Erklärt die hohen Temperaturen.
 
Sobald du die Karten kaufen kannst, gibts kein NDA mehr. Du kannst ja selbst eine im Laden kaufen, ne Webcam drüberhängen und die auseinanderbauen. Was soll Nvidia dagegen tun? GN/Igor etc haben wohl genug Einfluss um sagen zu können: "Wir schrauben die Teile auseinander, ob ihr wollt oder nicht. Zur Not rufen wir unsere Kumpels an und haben das Ding 1 Tag später da."
 
@Don
Hast du und andere Redakteure das Verbot des Auseinandesnehmens und Zeigen des PCB/Kühlers der 3080/3090 FE freiwillig unterschrieben, oder wurde es euch reingedrückt?
Bis auf Igor und GamersNexus (Youtube) habe ich nun keinen Redakteur/Tester gesehen der beiden Karten auseinandergenommen und ausführlich analysiert hat.

Es gab und gibt seitens NVIDIA kein Verbot die Karten auseinander zu nehmen. Bei der Founders Edition der GeForce RTX 3080 haben wir bisher darauf verzichtet, da es eine etwas kompliziertere Prozedur ist und wir nicht mehr sicherstellen konnten, dass für folgende Tests auch noch ein identischen Verhalten gewährleistet werden kann.
 
Ja, verstehe; ist dann hier wieder die Formulierung.
Dann gilt dies für dass eigene Auseinandernehmen der Karte/PCB etc. Aber nicht für das veröffentlichen im Test etc.
Also gibt es diese spezifische vertragliche Unterbindung.
Müsste eig. verfallen oder genehmigt werden, wenn es bereits veröffentlicht wurde.

Bei Turing gab es dieses Verbot wie ich lese bereits auch. RTX 2080 Ti Founders Edition Tear-Down: "No Disassembly" Edition
NVIDIA told us that we couldn't take apart the new RTX 2080 Ti at the last minute, but then others posted tear-downs and that eliminated the requirement to adhere to this weird rule.

Ging ja hierbei nicht ums Kaufen. Alle Redakteure/Tester haben diese vor dem Launch erhalten.
Ja, könnte bei Gamernexus so stimmen. Deren Dominanz ist so groß, die könnten solche Bedingungen stellen oder die Karte von irgendeinem Händer/Distributor erhalten.
Aber Igor?

Die Karte auseinandernehmen ist ja mal scheiße aufwendig. Hätte auch keine Lust :shake:
Hast du aber jetzt bei der Vram Messung eh machen müssen :d
 
Ich sehe - ganz neutral - bei Ampere folgendes:

Ich bitte dich. Jeder hier im Forum weiß, dass du einer der größten AMD-Hardliner hier im Forum bist und kennt deine persönliche Abneigung gegenüber Nvidia/Intel. Regelmäßig fällst du mit Cherrypicking pro AMD auf. Immer wieder die gleichen Phrasen. Sogar nachdem diese komplett widerlegt wurden, fängst an diese einfach an anderer Stelle zu wiederholen.


Vega kam übervoltet aus den Fabs und du hast sogar noch Performance gewonnen, wenn du die Spannungen reduziert hast. Das passiert hier bei Ampere nicht (denn obwohl auch Ampere schluckt wie ne Hafendame, ist die Kurve steigend und hat keinen "Knick" wie bei Vega)

Das ist nicht einmal eine Vega Besonderheit, sondern kann bei jeder Grafikkarte erzielt werden, welche durch das spezifizierte Powerlimit eingebremst wird. Da bei einer 3080 FE das Powerlimit für Games scheinbar relativ locker gesetzt wurde, verliert diese kaum an Leistung, wenn dies reduziert wird. Daher kann die Effizienz einer 3080 schon alleine durch die Reduzierung des Powerlimits gesteigert werden und man sieht auch, dass eine 3080 bei gleichem Powerlimit mal eben im Durchschnitt gute 25% schneller als eine 2080ti ist.

Durch eine Kombination aus OC und UV kann auch bei einer 3080 die Performance verbessert werden und gleichzeitig die Leistungsausnahme reduziert werden: https://www.reddit.com/r/nvidia/comments/iwt953/rtx_3080_to_undervolt_or_not_to_undervolt_that_is/


Vega war scheiße eingestellt und per manuellem Tuning konnte man dort noch eine ganze Ecke an Perf/W rausholen (durch Reduktion der Wattzahl)

Nein, nicht nur Vega, sondern geht dies bei jeder Grafikkarte mal weniger gut und mal besser.


Das geübte Auge sieht in der Tabelle ne 5700 mit 82%. Mit einer Perf/W Steigerung von 22% hätte AMD die 3080 schon im Sack. Gemunkelt wird 50%-60%. (den echten Wert sehen wir dann in den Benches) Was wir hier im Forum also lesen dürfen ist pure Panik und Pipi in der Hose der grünen Fraktion, weil Nvidia ein AMD gepullt hat und AMD mit einem Nvidia kontern könnte.

Du meinst das geübte Auge eines Cherrypickers?
Denn wenn man sich so die 5700xt ansieht, dann ist diese deutlich ineffizienter als die 5700. Sonderlich gut nach oben scheint Navi nicht zu skalieren. Je nachdem wie sehr BN ans Limit getrieben wird, um irgendwie mit der Leistung von Ampere mithalten zu können, desto mehr Effizienz geht da verloren.

Bzw. laufen die Navis schon sehr gut am Sweetspot. Eine 2070 Super lässt sich beispielsweise besser undervolten: https://www.computerbase.de/2019-10...m-performance-pro-watt-2560-1440-undervoltage

Achja und nur aufgrund der Wunschvorstellungen eines AMD Fans, brauch sich da niemand wirklich Sorgen zu machen. lol


Wenn die dauernd kurz vor Kotzgrenze laufen, rechne ich mit einer stark verkürzten Lebenserwartung.

Und was genau ist deine Einschätzung oder die anderer Forenmitglieder, ohne jegliche Kompetenz in diesem Bereich, überhaupt wert?


Vega ist eigentlich richtig gut Effizient, wenn man Selber hand anlegt wenn überlegt dass man so in etwa bei einer 2070 liegt und 1,5 Jahre älter ist...

Und dann betreibst du das gleiche Tuning bei einer 2070 und die Vega ist so schlecht wie zuvor 🤷‍♂️
 
Ja, verstehe; ist dann hier wieder die Formulierung.
Dann gilt dies für dass eigene Auseinandernehmen der Karte/PCB etc. Aber nicht für das veröffentlichen im Test etc.
Also gibt es diese spezifische vertragliche Unterbindung.

Nein, es gibt keine "vertragliche Unterbindung". Wir hätten die Karte auseinandernehmen können. Wenn ich das aber nach den ersten Tests mache und dann feststellen, dass ich noch weitere Tests machen möchte oder etwas nachtesten möchte, dann ist die Karte nicht mehr im Originalzustand.
 
Also das mit dem zwar "selber auseinandernehmen dürfen" aber dennoch "im Test etc. nicht zeigen dürfen", hast du gelesen?
Nun, dann wird der Vertrag für Europa ein anderer sein, oder spezifische Verträge je nach Redakteur/Webseite.
Steve und du lügen ja nicht. Also gehe ich 100 % davon aus^^
 
Micron scheint dort einfach massive Probleme mit der gddrx Produktion zu haben und die RAMs schaffen die Taktrate nur mit massiver Hitzentwicklung, folglich wird die Ausbeute gering sein und NVIDIA konnte so möglicherweise nichts dafür, dass die Karten so knapp sind, weil man die Produktion nicht hoch fahren kann....
 
Also das mit dem zwar "selber auseinandernehmen dürfen" aber dennoch "im Test etc. nicht zeigen dürfen", hast du gelesen?
Nun, dann wird der Vertrag für Europa ein anderer sein, oder spezifische Verträge je nach Redakteur/Webseite.
Steve und du lügen ja nicht. Also gehe ich 100 % davon aus^^
Ganz ehrlich, reim dir doch nicht immer irgendwelches Zeugs zusammen...
Hast du denn das Turing Video, was du selbst verlinkt hast von GN mal angesehen oder nur den Text zitiert? Da wird gezeigt, dass es ein NDA gibt für die Infos, die gezeigt werden dürfen/durften. Das war damals der 14.09.2018. Schaust du mal ein wenig in die Vergangenheit, stellst du fest, dass auch in Europa bei Turing die Infos in zweit Wellen verteilt werden durften/sollten. Es gab am 14.09. die Technik Vorstellung und ne Woche später, nämlich am 21.09. den "Release" in Form von erlaubten Review Veröffentlichungen.

Kein Plan wie du da auf ein Verbot für Auseinandernehmen kommst :stupid:
NV will und wollte einfach nur nicht, dass die Redaktionen VOR dem offiziellen Release der Tests die Dinger auseinander nehmen. Was sie da geritten hat oder nicht, lässt sich nicht von außen beurteilen. Und auch nicht, warum man nichtmal 24h vor Fall des ersten NDA damals bei Turing ein Verbot für die Demonatagevideos gab. Am Ende ist das aber auch völlig bumms egal. Denn kein Vertrag der Welt wird einer Redaktion NACH dem Release der Hardware verbieten können, das Teil bis auf die letzte Schraube oder den letzten Widerstand zu untersuchen. Warum und wieso es da jetzt bei Ampere nur von wenigen ein Video/Review dazu gibt, ist doch völlig irrelevant. Was interessiert das überhaupt? Die Erklärung vom Don dazu ist schon ziemlich schlüssig - reiß den Kasten auseinander und du bekommst definitiv keine Werte danach mehr mit dem Auslieferungszustand. Wie Andi die Tempwerte da ermittelt hat ohne die Karte auseinander zu nehmen, kein Plan - vllt mit ner zweiten? Aber selbst das ist am Ende effektiv irrelevant. Es gibt/gab nie einen Vertrag bzw. ein Verbot, die Dinger zu demontieren. Bestenfalls wurde sowas an ein NDA Fall geknüpft, was für GA102 aber seit Tagen nicht mehr gilt, weil die Dinger offiziell im Laden stehen und damit jeder Heinz auch diese Infos streuen kann ohne dass ein Hersteller da was verhindert. Bitte hör auch dir da irgendwelchen Käse auszudenken... Und wildeste Theorien aufzustellen.

Micron scheint dort einfach massive Probleme mit der gddrx Produktion zu haben und die RAMs schaffen die Taktrate nur mit massiver Hitzentwicklung, folglich wird die Ausbeute gering sein und NVIDIA konnte so möglicherweise nichts dafür, dass die Karten so knapp sind, weil man die Produktion nicht hoch fahren kann....

Hätte, Wäre, Könnte, Müsste, Sollte...
Hast du irgendwas verwertbares/belastbares dazu? Die RAM Bausteine laufen nach diversen Messungen zur Folge innerhalb der Spezifikationen. Ob das Tackern auf Kante jetzt gut oder schlecht ist, muss jeder für sich entscheiden. Aber eine Spezifikation ist dafür da um eingehalten zu werden. Da stehen 110°C oder wie viel auch immer drin - also hat das Teil auch so zu funktionieren.
 
Abwarten, Igor wird dazu sicher was bringen, denn er hat gute Kontakte zu Industrie.
 
Dann solltest du dich aber beeilen Igor auch mitzuteilen, dass er irgendwas von geringe Ausbeute, massive Probleme mit Produktion und irgendwas von Takt nur mit massiver Hitzeentwicklung palabern sollte, denn davon ist im gezeigten Video so einfach gar keine Rede. Oder hab ich was auf den Ohren??
Von Igor gibt es doch schon ein Video zu den Speichern und deren Temperaturen - mit dem Resultat wie ich oben auch erwähnte. Es ist innerhalb der Spezifikation. Igor muckiert sich bisschen über die nicht vorhandenen Wärmeleitpads auf der Rückseite über den Speicherbausteinen. Ja, sicher, das hätte den Temperaturen bisschen Abhilfe geschaffen. Kann man kritisieren. War btw. meines Erachtens gar auch das erste Statemant der "Presse" überhaupt zum Thema Speichertemperaturen im Netz. Im YT Video von ihm dazu schmückt das Thumb meine ich auch das Wörtchen "Exklusiv".
Der Aufruf zum Abwarten klingt mir nach dem typischen Strohhalmgriff :lol:
 
Hab ich doch geschrieben. Könnt ihr beide jetzt nicht lesen? :ROFLMAO:

Okay, Korrektur, ist jetzt dass mit Turing es nicht erlaubt wurde eine Woche vor Release, öffentlich auseinandergenommen etc. die Karten zu zeigen.
Haben sich einige nicht dran gehalten, wurde es also dennoch gemacht.

Mit Ampere ist dies nun anders - strikter. Sogar noch bei Release von 3080 und 3090.
Ob nur bis Release? K.A. müsste mal irgendwer anonym in einem Forum oder sonst wo schreiben.
Effekt ist nun dass es sogar - hätte Igor oder Steve es nicht gemacht - ein paar Tage/Wochen nach Release, es keine Teardowns gegeben hätte, weil keiner die Karten hat, oder bereits (nach dem Testen) zurückgeschickt.

Dies hat nun Steve von GN bestätigt. Warum Don das nun verneint?
K.A. hat er es vollständig gelesen? Bestimmt. Also? Vermutet: Begründung siehe oben. Wie macht Igor es? Fragen wir ihn^^

Natürlich macht Dons Erklärung Sinn, aber nicht 100 %. X Redakteure/Tester hätten die Karte dennoch gerne nach dem Testen auseinandergenommen und gezeigt.
So wie üblich. Haben aber diesmal bis auf zwei alle halt nicht gemacht.

Ach und du solltest Igor nicht so niedermachen "palabern sollte"; palavern?
Weil er einer der Wenigen ist die sich kritisch äußern (und auch das Wissen dazu hat), sind wir unwissenden (die Mehrheit) aufgeklärt.
Auch Don, der diesmal selbst kritischer ist - durch Test und Nachrichten -, ist im Vergleich zu Igor ziemlich handzahm und wählt seine Worte (Kritik) bedacht. Ist überflüssig zu erklären warum. Verständlich weshalb.

Abseits von Igor, hier bei Luxx und anderen professionellen Redakteuren/Testern, ist die Mehrheit gekauft und stubenreine Kätzchen. 😽
 
Ich bitte dich. Jeder hier im Forum weiß, dass du einer der größten AMD-Hardliner hier im Forum bist und kennt deine persönliche Abneigung gegenüber Nvidia/Intel. Regelmäßig fällst du mit Cherrypicking pro AMD auf. Immer wieder die gleichen Phrasen. Sogar nachdem diese komplett widerlegt wurden, fängst an diese einfach an anderer Stelle zu wiederholen.
Nur bin weder ich noch RDNA2 das Thema, sondern Nvidias Autounfall. Du kannst von mir aus von AMD halten was du willst, ändert aber nix an dem verkorksten Launch.

Das ist nicht einmal eine Vega Besonderheit, sondern kann bei jeder Grafikkarte erzielt werden, welche durch das spezifizierte Powerlimit eingebremst wird. Da bei einer 3080 FE das Powerlimit für Games scheinbar relativ locker gesetzt wurde, verliert diese kaum an Leistung, wenn dies reduziert wird. Daher kann die Effizienz einer 3080 schon alleine durch die Reduzierung des Powerlimits gesteigert werden und man sieht auch, dass eine 3080 bei gleichem Powerlimit mal eben im Durchschnitt gute 25% schneller als eine 2080ti ist.

Durch eine Kombination aus OC und UV kann auch bei einer 3080 die Performance verbessert werden und gleichzeitig die Leistungsausnahme reduziert werden: https://www.reddit.com/r/nvidia/comments/iwt953/rtx_3080_to_undervolt_or_not_to_undervolt_that_is/

War das nicht das große Gegenargument bei Vega, dass man da "selbst Hand anlegen" musste und Nvidia das so toll selbst "out-of-the-box" kann? (It just works)
Aber ja - jede Karte kann manuell optimiert werden - und wenn man den Sweet-Spot gut trifft, verliert man praktisch keine Leistung und spart oderntlich an Strom *oder* man nutzt den gesteigerten Headroom, um an der thermischen Verlustgrenze des Kühlers die Karte am tatsächlichen Limit zu betreiben. Das geht bei allen Karten, die nicht optimal aus der Fab kommen. Nur musst du manuell nachstellen und da erinnere ich mich an den Satz im Wortlaut: "Das machen weniger als 1% der Leute und das muss so laufen ansonsten isses Käse". Stehst du auch heute noch zu dieser Aussage, oder hat sich plötzlich was an deiner Sichtweise geändert?

Nein, nicht nur Vega, sondern geht dies bei jeder Grafikkarte mal weniger gut und mal besser.
Was auch von der Chip- und Speicherqualität abhängt. Dazu möchte ich nebenbei anmerken, dass Sample-Größen von 1 halt kaum aussagekräftig sind und maximal als Indiz gewerten werden sollten. Das werden wir dann aber in den nächsten Wochen und Monaten wohl in den Sammlern statistisch ausgewertet sehen. Ist auf jeden Fall spannend. Chip-Tuning interessiert mich allgemein, da isses mir egal ob AMD oder Nvidia.

Du meinst das geübte Auge eines Cherrypickers?
Denn wenn man sich so die 5700xt ansieht, dann ist diese deutlich ineffizienter als die 5700. Sonderlich gut nach oben scheint Navi nicht zu skalieren. Je nachdem wie sehr BN ans Limit getrieben wird, um irgendwie mit der Leistung von Ampere mithalten zu können, desto mehr Effizienz geht da verloren.
Herzlichen Glückwunsch - du hast den Sweet Spot entdeckt! Und was es bedeutet, wenn man ihn überschreitet und die Karte an die Wand fährt. Hast du oben ja selbst schön beschrieben. Die logische Schlussfolgerung überlasse ich auch dir. :)

Bzw. laufen die Navis schon sehr gut am Sweetspot. Eine 2070 Super lässt sich beispielsweise besser undervolten: https://www.computerbase.de/2019-10...m-performance-pro-watt-2560-1440-undervoltage
Nochmal der hinweis zur Sample-Size=1
Die AMD-Karten wurden auf 6% bzw 8% undervoltet, die Turing Karte auf 12%

Hier hat jemand die 5700XT auf 1.900MHz @1V betrieben und schlägt damit Turing:
https://www.techpowerup.com/forums/threads/testing-undervolting-with-my-5700xt.258313/

Aber hey, ICH bin ja der jenige der Cherry-Pickt, gell?

Achja und nur aufgrund der Wunschvorstellungen eines AMD Fans, brauch sich da niemand wirklich Sorgen zu machen. lol
Kann ich genauso zurück geben. Die Realitätsverzerrung ist bei den Leuten eh so massiv, dass ich da auch nur noch "Wartet auf die Benches" zu sagen kann. mit Argumenten kommt man hier nicht mehr weit. Falls AMD die 3080 nicht knacken sollte, nehme ich gerne dein "Ich habs dir ja gesagt!" an und akzeptiere. Die Frage ist halt nur, ob du das auch könntest.


Und was genau ist deine Einschätzung oder die anderer Forenmitglieder, ohne jegliche Kompetenz in diesem Bereich, überhaupt wert?
Das Prinzip eines Forums ist der austausch von Meinungen, Gedanken und Ansichten. Wenn die sich unterscheiden, gibt es einen Diskurs. Das Resultat von diesem kann eine Erweiterung der Sichtweise sein, muss es aber nicht. Je nachdem man offen für neue Informationen ist.


Und dann betreibst du das gleiche Tuning bei einer 2070 und die Vega ist so schlecht wie zuvor 🤷‍♂️
Je nachdem wann du gekauft hast, ging die Vega gegen die 1080Ti - und die hat 800€ statt 400€ gekostet. Gut, wer Geld scheißt, dem kann das egal sein, aber ich denke mal die meisten Leute gucken schon auf das Preisschild.
 
Hab ich doch geschrieben. Könnt ihr beide jetzt nicht lesen? :ROFLMAO:
Ich versuch(t)e vergebens den Punkt in deiner Aussage zu finden. Aber irgendwo gibts da keinen außer dass du was offensichtlich nicht verstehst und dir deswegen ein Konstrukt zusammen reimst...

Mit Ampere ist dies nun anders - strikter. Sogar noch bei Release von 3080 und 3090.
Ob nur bis Release? K.A. müsste mal irgendwer anonym in einem Forum oder sonst wo schreiben.
Effekt ist nun dass es sogar - hätte Igor oder Steve es nicht gemacht - ein paar Tage/Wochen nach Release, es keine Teardowns gegeben hätte, weil keiner die Karten hat, oder bereits (nach dem Testen) zurückgeschickt.
Bitte keine Lügen verbreiten.
Es ist eben nicht anders. Exakt gleich wie bei Turing gab es einen Zeitpunkt, andem die Karten gezeigt werden dürfen. Und mindestens einen anderen Zeitpunkt, wo die Reviews zu sehen sind. Der 16.09. an dem die Auseinanderbau-Videos veröffentlicht wurden ist der Tag an dem die Benchmarks veröffentlicht wurden. Es ist aber eben nicht der Tag, andem die Karten "unboxed" werden durften. Denn das war der 11.09. und zu diesem Tag durfte, wie im GN Video gesagt wurde und btw. meine ich auch von Igor wurde das erwähnt, eben die Karte nicht auseinander gebaut werden.
Das einzige was anders ist zu Turing, entgegen Turing, wo wahrscheinlich aufgrund der kurzen Zeit zum Teardown-Verbot unmittelbar vor NDA Fall Teile der Presse ihre Videos schon draußen hatten, war das hier scheinbar schon vorher klar und so hat auch keiner solche Videos veröffentlicht. Und selbst die beiden Vertreter GN + Igor haben das erst NACH offiziellem Release. So wie es jeder auch tun kann, der so ein Teil hat. Bspw. findest du von Roman ein Video zu einer Asus Karte dazu. Und er hat auch ne Gigabyte zerlegt im Video mit der Wakü.

Keine Ahnung wo du da was von Vertrag und Verbot und was auch immer her haben willst!?? Bring doch mal paar Fakten? Wo steht das? Wer sagt das? Und lass den zeitlichen Zusammenhang nicht weg - denn ohne diesen ergibt das nämlich sonst keinen Sinn.

Dies hat nun Steve von GN bestätigt. Warum Don das nun verneint?
K.A. hat er es vollständig gelesen? Bestimmt. Also? Vermutet: Begründung siehe oben. Wie macht Igor es? Fragen wir ihn^^

Natürlich macht Dons Erklärung Sinn, aber nicht 100 %. X Redakteure/Tester hätten die Karte dennoch gerne nach dem Testen auseinandergenommen und gezeigt.
So wie üblich. Haben aber diesmal bis auf zwei alle halt nicht gemacht.
Was Sinn macht und was nicht, lass bitte die Leute selbst entscheiden. ;) Nicht nur ist die Aussage lediglich eine pauschale Behauptung deinerseits - sie ist eben auch dazu völlig falsch.
Kein Plan ob du was auf dem Augen hast, aber Teardown Videos sind jetzt sooo typisch nicht. Und es gibt auch zu Hauf Reviews der Ampere Modelle, wo die Karten offenbar zerlegt gezeigt werden. Das heißt, ein Verbot die Dinger zu demontieren kann es da auch nicht gegeben haben.
Warum und wieso andere keine Karten zerlegen und das für dich in einem YT Video festhalten wäre doch damit auch ganz klar benennbar. Was bringt ein Teardown in x-facher Form? Reichen dir nicht zwei drei Videos dazu? Muss das jetzt Jeder machen?? Computerbase zeigt bspw. ne nakte 3090 von MSI. Andere zeigen je nachdem, auch ihre Hardware ohne Kühler oder mindestens teildemontiert.
Ganz ehrlich, der ausgedachte Kaffee bringt Niemanden weiter. Und macht deine Aussage vor allem total unglaubwürdig, weil du dir ohne Informationen irgendwas aus den Fingern saugst und wilde Theorien aufstellst und die zeitlichen Zusammenhänge (mal wieder) komplett außen vor lässt. Gleichzeitig unterstellst du dem guten Andi noch Lügen zu vertreiben, weil er dir ja nun schon 2x sagte, dass da kein Verbot existiert und du aber irgendwie davon nicht abrücken willst...

Ach und du solltest Igor nicht so niedermachen "palabern sollte"; palavern?
Weil er einer der Wenigen ist die sich kritisch äußern (und auch das Wissen dazu hat), sind wir unwissenden (die Mehrheit) aufgeklärt.
Wenn du dich zu unwissenden zählst - nur zu, ich zähle mich da nicht zu ;) Manchmal hilft schon einfach mal den gesunden Menchenverstand einzuschalten. Aber in 2020 brauchts immer irgendwelche YT Videos und "Stars" der Szene, weil ohne diese ja keiner mehr durchblickt. :stupid: Nix für ungut, Igor macht ne echt tolle Arbeit. Was ich aber nur empfehlen kann ist nicht immer nur irgendwo abzuschreiben oder nach zu plappern was die Lieblinge der eigenen Gunst so von sich geben, sondern einfach selbst mal bisschen informieren/schauen/prüfen/checken/whatever. Da lassen sich viele Infos auch einfach selbst rausfinden. Und man merkt auch sehr schnell, was echt gehauen und gestochen ist.

Mal davon ab, ließ die Aussage nochmal, es ging entgegen deiner Annahme auch um was völlig anderes in diesem Satz. Nämlich darum, dass ein Holzmann einem Igor indirekt eben irgendwelchen Unsinn unterstellt, weil wir alle doch abwarten sollen, bis Igor Holzmanns Aussage bestätigt. Nur hat Igor in einem Video lange schon ein Statement abgegeben - ohne das Zeug was ein Holzmann da gern hat hören wollen. Insofern kommt da sicher nicht noch etwas, was man abwarten muss. Vor allem nicht, wenn es solch ausgedachtes Zeug ohne jegliche Basis ist. Und ja, sorry, "b" und "v" liegen auf der Tastatur nebeneinander, auch meine Wurschtpfoten fingern mal daneben. Entschuldige...

Aber gut, ich leg mich wieder hin. Weitere Diskussionen bringen hier eh nix, da du irgendwie überhaupt nicht verstehen willst, dass da kein Vertrag irgendwas verhindert... Zumindest mein Eindruck ;)
 
War das nicht das große Gegenargument bei Vega, dass man da "selbst Hand anlegen" musste und Nvidia das so toll selbst "out-of-the-box" kann? (It just works)
Aber ja - jede Karte kann manuell optimiert werden - und wenn man den Sweet-Spot gut trifft, verliert man praktisch keine Leistung und spart oderntlich an Strom *oder* man nutzt den gesteigerten Headroom, um an der thermischen Verlustgrenze des Kühlers die Karte am tatsächlichen Limit zu betreiben. Das geht bei allen Karten, die nicht optimal aus der Fab kommen. Nur musst du manuell nachstellen und da erinnere ich mich an den Satz im Wortlaut: "Das machen weniger als 1% der Leute und das muss so laufen ansonsten isses Käse". Stehst du auch heute noch zu dieser Aussage, oder hat sich plötzlich was an deiner Sichtweise geändert?

Klar war es ein Argument gegen Vega, wenn ich das Pendant schon besser out-of-the-box bekomme, ohne dass ich extra noch Hand anlegen muss und sonst keine Vorteile habe. Das gilt auch nicht nur bezogen auf Vega, sondern bei jedem Produkt. Ist doch logisch. Wenn AMD es mit Big Navi schafft diese out-of-the-box besser als die Pendants von Nvidia zu sein, dann ist das klar ein Vorteil für AMD.

Ich bin auch nicht gegen Undervolting oder möchte dies schlechtreden, nur wurde dieses Argument immer und immer wieder pro Vega gebracht und gleichzeitig vollkommen außer acht gelassen, dass man die Pascals ebenfalls undervolten kann. Daher war meine Argumentation immer, dass man nicht optimierte gegen unoptimierte Karten vergleichen soll. Was so gerne bei den Vergleichen Vega64 vs 1080 gemacht wurde oder auch hier bei dem Vergleich zur 2070.

Und hier - "Das machen weniger als 1% der Leute und das muss so laufen ansonsten isses Käse" - sehen wir mal wieder ein klassisches Strohmann Argument. So, wie du es hier darstellst, habe ich dies nie behauptet. Hier unterschlägst du gekonnt den Kontext und zwar, ging es darum, dass Undervolting für die meisten Käufer kein Argument ist, da diese sich damit nicht auskennen oder kein Bock darauf haben, erst stundenlang verschiedene Settings durch zu testen. Es ging nie darum, dass Undervolting an sich Käse ist.


Nochmal der hinweis zur Sample-Size=1
Die AMD-Karten wurden auf 6% bzw 8% undervoltet, die Turing Karte auf 12%

Hier hat jemand die 5700XT auf 1.900MHz @1V betrieben und schlägt damit Turing:
https://www.techpowerup.com/forums/threads/testing-undervolting-with-my-5700xt.258313/

Aber hey, ICH bin ja der jenige der Cherry-Pickt, gell?

Liegt daran, dass du unterschiedliche Vorgehensweisen miteinander vergleichst. Während bei deiner Verlinkung zusätzlich noch Underclocking betrieben wurde, wurde bei dem Test von Computerbase darauf geachtet, den voreingestellten Takt zu halten und so Potential liegen gelassen. See: Das Ziel der Testreihe ist es, die Spannung so niedrig wie möglich einzustellen, ohne an den voreingestellten Taktraten etwas zu ändern.

So gesehen hast du hier schon wieder Cherrypicking betrieben :shot:


Kann ich genauso zurück geben. Die Realitätsverzerrung ist bei den Leuten eh so massiv, dass ich da auch nur noch "Wartet auf die Benches" zu sagen kann. mit Argumenten kommt man hier nicht mehr weit. Falls AMD die 3080 nicht knacken sollte, nehme ich gerne dein "Ich habs dir ja gesagt!" an und akzeptiere. Die Frage ist halt nur, ob du das auch könntest.

Die Frage ist nur, wo ich behauptet habe, dass dies für AMD nicht möglich sei...

Ehrlich gesagt hoffe ich sogar darauf, dass AMD mit Big Navi die 3080 richtig schön nass macht. Mein Basteldrang möchte befriedigt werden, aber wenn man eine 2080ti hat, dann ist eine 3080 nicht wirklich interessant. Von einer 3090 brauchen wir gar nicht erst anfangen :fresse:


Das Prinzip eines Forums ist der austausch von Meinungen, Gedanken und Ansichten. Wenn die sich unterscheiden, gibt es einen Diskurs. Das Resultat von diesem kann eine Erweiterung der Sichtweise sein, muss es aber nicht. Je nachdem man offen für neue Informationen ist.

Darum geht es hier irgendwie den wenigsten Leuten, sondern eher nur noch um -> Ne mein Lieblingshersteller ist cooler und besser als dein doofer Hersteller
Daher bin ich hier auch kaum noch aktiv. Man liest immer wieder nur den gleichen Müll. Irgendwer denkt sich irgendweche Verschwörungen aus und die Anhänger des selben Vereins labern dies ohne darüber nachzudenken einfach nur nach. Am lächerlichsten sind die Hampelmänner mit angeblichen Kontakten zu Insidern, die gezielt mit jeder Voraussage daneben greifen..


Je nachdem wann du gekauft hast, ging die Vega gegen die 1080Ti - und die hat 800€ statt 400€ gekostet. Gut, wer Geld scheißt, dem kann das egal sein, aber ich denke mal die meisten Leute gucken schon auf das Preisschild.

Vega hat eine 1080ti nie wirklich erreicht. Eine Vega64 hat nur die 1080 erreicht und dabei haben die sich preislich nicht viel getan, außer mit diesen komischen Tricks zum Start, mit den limitierten Radeon Packs oder wie sich das damals geschimpft, hat war die Vega64 preislich besser gestellt.
 
Und dann betreibst du das gleiche Tuning bei einer 2070 und die Vega ist so schlecht wie zuvor 🤷‍♂️
Geht leider nicht, ich hatte einige (genau 3stk!) 2070 in der Hand, Spannung gesenkt und die Performance steigt kaum mehr als 5% und maximal ließen sich ~ 20W einsparen, bei meiner Vega sind es über 100W und 15% Performance oben drauf, selbst mit Optimierungen war die 2070 nicht wirklich schneller, da ne stock vega64 in einigen games schon schneller war. Das Potential bei Vega war/Ist um lichtjahre höher als bei nvdia und wenn ich meine Vega mit 0,95V betreibe dabei im mittel 150W verbrate und an eine 2070 Dran komme oder teilweise schneller bin, ist das für eine 1,5jahre ältere Architektur doch schon ordentlich!
 
Klar war es ein Argument gegen Vega, wenn ich das Pendant schon besser out-of-the-box bekomme, ohne dass ich extra noch Hand anlegen muss und sonst keine Vorteile habe. Das gilt auch nicht nur bezogen auf Vega, sondern bei jedem Produkt. Ist doch logisch. Wenn AMD es mit Big Navi schafft diese out-of-the-box besser als die Pendants von Nvidia zu sein, dann ist das klar ein Vorteil für AMD.
Gut - da sind wir einer Meinung und ich sehe das dann als geklärt an.

Ich bin auch nicht gegen Undervolting oder möchte dies schlechtreden, nur wurde dieses Argument immer und immer wieder pro Vega gebracht und gleichzeitig vollkommen außer acht gelassen, dass man die Pascals ebenfalls undervolten kann. Daher war meine Argumentation immer, dass man nicht optimierte gegen unoptimierte Karten vergleichen soll. Was so gerne bei den Vergleichen Vega64 vs 1080 gemacht wurde oder auch hier bei dem Vergleich zur 2070.
Wäre alles schön und gut, wenn da nicht 30% Perf/W auf der Straße gelegen hätten. Das hat die Vega zu einem "Undervolters Dream" gemacht und ist sie gewissermaßen heute noch. Die V64 landete am Ende zwischen der 1080 und der 1080Ti (stock) und wem das genug war, der hatte mit 400€ eine gute Investition gemacht.

Was du aber meinst ist die abolute Leistungskrone. In dem Sinne hätte auch niemand die 5700XT kaufen dürfen - die hat sich aber gut verkauft - obwohl sie 1 Jahr nach Turing kam.

Und hier - "Das machen weniger als 1% der Leute und das muss so laufen ansonsten isses Käse" - sehen wir mal wieder ein klassisches Strohmann Argument. So, wie du es hier darstellst, habe ich dies nie behauptet. Hier unterschlägst du gekonnt den Kontext und zwar, ging es darum, dass Undervolting für die meisten Käufer kein Argument ist, da diese sich damit nicht auskennen oder kein Bock darauf haben, erst stundenlang verschiedene Settings durch zu testen. Es ging nie darum, dass Undervolting an sich Käse ist.
Ich kann mich noch ziemlich gut daran erinnern, dass du mir damls beim Vega-Tuning Faden einen Strick draus drehen wolltest, dass niemand undervolting betreibt und alle meine Ergebnisse, egal wie sie aussehen - irrelevant wären, weil den Markt nicht interessiert was das Shevchen so mit seiner Karte betreibt.

Jetzt verlinkst du einen undervolting Guide für Ampere. Merkste selbst, ja?


Liegt daran, dass du unterschiedliche Vorgehensweisen miteinander vergleichst. Während bei deiner Verlinkung zusätzlich noch Underclocking betrieben wurde, wurde bei dem Test von Computerbase darauf geachtet, den voreingestellten Takt zu halten und so Potential liegen gelassen. See: Das Ziel der Testreihe ist es, die Spannung so niedrig wie möglich einzustellen, ohne an den voreingestellten Taktraten etwas zu ändern.

So gesehen hast du hier schon wieder Cherrypicking betrieben :shot:
Lies noch mal ganz gemütlich mit nem Tee/Kaffee den Link den ich gepostet habe. 1.900MHz sind >stock bei gleichzeitig niedrigerer Spannung. Ich lasse das jetzt einfach mal als Unachtsamkeit gelten und halte mich mal zurück. Und ja, genauso wie bei CB die beiden Einzelsamples N=1 sind, ist auch das Beispiel was ich gepostet habe. Und wenn ich bei N=1 eine Tabelle nach Perf/W aufstelle, können extreme Streuungen von Karte zu Karte auftreten - was dann darin endet, dass ne 5700Xt mal besser oder schlechter performt als Turing (ebenfalls getuned)


Die Frage ist nur, wo ich behauptet habe, dass dies für AMD nicht möglich sei...

Ähm... *hüstel* Ich zitiere:
Achja und nur aufgrund der Wunschvorstellungen eines AMD Fans, brauch sich da niemand wirklich Sorgen zu machen. lol

Darum geht es hier irgendwie den wenigsten Leuten, sondern eher nur noch um -> Ne mein Lieblingshersteller ist cooler und besser als dein doofer Hersteller
Daher bin ich hier auch kaum noch aktiv. Man liest immer wieder nur den gleichen Müll. Irgendwer denkt sich irgendweche Verschwörungen aus und die Anhänger des selben Vereins labern dies ohne darüber nachzudenken einfach nur nach. Am lächerlichsten sind die Hampelmänner mit angeblichen Kontakten zu Insidern, die gezielt mit jeder Voraussage daneben greifen..
Mir würde es ja schon reichen, wenn einige Leute ihren Beißreflex einstellen würden. Es ist richtig, dass Nvidia bei mir unten durch ist - heißt aber nicht, dass ich nicht auch AMD für verbockten mist kritisieren kann. Gäbe es 3D FX noch, würde das Forum anders aufgespalten sein. ;)



Vega hat eine 1080ti nie wirklich erreicht. Eine Vega64 hat nur die 1080 erreicht und dabei haben die sich preislich nicht viel getan, außer mit diesen komischen Tricks zum Start, mit den limitierten Radeon Packs oder wie sich das damals geschimpft, hat war die Vega64 preislich besser gestellt.
Zwischen 1080 und 1080Ti. Ich habs auf meinem Sample mit biegen und brechen nicht ganz an die 1080Ti geschafft. Andere hatten da mehr Glück. Nur konnte die Vega auch gleichzeitig noch ne Menge Compute und war mit 400€ zum Release-Tag ein Schnapper. Ne Woche später war sie ausverkauft, weil da der Mining-Boom losging.
 
Zwischen 1080 und 1080Ti. Ich habs auf meinem Sample mit biegen und brechen nicht ganz an die 1080Ti geschafft. Andere hatten da mehr Glück. Nur konnte die Vega auch gleichzeitig noch ne Menge Compute und war mit 400€ zum Release-Tag ein Schnapper. Ne Woche später war sie ausverkauft, weil da der Mining-Boom losging.
Wo und bei wem konntest Du denn eine Vega64 für 400€ kaufen? Unter 600€ habe ich nichts gefunden.
Screenshot (11).png


Jo, vielleicht im Firestrike bist Du an eine GTX 1080Ti FE rangekommen. Wenn dann mußt Du schon mit einer GTX 1080Ti oc vergleichen.
In dem alten Benchmark knacken die VII/GTX 1080Ti oc eine RTX 2080Ti FE stock.
 
Zuletzt bearbeitet:
Mindfactory - wenn ich mich recht erinnere war der Special Deal zum Release 429€
-------------------------------------------
edit: PS: Hab grad nochmal nachgeguckt - war wohl doch eher 609€? Ich werde alt.

Keine Ahnung wie ich auf 429 gekommen bin. Vega 56 News-Zeugs?

Jo, vielleicht im Firestrike bist Du an eine GTX 1080Ti FE rangekommen. Wenn dann mußt Du schon mit einer GTX 1080Ti oc vergleichen.
In dem alten Benchmark knacken die VII/GTX 1080Ti oc eine RTX 2080Ti FE stock.
Da ich nur ein 72Hz 1080p Panel hatte war mir das recht egal. ;) Jetzt hab ich hier 4k zu stehen und ich warte auf BN. :)
Die Vega64 wurde auch nur gekauft, weil mir ne woche vorher meine treue 7970 abgeraucht ist (möge sie in Frieden ruhen)
 

Anhänge

  • vega.png
    vega.png
    6,5 KB · Aufrufe: 83
Zuletzt bearbeitet:
Der Aufruf zum Abwarten klingt mir nach dem typischen Strohhalmgriff :lol:

Ok also hatte Gelegenheit mit einem Produktentwickler zuzusprechen, der hält die max 110 Grad für die RAM max temp auf Dauer für bedenklich, speziell wenn man die aktuellen Lotweisen betrachtet. Ob die Verlötugen bzw die Chips auf Dauer die Temperatur aushalten wird sich zeigen. Speziell das aktuelle umweltfreundliche Lotverfahren sorgt später oft für immer stärkere Probleme bei den Lötstellen. Hoffe so ist es etwas deutlicher geworden. ;)
 
Hab ich 0 gewählt, oder warum meldest du dich? :d
 
.......
Ging ja hierbei nicht ums Kaufen. Alle Redakteure/Tester haben diese vor dem Launch erhalten.
Ja, könnte bei Gamernexus so stimmen. Deren Dominanz ist so groß, die könnten solche Bedingungen stellen oder die Karte von irgendeinem Händer/Distributor erhalten.
Aber Igor?
,,,,,,,,,,

Vertuhe Dich mal nicht wieweit Igor seine Tentakel ausstrecken kann, nur ganz wenige habe solche Connections wie er in die Kreise
 
Geht leider nicht, ich hatte einige (genau 3stk!) 2070 in der Hand, Spannung gesenkt und die Performance steigt kaum mehr als 5% und maximal ließen sich ~ 20W einsparen, bei meiner Vega sind es über 100W und 15% Performance oben drauf, selbst mit Optimierungen war die 2070 nicht wirklich schneller, da ne stock vega64 in einigen games schon schneller war. Das Potential bei Vega war/Ist um lichtjahre höher als bei nvdia und wenn ich meine Vega mit 0,95V betreibe dabei im mittel 150W verbrate und an eine 2070 Dran komme oder teilweise schneller bin, ist das für eine 1,5jahre ältere Architektur doch schon ordentlich!

Es gibt ein paar wenige Ausnahmen, wo eine Vega64 wirklich schneller als eine 2070 ist. Overall ist eine 2070 aber so gute 10% schneller als eine Vega64.

Ich glaube dir deine aufgelisteten Werte zu deiner Vega64 nicht einmal im entferntesten. Vielleicht gibt es in irgendeinem tiefroten Universum einen Planeten mit roter Erde und roter Atmosphäre, wo man diese eine Perle der Perlen finden kann. Doch welche Relevanz haben diese utopischen Werte, wenn diese nur wenige Vegas überhaupt erreichen könnten und damit stabil laufen könnten??


Ich kann mich noch ziemlich gut daran erinnern, dass du mir damls beim Vega-Tuning Faden einen Strick draus drehen wolltest, dass niemand undervolting betreibt und alle meine Ergebnisse, egal wie sie aussehen - irrelevant wären, weil den Markt nicht interessiert was das Shevchen so mit seiner Karte betreibt.

Jetzt verlinkst du einen undervolting Guide für Ampere. Merkste selbst, ja?

Undervolting ist für viele immer noch uninteressant, weil die sich nicht damit auskennen und auch keinen Bock haben, sich damit auseinanderzusetzen. Daher ist es schon ziemlich irrelevant was ein Shevchen da mit seiner Karte so betreibt. Dabei ist es auch vollkommen egal, ob Shevchen sich da gerade mit einer Vega oder einer Ampere beschäftigt. Ein weiterer Grund ist auch, dass die Werte eines Shevchens nicht einfach so übernommen werden können, da nicht alle Karten gleich sind und die Leute auch unterschiedliche Anforderungen an die Stabilität der Karte haben.

Aber warum versuchst du mir jetzt zu unterstellen, dass ich dies bei Ampere als relevanten Punkt für den Markt sehe?
Ich bin damit einfach nur auf deine Behauptungen eingegangen, dass die Mehrleistung einfach nur durch mehr Strom erkauft wurde oder dass durch eine Reduzierung der Spannung bei Ampere keine Leistung gewonnen werden kann, die du zuvor in Posts aufgestellt hast. Die Relevanz für den Markt steht doch garnicht zur Debatte..


Lies noch mal ganz gemütlich mit nem Tee/Kaffee den Link den ich gepostet habe. 1.900MHz sind >stock bei gleichzeitig niedrigerer Spannung. Ich lasse das jetzt einfach mal als Unachtsamkeit gelten und halte mich mal zurück. Und ja, genauso wie bei CB die beiden Einzelsamples N=1 sind, ist auch das Beispiel was ich gepostet habe. Und wenn ich bei N=1 eine Tabelle nach Perf/W aufstelle, können extreme Streuungen von Karte zu Karte auftreten - was dann darin endet, dass ne 5700Xt mal besser oder schlechter performt als Turing (ebenfalls getuned)

Ok, ich wusste nicht, dass AMD für die XT einen Boost von 1900 angibt. Ich habe mich da von den Angaben aus deiner Verlinkung verleiten lassen, da der Dude dort für seine Referenzkarte 2000MHz als Stock deklariert hat. ABER da ich mir die Verlinkung jetzt genauer angeschaut habe, ist mir auch direkt der nächste Punkt aufgefallen, warum ich dies weitr als Cherrypicking betiteln kann. Der Dude verlässt sich nur auf die Angaben von Tools, während CB die Werte von der Garfikkarte misst. Bei den Angaben von dem Dude aus deiner Verlinkung muss also noch der Verbrauch für den Speicher berücksichtigt werden, da AMD nur den Verbrauch der GPU ermittelt ohne den Speicher zu berücksichtigen. Mit den dort genannten 20W sehe ich nicht, wie die XT die 2070 schlagen soll. Hast du dies auch berücksichtigt?


Ähm... *hüstel* Ich zitiere:

Ich weiß selber, was ich geschrieben habe. Bin noch nen bissel jünger. Keine Sorge, leide noch nicht an Alzheimer oder so. Du brauchst mir also nicht aufzeigen, was ich geschrieben habe :fresse:

Dann betrachte aber noch einmal den ganzen Part da. Ich habe da nur versucht deinen Optimismus etwas einzudämpfen, da du da schon sehr vom optimalen Fall ausgehst. Meine Worte waren ja auch, dass man halt mal schauen muss, wie sehr Big Navi getreten werden muss, um an die vorgelegte Leistung von Ampere heranzukommen.


Zwischen 1080 und 1080Ti. Ich habs auf meinem Sample mit biegen und brechen nicht ganz an die 1080Ti geschafft. Andere hatten da mehr Glück. Nur konnte die Vega auch gleichzeitig noch ne Menge Compute und war mit 400€ zum Release-Tag ein Schnapper. Ne Woche später war sie ausverkauft, weil da der Mining-Boom losging.

Nein, nur auf dem Niveau einer 1080 und nicht darüber. Außer man bedient sich wieder der unfairen Betrachtungsweise, wo eine optimierte V64 gegen eine unoptimierte 1080 gestellt wird. Aber das deine Angabe zu dem Preis ja nicht stimmt, hast du ja selber bemerkt.


Ok also hatte Gelegenheit mit einem Produktentwickler zuzusprechen

Jetzt einmal ganz im Ernst. Glaubst du auch wirklich nur im entferntesten daran, dass dir das hier irgendwer - außer halt deinem Kumpane Bernie - glauben würde?
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh