Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

Optimiert vs Optimiert und OC vs OC nehmen sich 2000er und 3000er quasi nichts bei der Effizienz, so zumindest meine Einschätzung anhand der detaillierten TimeSpy Ergebnisse. Lediglich AMD hat "RTX off" einen Effizienzvorsprung von ~20-25% im Timespy.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Ohne UV sind imho alle RTX30XX eine Katastrophe was Effizienz angeht.
 
mhh, da steht immer noch 6 verfügbar. aber warenkorb oder so gibts nicht
Ja, hat mich auch schon die ganze Zeit irritiert.
Sei froh - ich hatte auch kurz das Netzteil und Coil Whine vom Feinsten mit meiner 3090er GPU. Danach Seasonic Prime 1300 geholt und kein Geräusch mehr (mit gleicher GPU).
Das Fractal? Interessant. Bei Bewertungen liest du zu dem Netzteil aber auch das Gegenteil. Könnte ein Montagsgerät gewesen sein.
 
Das ist aber ne Meinung, kein Fakt.
Fakt ist, dass die 3000er +- so effizient sind wie die 2000er.
Das Problem ist viele kennen nicht oder verstehen nicht den Unterschied zwischen Verbrauch und Effizienz.
 
Das Problem ist viele kennen nicht oder verstehen nicht den Unterschied zwischen Verbrauch und Effizienz.
Das sind die gleichen Leute die sich beschweren dass ein Ferrari mehr Durst hat als ein Golf :rolleyes:

Und da sind wir wieder beim Energieerhaltungssatz:
Alles was irgendwo rauskommt muss irgendwo rein.
Ob Strom oder Benzin ist egal. Wenn ich Leistung Abrufe muss ich Energie reinstecken.

Dazwischen gibt's dann noch die Effizienz, wie viel Energie kann so umgewandelt werden wie ich will und wie viel Verlust in Form von Wärme habe ich?
(Allein Ne Heizung ist knapp 100% effizient)
 
Das ist aber ne Meinung, kein Fakt.
Fakt ist, dass die 3000er +- so effizient sind wie die 2000er.
1625993802457.png

Du meint so +- 20%? Steckt man in eine Ampere genau soviel Energie wie in eine Turing, kommen +20% FPS raus.
Nix mit gleicher Effizienz.
 
Anhang anzeigen 648837
Du meint so +- 20%? Steckt man in eine Ampere genau soviel Energie wie in eine Turing, kommen +20% FPS raus.
Nix mit gleicher Effizienz.
Ich find den Test bzw die Darstellung schwierig, da die 3080 krass untervolted wurde (OEM TDP 320W), während die 2080ti leicht OCed wurde (OEM TDP 250-260W).

Dazu kommt, dass die 3080 durch den größeren Chip sehr viel mehr Rohpower hat.

Mir fehlt für den Test eine 3070 dabei, und dann normiert auf 220 oder 250w, bzw. Beide Stock und Normiert in FPS/W. So ist es für mich eher "Lügen mit Statistik".

@Beercules
ich bin nur der Erklärbär.
Prof? Nee, nee lass Mal.
 
Die bekomm ich nicht mehr oder? Bestellt am 06.07.
 

Anhänge

  • 0C9AD75B-B803-4C52-959B-3606EECDAD0D.png
    0C9AD75B-B803-4C52-959B-3606EECDAD0D.png
    102,1 KB · Aufrufe: 280
Hier mal das GPU Factory Tour bei Zotac, das wird aktuell auch nicht großartig anders laufen, GPU-Test so ab 4:30.


Ein faszinierendes Video! Ich weiß nicht wieso, aber ich war sehr überrascht wie viele Schritte da noch manuell sind.
 
Anhang anzeigen 648837
Du meint so +- 20%? Steckt man in eine Ampere genau soviel Energie wie in eine Turing, kommen +20% FPS raus.
Nix mit gleicher Effizienz.

Sehe da auch keinen sinnvollen Effizienz-Vergleich mit der Vorgängergeneration. Stock 3080 vs hochgeschraubte 2080 Ti?
 
Ich find den Test bzw die Darstellung schwierig, da die 3080 krass untervolted wurde (OEM TDP 320W), während die 2080ti eher OCed wurde.

Dazu kommt, dass die 3080 durch den größeren Chip sehr viel mehr Rohpower hat.

Mir fehlt für den Test eine 3070 dabei, und dann normiert auf 220 oder 250w, bzw. Beide Stock und Normiert in FPS/W.
Die 2080TI war bei Turing schon die effizienteste Karte. Die +20Watt aus dem Schaubild sind natürlich als OC zu werten, wodurch die Effizienz wahrscheinlich auch minimal abnimmt. Es werden in dem Bereich aber keine 5% sein.
Am Ende ist es auch egal, wie groß der Chip ist. Du hast das ja mehr oder weniger selbst gesagt, das Verhältnis von Input (Energie) zu Output (FPS) beschreibt die Effizienz. Ob dazwischen jetzt 10000 Shader liegen oder 5000 die man vergleicht ist erstmal egal. An der Gleichung ändert sich nichts.
Um jetzt den Generationsvergleich Ampere vs. Turing am besten zu beantworten, müsstest du die effizienteste Chip-Konfiguration aus Turing vs. die effizienteste Chip-Konfiguration aus Ampere gegenüberstellen und beide im absoluten Sweetspot betreiben. Vermutlich wäre das 3070 bei 150Watt vs. 2080Ti bei knapp 220Watt.
 
müsstest du die effizienteste Chip-Konfiguration aus Turing vs. die effizienteste Chip-Konfiguration aus Ampere gegenüberstellen und beide im absoluten Sweetspot betreiben.
Exakt, so sehe ich das auch. Oder eine Effizienz-Analyse über den gesamten Spannungs-/Verbrauchsbereich (Igor hatte da was Tolles für die 2080 TI vs 1080 Ti - eben jenes um 3070/3080/3090 und 6800/6900 (XT) erweitern wäre super @Igor THG ;) )
1625996175566.png

Ich habe mich bisher an den TimeSpy Resultaten für ~1800 MHz @0.8V orientiert - da sollten die Karten sehr Nahe am Sweetspot arbeiten. Und genau hier tut sich nichts zwischen Ampere-Turing.
 
Dafür dass Ampere 8nm ist und Turing 12nm finde ich Perf/Watt schon gut erbärmlich, aber ich weiss gerade nicht ausm Kopf wie gut Samsung 8nm ist. Ich glaube die sind relativ schlecht und was auch immer Nvidia danach nehmen wird (7nm TSMC oder 5nm oder was auch immer) wird bestimmt einen gigantischen Perf/Watt Sprung machen (müssen).

Ich glaube die 30er Karten, besonders die Modelle ab 3070 Ti brauchen halt auch sehr viel wegen GDDR6X und arbeiten nicht auf peak efficiency und sind ein bisschen überzüchtet wegen der AMD Konkurrenz. Wenn man sich anschaut wo die 6800XT und 6900XT sich anreihen in der standard Rasterization performance dann kann man schon behaupten, dass Nvidia das gut "eingeschätzt" :whistle: hat wo AMD sich positionieren wird mit RDNA2.
 
Ich habe mich bisher an den TimeSpy Resultaten für ~1800 MHz @0.8V orientiert - da sollten die Karten sehr Nahe am Sweetspot arbeiten. Und genau hier tut sich nichts zwischen Ampere-Turing.
Ich denke nicht das bei Ampere die Shader-Effizienz abgenommen hat, wenn auch die Architektur sich deutlich geändert hat. Angenommen es wäre im Sweetspot identisch, wenn du das ganze also auf das Minimum herunter gebrochen hast, vergleichst du im Endeffekt TSMC's 12nm FinFET vs Samsung's 8nm LPP. Das Samsungs 8nm mehr Marketing sind als alles andere, ist ja bekannt.
 
Ich hatte mich jetzt vor allem auf die 3080 konzentriert (wegen vergleichbarem Speicherausbau/Big Chip). Mit der 2080 Ti lande ich bei 1770@0.800V (8000 Speicher) bei 14.500 GPU Score im TS, Verbrauch dabei zwischen 180-190W (Peak knapp über 200W). Verglichen habe ich das mit den (Lukü!) Werten im CB. Und da sehen die Punkte/Watt im Sweetspot sehr ähnlich aus.

Natürlich sehr eingeschränkte Aussagekraft, da 2 Modelle und nur ein Benchmark.
 
Saturn hat Humor.
Die war letzte Woche bei 1049€, was auch zu viel ist im Vergleich zur normalen Strix aber warum geht der Preis noch hoch und gleichzeitig suggeriert man einen Rabatt? 😆
 

Anhänge

  • Screenshot_20210711-114439834 (1).jpg
    Screenshot_20210711-114439834 (1).jpg
    127,2 KB · Aufrufe: 287
Uralter Marketing-Trick.
Sicher aber MMS hatten in der Vergangenheit abgesehen von Equippr die niedrigsten Preise. Da finde ich es ungewöhnlich, dass sie den Preis plötzlich deutlich nach oben setzen.
 
Leichte Anhebungen hat's bei MMS auch schon gegeben, aber, jetzt sehe ich erst dass es die 3070 Ti ist... muss Dir doch zustimmen, das ist ungewöhnlich. Und, überhaupt, wer zahlt denn den Preis für eine 3070 Ti...
 
Leichte Anhebungen hat's bei MMS auch schon gegeben, aber, jetzt sehe ich erst dass es die 3070 Ti ist... muss Dir doch zustimmen, das ist ungewöhnlich. Und, überhaupt, wer zahlt denn den Preis für eine 3070 Ti...
230€ mehr wie die normale 3070, die man aktuell kaufen kann.
Du hattest gedacht das wäre ne 3080?
 
Du meint so +- 20%? Steckt man in eine Ampere genau soviel Energie wie in eine Turing, kommen +20% FPS raus.
Nix mit gleicher Effizienz.
Das Zahlenwerk stimmt die 30er sind auch weit weg von einer Katastrophe, aber sind nunmal kein riesiger Fortschritt. 20% mehr fps bei gleichem Verbrauch, will man nennenswerte Leistungssteigerung, muss man den Verbrauch anheben. Nennenswert=Verdopplung.
Schon haben wir "die Katastrophe" Stromverbrauch in der Praxis, völlig unabhängig von der (leicht) verbesserten Effizienz.
Das der Verbrauch spürbar höher liegt, merkt man nicht zuletzt an der doch recht intensiven Diskussion "welches NT den jetzt taugt". Etwas das ich von meiner Pascal GPU so gar nicht kenne.
 
ASUS Shop mit nem sehr guten Preis für die TUF 3090 non OC. (Glaube eher die haben vergessen vorher den Preis anzupassen :lol: )

1626006696027.png


Bin mal gespannt ob das so durchgeht..
 
230€ mehr wie die normale 3070, die man aktuell kaufen kann.
Du hattest gedacht das wäre ne 3080?

Auf den ersten Blick, ja. Mag nur 230 mehr sein, aber dann würde ich noch ein bisschen dazu geben und gleich eine 3080 nehmen.

Aber meine Betrachtung ist rein funktional! Kann durchaus verstehen wenn jemand ein bestimmtes Modell in einer bestimmten Farbe sucht, auch wenn es etwas mehr kostet.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh