Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

nehm ich auch (y)
Aber warte...der Platz dafür.. argh...8-)
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Überdurchschnittlich positiv waren in der Hinsicht tatsächlich die Ref Karten von Gainward, Palit etc.

Zumindest was Spulenfiepen angeht kann ich das für meinen Einzelfall sogar bestätigen. Die Gainward war komplett ruhig (da haperte es an anderen Sachen), FE war nicht lästig aber hörbar und FTW3 fiept nur wenn man sie tritt. Strixen mit heftigem Fiepen kenne ich aus dem näheren Bekanntenkreis sogar 3 mittlerweile, zwei 3080 und eine 3070.
 
50% mehr Takt sind weder bei CPUs noch bei GPUs auch gleichzeitig 50% mehr Leistung - und waren es auch nie. So eine Skalierung gibt es schlicht nicht.

Davon abgesehen stimmen auch die 50% Takt bei der 980 Ti, wie schon erwähnt, nicht mal im Ansatz:

Jedes x-beliebige Partner Model boostete mindestens auf 1150-1250 MHz. Manche (ohne großen Aufpreis) auch auf lockere 1350+ Mhz. Wenn man 1200-1250 Mhz als Basis nimmt (was deutlich sinnvoller ist, weil mit Boost etc. in der Praxis keine Karte der Welt mit 1000 Mhz lief) und mit nem golden Sample @ Wakü auf 1500 MHz vergleicht (was schon nicht gerade fair ist) sind es schon gleich mal nur noch 20% mehr Takt und ca. 15% mehr Leistung (also fast das, was ich jetzt mit 3090 durch UV und via Curve auch raushole). Soviel zum Thema.



Komme auch von ner 2080 Ti und habe es keine Minute bereut. Die 2080 Ti war deutlich wärmer, ineffizienter und lahmer.



Wenn man sich mit 60 Hz Gaming auf nem 4k Monitor zufrieden gibt dann stimmt das wohl. Aber befüttere mal nen WQHD Monitor mit 270 Hz (oder bald 360 Hz) mit entsprechenden Fps. Da biste selbst mit nem 12900k @ OC im CPU Limit und man merkt Ram OC mehr als deutlich.


50% mehr Takt bei GPUs waren gerundet 50% MOAR fps. (y) Das kam schon gut hin.

Und nein, es boostete nicht jedes beliebige Parntermodell über stock-MHz:
1649229267541.png


3090 vs 2080Ti, 40fps vs 60fps. Das haut nun wirklich nicht vom Hocker, also shice vs shice. :o Am besten sind Umstiege bei +100% mehr performance. Erst da geht einer up.(y) 40fps vs 80fps -> top. Bittet die 3090 vs 2080Ti aber kaum.

Du wirst auch heute mit einer 3090 bei "alten" Spielen im GPU limit landen. Lässt sich nicht immer verhindern. Wer nur solche Spiele spielt, der hats dann nicht anders verdient. Also reden wir von GPU limitierten Spielen, aktuelle AAA games von mir aus, die fordern auch in UWQHD die 3090 dicke.
Für 4k mit raytracing und alles maxed/ultra, ist auch die 3090 zu lahm (überwiegend <100fps). Also schön GPU limit, was auch in Ordnung ist und dafür ist die Karte auch gut. Streng genommen sind wir noch nicht mal bei angenehmen 4k gaming (überwiegend +100fps) angekommen. (y) Und weil die Hersteller +50% OC nicht mehr erlauben, bleibt es eben ein Krücken-Update. :o

Bei Dickschiff GPUs über Effizienz zu reden ist sowieso sinnlos, auch Lambos saufen dick und werden warm wenn man sie tritt. Für Effizienz kauft man sich besser einen Dacia. :o

Alles qool, how rain.
 
Zuletzt bearbeitet:
Boosting und OC hin oder her, das Hauptproblem bei den "Dickschiff GPUs" der Ampere-Serie ist doch eher, dass der GA102 einfach schon totgeritten wurde noch und nöcher.

die Topmodelle der letzten Generationen hatten auf der "x80ti" immer einen anderen Chip mit dickerem Speicherinterface etc. 980ti, 1080ti, 2080ti, gleiches Spiel.

Wenn man die 3080-12 dazurechnet gibts aktuell fünf(!) Modelle die auf dem GA102 rumreiten. Und wer hätts gedacht, die Ampere-Modelle mit dem besten P/L-Verhältnis (zur UVP) sind immer die die auf den nächsthöheren Chip gehen (3050 logischerweise, 3060ti, 3080). Ergibt ja Sinn dass da mit Custom-OC irgendwann nix mehr kommt wenn der Hersteller schon alle Schrauben anzieht wie's geht.
 
Boosting und OC hin oder her, das Hauptproblem bei den "Dickschiff GPUs" der Ampere-Serie ist doch eher, dass der GA102 einfach schon totgeritten wurde noch und nöcher.

die Topmodelle der letzten Generationen hatten auf der "x80ti" immer einen anderen Chip mit dickerem Speicherinterface etc. 980ti, 1080ti, 2080ti, gleiches Spiel.

Wenn man die 3080-12 dazurechnet gibts aktuell fünf(!) Modelle die auf dem GA102 rumreiten. Und wer hätts gedacht, die Ampere-Modelle mit dem besten P/L-Verhältnis (zur UVP) sind immer die die auf den nächsthöheren Chip gehen (3050 logischerweise, 3060ti, 3080). Ergibt ja Sinn dass da mit Custom-OC irgendwann nix mehr kommt wenn der Hersteller schon alle Schrauben anzieht wie's geht.
Wobei das aus Herstellersicht doch absolut nachvollziehbar ist? Potenzial, das nicht bepreist und verkauft wird, ist totes Kapital. Also wenn ich der 3080 noch eine 3080Ti nachschieben kann und die auch noch gekauft wird, dann hat NVidia alles richtig gemacht und wird (muss) dies auch immer wieder tun. Alles andere wäre den Shareholdern gegenüber nicht zu erklären.

Daher verstehe ich den Frust darüber generell nicht. Im aktuellen Lineup war für mich der einzige Faux Pas, dass die 3080 nicht bereits ursprünglich mit 12GB VRAM gekommen ist und dass es statt dessen bspw. die 3060 mit 12GB gibt.
 
Am Ende der Generation kann man sagen, dass die early adopter der 3090 alles richtig gemacht haben, auch wenn sie direkt zu Beginn belächelt wurden.
 
Am Ende der Generation kann man sagen, dass die early adopter der 3090 alles richtig gemacht haben, auch wenn sie direkt zu Beginn belächelt wurden.
Jup und alle die jetzt 3090 und 3090ti kaufen sollten mit Grund belächelt werden :P Weil die Karte nach 1 1/2 Jahren auf dem Markt teurer erstanden wird als von den early adoptern die wirklich lange Zeit jetzt die beste Karte hatten.
 
Generell ist Ampere (hat Slipknot ja schon angerissen) halt noch nicht die Sweetspot-Generation wenn man wirklich 4k spielen will und seine Karte länger behalten will.

Man vergisst gerne dass natives 4k nochmal 66% mehr Pixel sind als 21:9 1440p. Spiele die also im dreistelligen Bereich sind auf 3440x1440 (was ja echt schon sportlich ist) pendeln sich also gerne mal im Bereich von 60-70fps ein auf 4k, aber das ist halt selbst mit einer 3090 auf Kante genäht weil man immer mal Titel wie Cyberpunk hat die nicht sehr ressourcenschonend sind und diese 60-FPS-Grenze (teils deutlich) unterbieten. Wer aktuell (UW)QHD mit ner 3080/80ti/90 fährt macht alles richtig, aber Leuten denen jetzt in 2022 einfällt dass sie Bock auf ein 4k-Panel haben sollte man eher zur Geduld raten weil die kompromissloseren 4k-Karten eben dieses Jahr noch rauskommen.
 
Generell ist Ampere (hat Slipknot ja schon angerissen) halt noch nicht die Sweetspot-Generation wenn man wirklich 4k spielen will und seine Karte länger behalten will.

Man vergisst gerne dass natives 4k nochmal 66% mehr Pixel sind als 21:9 1440p. Spiele die also im dreistelligen Bereich sind auf 3440x1440 (was ja echt schon sportlich ist) pendeln sich also gerne mal im Bereich von 60-70fps ein auf 4k, aber das ist halt selbst mit einer 3090 auf Kante genäht weil man immer mal Titel wie Cyberpunk hat die nicht sehr ressourcenschonend sind und diese 60-FPS-Grenze (teils deutlich) unterbieten. Wer aktuell (UW)QHD mit ner 3080/80ti/90 fährt macht alles richtig, aber Leuten denen jetzt in 2022 einfällt dass sie Bock auf ein 4k-Panel haben sollte man eher zur Geduld raten weil die kompromissloseren 4k-Karten eben dieses Jahr noch rauskommen.
Macht halt aber die "Vorteile" der 3090 eigentlich auch wieder hinfällig da man in WQHD mit den 10GB RAM der 3080 eigentlich ganz gut bedient ist für die nächsten 2 - 3 Jahre. Zur not halt die 3080ti kaufen wenn man auf nummer sicher gehen möchte und wirklich bis zur 50er Serie die Karte hält.

Ansonsten AMD Karten sind auch nicht verkehrt ;) und haben alle passenden Speicher für die Leistung. Bin sehr zufrieden mit der 6800XT und kann ganz entspannt abwarten was bei der 40er Serie kommt, da die Karte quasi keinen Wertverlust hat und zur not schnell gegen eine 4080 oder ähnliches getauscht ist. Wenn die Preise nicht stimmen hab ich auf jeden fall genug Power und Speicher für die nächsten Jahre WQHD Gaming und das für weniger als die Hälfte der 3090 ;)
 
Bei AMD-Karten hatte ich zum Zeitpunkt des PC-Kaufs halt das gleiche Problem wie mit den Prozessoren. Die haben sich durch die Lieferschwierigkeiten ihr eigentlich besseres P/L verhagelt weil die Sachen im Retail dann auf einmal unsinnig teuer waren. Speziell die 6800xt. Gute Karte die sich nicht vor der 3080 verstecken braucht, aber wenn die (wie im Herbst) auf einmal 1250€ kosten soll als Custom-Modell geht man halt lieber zu Team Grün am Ende vom Tag. Die AMD Ref-Shitshow wollte ich mir zu keinem Zeitpunkt geben, das war ja noch schlimmer als NBB-Drops hier.

Selbes Spiel beim 5600x der immer teurer wurde und ursprünglich eine gute Comet/Rocket-Lake-Alternative war.
 
RAM Update merkt man in Spielen schon gar nicht, meistens ist man ohnehin im GPU limit.

HAHAHAHAAHAHAH HAHA HAHHAH AHHAHA HAHAH HAHHAHHAHAHAAAAA HHAHAHAHHAHAHAHAHAHAHHAHAH
Okay sorry, du hast echt mal gar keine Ahnung. Tu mir bzw. uns allen bitte einen Gefallen.. lass es sein.
50% mehr Takt bei GPUs waren gerundet 50% MOAR fps. (y) Das kam schon gut hin.

Und nein, es boostete nicht jedes beliebige Parntermodell über stock-MHz:
Anhang anzeigen 746492

3090 vs 2080Ti, 40fps vs 60fps. Das haut nun wirklich nicht vom Hocker, also shice vs shice. :o Am besten sind Umstiege bei +100% mehr performance. Erst da geht einer up.(y) 40fps vs 80fps -> top. Bittet die 3090 vs 2080Ti aber kaum.

Du wirst auch heute mit einer 3090 bei "alten" Spielen nicht im GPU limit landen. Lässt sich nicht immer verhindern. Wer nur solche Spiele spielt, der hats dann nicht anders verdient. Also reden wir von GPU limitierten Spielen, aktuelle AAA games von mir aus, die fordern auch in UWQHD die 3090 dicke.
Für 4k mit raytracing und alles maxed/ultra, ist auch die 3090 zu lahm (überwiegend <100fps). Also schön GPU limit, was auch in Ordnung ist und dafür ist die Karte auch gut. Streng genommen sind wir noch nicht mal bei angenehmen 4k gaming (überwiegend +100fps) angekommen. (y) Und weil die Hersteller +50% OC nicht mehr erlauben, bleibt es eben ein Krücken-Update. :o

Bei Dickschiff GPUs über Effizienz zu reden ist sowieso sinnlos, auch Lambos saufen dick und werden warm wenn man sie tritt. Für Effizienz kauft man sich besser einen Dacia. :o

Alles qool, how rain.

Was du laberst.. die GPUs, ja auch die 980 Ti, hat IMMER über den angegebenen Boost Clock getaktet. Egal wie low End die Karte war.
 
Generell ist Ampere (hat Slipknot ja schon angerissen) halt noch nicht die Sweetspot-Generation wenn man wirklich 4k spielen will und seine Karte länger behalten will.

Man vergisst gerne dass natives 4k nochmal 66% mehr Pixel sind als 21:9 1440p. Spiele die also im dreistelligen Bereich sind auf 3440x1440 (was ja echt schon sportlich ist) pendeln sich also gerne mal im Bereich von 60-70fps ein auf 4k, aber das ist halt selbst mit einer 3090 auf Kante genäht weil man immer mal Titel wie Cyberpunk hat die nicht sehr ressourcenschonend sind und diese 60-FPS-Grenze (teils deutlich) unterbieten. Wer aktuell (UW)QHD mit ner 3080/80ti/90 fährt macht alles richtig, aber Leuten denen jetzt in 2022 einfällt dass sie Bock auf ein 4k-Panel haben sollte man eher zur Geduld raten weil die kompromissloseren 4k-Karten eben dieses Jahr noch rauskommen.
...und sich hoffentlich vermehrt OLED Monitore in akzeptablen Preisregionen zeigen werden. :d

Trotzdem bereue ich den Wechsel zu 4k im Januar nicht, die Games sehen einfach um so viel besser aus, das ist schon krass. Und solange die Games, die ich zocke von der 3080 auf mindestens 50FPS gehalten werden (RDR2 ist bei mir das anspruchvollste Game, aber mit DLSS auch bei um die 80FPS), ist das ok. Und da die 3090 nun wohl doch nicht mehr in die <1700€ Regrion vorstößt was die Vendorenkarten angeht, werde ich auf Lovelace warten.

Da ich die 2000er Generation ausgelassen habe, war die Anschaffung einer Ampere Karte für mich aber ein riesen Sprung und hat sich voll gelohnt. Von der 1080 zu 3080 war selbst auf 1080p schon eine Offenbahrung.
 
Die 2000er Generation war aber auch irgendwie ein Schlag ins Gesicht was Preis-Leistung angeht nach der 1000er Gen. Bin nicht umsonst über 4 Jahre mit meiner 1070 TI unterwegs gewesen. :fresse2:

Aber auf 1440p hat das mittlerweile schon weh getan und ich fürchte, die Preise gehen nicht mehr sonderlich weit runter. Meine Motivation, mir für Lovelace ein neues Netzteil zu kaufen, ist auch eher gering um ehrlich zu sein...
 
Bei der Saturn TUF geht ja per Hand garnichts...
 
Hab die tatsächlich manuell bei MM vor ner Woche gekauft. Der Preis ist top, aber botting kann ich bei <100€ Gewinnaussicht absolut nicht verstehen.
wie auf einmal so ne 70er karte für 680 als schnapper darstehen :fresse:
Naja, is halt 40€ über UVP der FE. Das ist für ne TUF ordentlich.
 
Bei der Saturn TUF geht ja per Hand garnichts...
Doch! Hatte sie im PayPal-Prozess. Aber ich bin auch erst nach dem Best-GPU-Deal-Alarm rein. An der Kasse (weil Feld grau war) ein paar mal F5 gedrückt und dann ging es durch bis zum PayPal-Fenster.

Warum ich die Karte nicht gekauft habe? Kuseng hat genug :haha:
Wollte nur noch einmal den Nervenkitzel von früher erleben... :cry:

Karte war laut geizhals.de auch nur knapp 90 Euro günstiger als bei ASUS im eBay-Shop.
 
Doch! Hatte sie im PayPal-Prozess. Aber ich bin auch erst nach dem Best-GPU-Deal-Alarm rein. An der Kasse (weil Feld grau war) ein paar mal F5 gedrückt und dann ging es durch bis zum PayPal-Fenster.

Warum ich die Karte nicht gekauft habe? Kuseng hat genug :haha:
Wollte nur noch einmal den Nervenkitzel von früher erleben... :cry:

Karte war laut geizhals.de auch nur knapp 90 Euro günstiger als bei ASUS im eBay-Shop.
Deshalb hat einer von den beiden die GPU nicht kaufen können, da du die blockiert hast :ROFLMAO:8-)
 
Doch! Hatte sie im PayPal-Prozess. Aber ich bin auch erst nach dem Best-GPU-Deal-Alarm rein. An der Kasse (weil Feld grau war) ein paar mal F5 gedrückt und dann ging es durch bis zum PayPal-Fenster.

Warum ich die Karte nicht gekauft habe? Kuseng hat genug :haha:
Wollte nur noch einmal den Nervenkitzel von früher erleben... :cry:

Karte war laut geizhals.de auch nur knapp 90 Euro günstiger als bei ASUS im eBay-Shop.
Wollte bei mir leider nicht kam statt Paypal Fehler.
 
Hatte die Tuf 3070 ti auch im PayPal Checkout wieder rausgeschmissen. Bin mir nicht sicher ob mein 650 Watt Netzteil reicht und Triple Fan Karten passen nicht oder nur mit Verschiebung von Lüftern in mein Case.

Und irgendwie bringe ich es einfach nicht übers Herz so viel Geld für eine GPU zu bezahlen egal ob Sie aktuell fair bepreist ist.
 
Hatte die Tuf 3070 ti auch im PayPal Checkout wieder rausgeschmissen. Bin mir nicht sicher ob mein 650 Watt Netzteil reicht und Triple Fan Karten passen nicht oder nur mit Verschiebung von Lüftern in mein Case.

Und irgendwie bringe ich es einfach nicht übers Herz so viel Geld für eine GPU zu bezahlen egal ob Sie aktuell fair bepreist ist.
Danke für die Info. Hoffe die Karte kommt deshalb gleich noch einmal. 🕷️
 
Hatte die Tuf 3070 ti auch im PayPal Checkout wieder rausgeschmissen. Bin mir nicht sicher ob mein 650 Watt Netzteil reicht und Triple Fan Karten passen nicht oder nur mit Verschiebung von Lüftern in mein Case.

Und irgendwie bringe ich es einfach nicht übers Herz so viel Geld für eine GPU zu bezahlen egal ob Sie aktuell fair bepreist ist.
Das Netzteil sollte reichen. Wenn du die Leistung nicht unbedingt brauchst würde ich das so kurz vor Lovelace auch nicht mehr machen. Ich bin selbst schon von 3090 auf 3080 und eventuell gehe ich noch auf 3070Ti, weil ich den krassen Wertverlust minimieren möchte. An ein erneutes Auffachen des Miningbooms glaube ich persönlich nicht.
Beitrag automatisch zusammengeführt:

Danke für die Info. Hoffe die Karte kommt deshalb gleich noch einmal. 🕷️
Ich glaube die sind weg, ist ja wieder mehr als ne halbe Stunde her.
 
Das Netzteil sollte reichen. Wenn du die Leistung nicht unbedingt brauchst würde ich das so kurz vor Lovelace auch nicht mehr machen. Ich bin selbst schon von 3090 auf 3080 und eventuell gehe ich noch auf 3070Ti, weil ich den krassen Wertverlust minimieren möchte. An ein erneutes Auffachen des Miningbooms glaube ich persönlich nicht.
Ja sehe ich auch so, manchmal der "Haben Will" Trieb, aber ich kann widerstehen. Mich macht bloß die Leistungsaufnahme bei Lovelance Angst und die Low End Modelle werden vermutlich auch erst zum Weihnachtsgeschäft kommen.

Aber falls ich ne 3060ti / 3070 zur UVP bekomme, werde ich aber dennoch zuschlagen. Da wird sich dann der Wertverlust begrenzen können.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh