Ampere Smalltalk-Thread (Startpost lesen, Handel nur im Marktplatz!, keine Botanfragen!)

Das Zahlenwerk stimmt die 30er sind auch weit weg von einer Katastrophe, aber sind nunmal kein riesiger Fortschritt. 20% mehr fps bei gleichem Verbrauch, will man nennenswerte Leistungssteigerung, muss man den Verbrauch anheben. Nennenswert=Verdopplung.
Schon haben wir "die Katastrophe" Stromverbrauch in der Praxis, völlig unabhängig von der (leicht) verbesserten Effizienz.
Das der Verbrauch spürbar höher liegt, merkt man nicht zuletzt an der doch recht intensiven Diskussion "welches NT den jetzt taugt". Etwas das ich von meiner Pascal GPU so gar nicht kenne.
Der Punkt ist halt einfach, über den dicken Daumen großzügig gerundet:

1080p = 100% Pixelanzahl
1440p = 180% Pixelanzahl
2160p = 400% Pixelanzahl
Da muss schon einiges an Effizienzsprüngen passieren bis man eine 130W 4k Karte hinbekommt (bezogen auf eine 1060 6gb 130W als 1080p Referenzkarte).

Mich wundert es jedenfalls nicht, dass eine 3080 als "erste richtige nativ 4k Karte" in der 300+W Liga ist.

Plus man muss fairerweise noch dazu nennen, dass die RTX Cores (die die 1060 nicht hat) auch etwas Strom haben wollen.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
die 3090 tuf hätte ich auch gebraucht. ist gerade nen tuf bykski block mit aktiver backplate für meine 3080 unterwegs :cautious:
 
so unheimlich still hier drin geworden...was ist los, sind etwa alle restlos zufrieden mit GPUs versorgt?^^
das scalpen lohnt halt nicht mehr ;) wenn man selbst bei einer asus tuf 3090 für 1500€ zögert ist halt die luft raus . selbst bei einer 3080 fe wären es nur noch max. 300€ Profit.
 
Überwiegend Scalper hier wohl unterwegs 😅 Ich möchte nur eine einzige GPU für den Eigengebrauch. Glaubt mir hier drin aber wahrscheinlich keiner...^^
 
Bei dem Verbrauch der Grafikkarten geht es mir im Grunde nicht um Performance pro Watt Verbesserung zwischen neuer Architektur oder vermeintlich besserem Fertigungsverfahren (was man ja wohl erwartet), sondern um die Tatsache dass Nvidia sich dafür entschieden hat, dass wir jetzt 300Watt+ Heizlüfter in unseren PCs haben anstatt auf 7nm zu gehen. Ich hab keine Lust darauf bei der RTX4000 dann 400W weg kühlen zu müssen, nur damit NV bei Samsung mehr Marge machen kann.
Überwiegend Scalper hier wohl unterwegs 😅 Ich möchte nur eine einzige GPU für den Eigengebrauch. Glaubt mir hier drin aber wahrscheinlich keiner...^^
naja, würde dir niemand ein Vorwurf machen wenn du die Asus 3090 für 1500€ gekauft, für 1900€ verkauft und dir dann ne 3080 supreme oder tuf für 1300€ für den Eigengebrauch für unterm Strich für 900€ geholt hättest. dann wärst du mit der Sache durch und müsstest hier nicht mehr rumhängen. hat das halbe forum so gemacht.
 
naja, würde dir niemand ein Vorwurf machen wenn du die Asus 3090 für 1500€ gekauft, für 1900€ verkauft und dir dann ne 3080 supreme oder tuf für 1300€ für den Eigengebrauch für unterm Strich für 900€ geholt hättest. dann wärst du mit der Sache durch und müsstest hier nicht mehr rumhängen. hat das halbe forum so gegemacht.
Joa, wenn ich jetzt meine Meinung dazu ungefiltert wiedergeben würde, würden sich bestimmt einige auf den Füßen getreten fühlen und das Fass wäre auf. Von daher🤐

Außerdem hänge ich gerne hier im Forum ab. An eine Karte werde ich schon bei Zeiten kommen, da bin ich ganz entspannt. Gibt aktuell eh kein Game, was soo sehr reizt, für ne neue GPU.
 
Joa, wenn ich jetzt meine Meinung dazu ungefiltert wiedergeben würde, würden sich bestimmt einige auf den Füßen getreten fühlen und das Fass wäre auf. Von daher🤐
Ich würde meine Meinung nicht zurückhalten, nur weil diese anderen möglicherweise nicht gefällt. Diese interne Zensur finde ich problematisch.
Außerdem hänge ich gerne hier im Forum ab. An eine Karte werde ich schon bei Zeiten kommen, da bin ich ganz entspannt. Gibt aktuell eh kein Game, was soo sehr reizt, für ne neue GPU.
same ;)
 
Bei dem Verbrauch der Grafikkarten geht es mir im Grunde nicht um Performance pro Watt Verbesserung zwischen neuer Architektur oder vermeintlich besserem Fertigungsverfahren (was man ja wohl erwartet), sondern um die Tatsache dass Nvidia sich dafür entschieden hat, dass wir jetzt 300Watt+ Heizlüfter in unseren PCs haben anstatt auf 7nm zu gehen. Ich hab keine Lust darauf bei der RTX4000 dann 400W weg kühlen zu müssen, nur damit NV bei Samsung mehr Marge machen kann.
Dann hast du die nächsten 2 Jahre weiter keine 4k Karte und kannst bei 1440p bleiben.
Oder einfach mit den Schultern zucken und so tun als wäre die 3070 das Ende der Fahnenstange.

Was ein Quatsch
 
Was wohl Botli gerade macht ?
Ist er in Wembley und guckt das Finale ?
Oder hat er sich auf DomRep mit 500.000 Mining und Scalping Profit ein Haus gekauft.
Man weiss es nicht
 
Warum nur wechseln relativ viele die schon eine RX 6900 XT hatten auf 3080 Ti oder 3090 ? :unsure:
wenn nvidia da mithalten kann wäre ich ja zufrieden. insbesondere, wenn die wirklich schon in H1/22 kommen. NV hat ja schon angekündigt ihre neuen Karten kommen Q3/22.

*weil die neuen Konsolen gerade mal ein halbes Jahr am Start sind und es noch ein wenig dauert bis AMD den Plattformvorteil ausspielen kann.
 
Zuletzt bearbeitet:
AFAIK gibt es kaum AMD Drops, bei vergelichbarem Preis würde ich auch eher Nvidia nehmen. DLSS ist 'etabliert', der Spielesupport in der Regel besser.
Nach meinen Erfahrungen mit AMD sind das aber keine schlechten Karten, es ist wie mit dem Ryzen, sie brauchen nur was länger und manuelles Feintunning.
Erwischt man die richtige Serie zur richtigen Zeit, dann hat man ein Schnäppchen.

P.S. Haben die AMDs auch so Probleme mit den Kühlpads oder Spulenfiepen?
 
Jeden Donnerstag gibt es einen Drop bei AMD.

Zum Spulenfiepen ist es wahrscheinlich ähnlich wie bei Ampere. Manche haben Glück, manche Pech. Je nach Anwender wird eine Karte als angenehm oder als nervtötend empfunden.
Zu den Kühlpads lese ich wenig bei RDNA2, also dort vielleicht weniger Probleme.
 
oder ne amd karte kaufen........
Auszug aus dem Computerbase Test: "Die Radeon RX 6800 XT kommt unter Last durchschnittlich auf 296 Watt. Das sind 65 Watt mehr als beim kleineren Modell, aber immer noch 26 Watt weniger als bei der GeForce RTX 3080."

wow...👍
 
Auszug aus dem Computerbase Test: "Die Radeon RX 6800 XT kommt unter Last durchschnittlich auf 296 Watt. Das sind 65 Watt mehr als beim kleineren Modell, aber immer noch 26 Watt weniger als bei der GeForce RTX 3080."

wow...👍
ich rede ja auch nicht von der aktuellen generation, sondern bezog mich auf die aussage von @2k5lexi, dass ich in den nächsten 2 jahren keine 4k karte mit weniger als 300watt kaufen könnte.
daher auch der link auf die gerüchte zu rdna3 für mitte nächsten jahres.
 
ich rede ja auch nicht von der aktuellen generation, sondern bezog mich auf die aussage von @2k5lexi, dass ich in den nächsten 2 jahren keine 4k karte mit weniger als 300watt kaufen könnte.
daher auch der link auf die gerüchte zu rdna3 für mitte nächsten jahres.
Gerüchte und Leaks sind leider eben nur Gerüchte und Leaks, es galt lange Zeit als "sicher" die 80Ti kommt mit 20GB und am Ende waren es 12GB.
 
dass amd mit rdna 3 im zeitplan liegt ist schon ein bisschen mehr als nur ein gerücht
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh