NVIDIA stellt die ersten Modelle der GeForce-RTX-40-Serie vor

Äh ... ok? Da bin ich mal von ausgegangen als Voraussetzung. Ich dachte beim gucken "wie geil muss das sein wenn man wirklich spanisch kann?" :d
Aber den Typen kann man auch einfach so feiern. Dennoch sind die Pointen top gesetzt. Passt perfekt.

Was war das Thema? Ach ja: Witze auf Kosten anderer. Geht los.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Bildschirmfoto 2022-09-21 um 21.02.07.png

Dieser Ausschnitt zeigt doch eigentlich ganz gut was es bei 4K Auflösung bringen könnte.
Wenn man jetzt DLSS 3 weglässt wird es mit Sicherheit weniger Performance Zuwachs.
Gerade bei MSFS würde mich mal interessieren ob die 3090ti mit DLSS lief, denn das gibt es so ja auch noch nicht wirklich lange im release, wenn überhaupt.
Wer eine 3080ti/3090/3090ti hat, der sollte wohl nicht zuviel erwarten, wenn man nicht Cyberpunk in 4k RT und DLSS braucht.

Und da wird denn erst die 4090 ein Mehrwert haben und bei MSFS sieht man ja auch wieder, dass das Limit selbst bei 4k nicht die GPU zu sein scheint.

Unterhalt 4k braucht es die Monster GPUs wohl eher nicht, außer man will Gaskosten sparen :)
HAHAH
 
Reddit ist heute wie erwartet ein ziemliches Meme Festival geworden, ein paar highlights

4090-3.PNG
4090-4.PNG
4090-6.PNG
4090-8.jpg
4090-7.jpg
4090-5.PNG
 
Dieser Ausschnitt zeigt doch eigentlich ganz gut was es bei 4K Auflösung bringen könnte.
Wenn man jetzt DLSS 3 weglässt wird es mit Sicherheit weniger Performance Zuwachs.
Genau diese Grafik finde ich extrem fragwürdig.
Wie kann es sein, das eine 4080/12 mit nichtmal halbsoviel SMs, Tensor- und RT-cores und weniger als halber Speicherbandbreite deutlich mehr als die Hälfte der Performance einer 4090 liefert?

Das einzige was ich aus dieser Grafik rauslesen kann ist, das mehr als 12GB VRAM weiterhin nix bringen. :ROFLMAO:

War das jetzt mit RTX und DLSS(3), nur RTX oder nativ ohne RTX?
Wie soll man (in der ganzen Grafik) die rechts daneben stehendene "Next Generation" verstehen, wo ja gar über 4-fache Performance versprochen wird? Next-Gen-Spiele? Ist CP2077 ein Next-Gen-Spiel?
Wenn das rechts "mit RTX" ist, ist dann links ohne RTX?

Da steht im "Kleingedruckten" sogar "mit DLSS Framegeneration", was es wohl erst ab DLSS3 überhaupt gibt. Also das DLSS3.0 scaled jetzt nicht nur Bilder hoch, sondern berechnet auch noch Zwischenframes, die nicht wirklich gerendert werden? Also so ähnlich wie diverse "800Hz" TVs?
Bei DLSS1, DLSS2, FSR und FSR2 wurden Bilder nahezu auf Pixelebene analysiert um Unterschiede aufzuzeigen. Und jetzt will man sogar noch Zwischenframes generieren?

Ich nehm da Nvidia, gerade weil mir die tollen gezeigten Balken irgendwie komplett unplausibel scheinen, aktuell lieber überhaupt nix ab. Da will ich dann doch erstmal sehen, wie solche DLSS3 generated Frames aussehen und welchen Einfluss das auf z.B. Inputlag hat, auf das ja gerade die Zocker scharf sind, für die ein Shooter unter 144Hz/fps quasi unspielbar ist. Wenn die nicht echt berechnet werden, laggen 120-DLSS-generated-FPS trotzdem wie 60fps.

Ich habe irgendwie das ganz flaue Gefühl im Magen, das diese Versprechen absolut vernichtet werden, wenn denn dann mal reale Spiele unter realen Bedingungen getestet werden und selbst mit RTX on und DLSS sonstwas bestenfalls die Hälfte vom Versprochenen REALISTISCH rauskommen wird. Und selbst das nur in ausgwählten Titeln auf die der Treiber schon hinoptimiert ist.

Scheint mir alles übertrieben schöngerechnet. Auf den aktuell gezeigten Zahlen basierend, bin ich extrem skeptisch. Da würde ich jetzt nichtmal vorbestellen, wenns die 4090 mit Vorbestellerrabatt für 1000€ geben würde. :d
 
Playstation 5 für 550 Euro = Fast gleiche Grafik in den Spielen. Aber kauft ihr mal für 1,4 oder 2k eine Grafikkarte. 😂😂😂😂
Meine 3060 Ti hat so viel gekostet und den Rest der Hardware gab's Gratis.

Für das was eine RTX 4080 12 GB verlangt wird, könnte ich fast eine geile Kombi zaubern aus eben genannter RTX 3060 Ti oder RX 6700XT, Mutterbrett, CPU inkl. Lüfter, RAM, NT, Gehäuse und SSD/HDD. Ist das von Nvidia echt so gewollt oder schiere Arroganz?
 
 
Da würde ich jetzt nichtmal vorbestellen, wenns die 4090 mit Vorbestellerrabatt für 1000€ geben würde. :d
LÜGE!!!! :banana: Du darfst nicht lügen, das bringt den kleinen Jesus zum Weinen :d

Ja, da hatte der Kollege, den ich überaus kompetent finde, auch drüber gefachsimpelt in diesem Video (bei 1:20 gehts los):

Da werden halt irgendwelche Balken unter irgendwelchen Bedingungen zusammengedengelt bis die Grafik gut aussieht. Benchmarks abwarten, wie immer.
 
Dieser Ausschnitt zeigt doch eigentlich ganz gut was es bei 4K Auflösung bringen könnte.
Wenn man jetzt DLSS 3 weglässt wird es mit Sicherheit weniger Performance Zuwachs.
Gerade bei MSFS würde mich mal interessieren ob die 3090ti mit DLSS lief, denn das gibt es so ja auch noch nicht wirklich lange im release, wenn überhaupt.
Wer eine 3080ti/3090/3090ti hat, der sollte wohl nicht zuviel erwarten, wenn man nicht Cyberpunk in 4k RT und DLSS braucht.

Und da wird denn erst die 4090 ein Mehrwert haben und bei MSFS sieht man ja auch wieder, dass das Limit selbst bei 4k nicht die GPU zu sein scheint.

Unterhalt 4k braucht es die Monster GPUs wohl eher nicht, außer man will Gaskosten sparen :)
HAHAH
Nur die ersten 3 Games zeigen die wirkliche Performance ;) 4080 12GB kommt gerade so mit Glück an die 3090 Ti :d und die 4090 ist um die 50-60% schneller als eine 3090 Ti.
Normalerweiße müsste dass die 4070 sein, welche an die 3090 Ti rankommt :d (3070 vs 2080 Ti als Beispiel)

Würde mich echt mal interessieren, was passieren würde, wenn RDNA 3 im Vergleich zu RDNA 2 max 100$ mehr kostet. Dann würden die wohl auf Ampere + Ada Lovelace sitzen bleiben :d
 
Nur die ersten 3 Games zeigen die wirkliche Performance ;) 4080 12GB kommt gerade so mit Glück an die 3090 Ti :d und die 4090 ist um die 50-60% schneller als eine 3090 Ti.
Normalerweiße müsste dass die 4070 sein, welche an die 3090 Ti rankommt :d (3070 vs 2080 Ti als Beispiel)

Würde mich echt mal interessieren, was passieren würde, wenn RDNA 3 im Vergleich zu RDNA 2 max 100$ mehr kostet. Dann würden die wohl auf Ampere + Ada Lovelace sitzen bleiben :d
Ach, die Lederjacke zahlt AMD einfach Kohle damit sie die Karten schlechter machen, deswegen auch der massive Preisanstieg, der hat einfach die Konkurrenz bestochen und wir Gamer müssen dafür zahlen 🤣😅🤣
 
Nur die ersten 3 Games zeigen die wirkliche Performance ;) 4080 12GB kommt gerade so mit Glück an die 3090 Ti :d und die 4090 ist um die 50-60% schneller als eine 3090 Ti.
Normalerweiße müsste dass die 4070 sein, welche an die 3090 Ti rankommt :d (3070 vs 2080 Ti als Beispiel)

Würde mich echt mal interessieren, was passieren würde, wenn RDNA 3 im Vergleich zu RDNA 2 max 100$ mehr kostet. Dann würden die wohl auf Ampere + Ada Lovelace sitzen bleiben :d

Sehe ich auch so und die 3090ti ja nunmal auch echt auf Kante gebaut.
Wenn ich dann uwqhd mit meiner 3080ti befeuere wird wohl der 4k Gamer endlich mit der 4090 auf die gleichen frames pro Sekunde kommen.
Unter 4k wird der Abstand eher nicht existieren, weil eh die CPU limitiert.
 
Karten hin oder her, Preise jenseits von gut und böse🙈 sollen erst mal die Netzteile für die Founders bringen, gibt momentan nur 1 NT das den 12+4 Pin Anschluss offiziell bereitstellt, das ist von Gigabyte und das ist Schrott rattert wie ne alte Festplatte… alles andere ist seit Anfang diesen Jahres angekündigt und sind bis heute nicht auf Markt.. echt traurig…
Krieg ist traurig. Hungersnot und Elend, aber dieser unwichtige Krempel der uns unterhält doch nicht.
 
Also eigentlich hatte ich auch eine 4080-16GB eingeplant, aber bei den Preisen behalte ich erstmal meine 3080 und warte mal ab was da so Preistechnisch passiert. :unsure:
Ich eigentlich auch... für 999€ also 799$+Steuer. Jetzt muss es halt ne 4090 werden. :d
Mal ernst, ich werde versuchen eine 4090FE (nur Founders für mich) zum Release zu bekommen. Dann schaue ich Tests (wenn die nicht schon vorher da sind) und jenachdem wie die Tests ausfallen, behalte ich die 4090FE oder schicke die zurück.
 
Hmm...bei der 12GB 4080 könnte ich theoretisch schwach werden, obwohl ich eigentlich nicht aufrüsten wollte, vorallem 285w
sind eine schöne Ansage, damit läge die GPU ja sogar ~40w unter meiner 3080. Allerdings könnte mir das erwartbare Leistungs-
Plus irgendwie nicht groß genug ausfallen. Wieviel % liegt eine 3090ti vor einer 3080 10GB? Bei unter 50%+ würde ich definitiv
nicht wechseln.

Die doch recht geringe Leistungsaufnahme lässt mich zumindest auf eine 4060ti hoffen, die bei ähnlicher Leistungsaufnahme
ein gutes Update für meine 3060ti darstellen und im 2 Slot Design verfügbar sein könnte *Daumen drückt*.
 
Achja, das war Nvidia hier macht ist eine weitere zuspitzung ihrer kundenfeindlichen Politik.
Ich befürchte nur dass sie dennoch weiter damit Erfolg haben werden...

Jetzt liegt es an AMD ob sie dies ausnutzen wollen und durchstarten...
ich erinner mich an etwas aus den 90ern, auch wenn ich das damals nicht selber mitbekommen habe...
299
AMD kann jetzt mit Nvidia den Boden aufwischen wenn ihre 7000er genug liefert und ordentlich Marktanteile gewinnen... bevor Intel es fertig bringt ihr Hard und Software in Sachen Grafik auf einen guten Stand zu bringen und genau das dann zu machen.


Aber ich denke die unzähligen Fanboys würden auch bis zu 10.000 Euro für jeden Scheiß von Nvidia bezahlen... ist wie mit dem angebissenen Apfel...
 
Hmm...bei der 12GB 4080 könnte ich theoretisch schwach werden, obwohl ich eigentlich nicht aufrüsten wollte, vorallem 285w
sind eine schöne Ansage, damit läge die GPU ja sogar ~40w unter meiner 3080. Allerdings könnte mir das erwartbare Leistungs-
Plus irgendwie nicht groß genug ausfallen. Wieviel % liegt eine 3090ti vor einer 3080 10GB? Bei unter 50%+ würde ich definitiv
nicht wechseln.
Zwischen 3080 und 3090Ti liegen je nach Auflösung zwischen 20-25%.
Imho ein Wechsel nicht gerade wert und für den Preis schon gleich 2x nicht.
Einziger Vorteil 2GB mehr VRAM... mhhhh.... naja... auch nicht so der Burner...

Ich werde auch bei der 3080 bleiben.
 
Der extreme Fokus auf DLSS 3.0 gefällt mir im Bezug auf die Leistungsdaten nicht, sagt auch wenig bis gar nichts über die wirkliche Power aus für meine Begriffe.

Unabhängig davon werde ich mit der Klassifizierung der Karten nicht warm, sprich die 4080 mit 12GB, die ja eigentlich eine 4070 sein sollte und nur so heißt, weil sich das teurer verkaufen lässt, macht keine Hoffnung darauf, dass Nvidia seine Kunden respektiert.
 
Strix 4090Ti in 2 Jahren für 600,- auf Kleinanzeigen ist reserviert oder eben für 900,- neu. Oder eben eine 5070
 
Der extreme Fokus auf DLSS 3.0 gefällt mir im Bezug auf die Leistungsdaten nicht, sagt auch wenig bis gar nichts über die wirkliche Power aus für meine Begriffe.

Unabhängig davon werde ich mit der Klassifizierung der Karten nicht warm, sprich die 4080 mit 12GB, die ja eigentlich eine 4070 sein sollte und nur so heißt, weil sich das teurer verkaufen lässt, macht keine Hoffnung darauf, dass Nvidia seine Kunden respektiert.
doch sagt sehr viel.
es besagt das es ohne DLSS 3.0 keinen Grund gibt zu wechseln.
Wenn Sie ohne DLSS wirklich schneller wären, dann hätte man sich auch darauf fokussiert.

Irgendwelche interpolierten Bilder braucht keine Sau ohne damit nicht Lag einzukaufen.
Aber es wird in den 4k + Auflösungen einfach nicht anders gehen und für alles was unter 4K ist braucht man es nicht.
 
  • Danke
Reaktionen: THK
doch sagt sehr viel.
es besagt das es ohne DLSS 3.0 keinen Grund gibt zu wechseln.

Ja OK, haste auch wieder recht.
Wenn Sie ohne DLSS wirklich schneller wären, dann hätte man sich auch darauf fokussiert.

Genau mein Gedanke
Irgendwelche interpolierten Bilder braucht keine Sau ohne damit nicht Lag einzukaufen.
Aber es wird in den 4k + Auflösungen einfach nicht anders gehen und für alles was unter 4K ist braucht man es nicht.
Mein Problem ist eher, ich erkenne DLSS / FSR Bilder immer, auch wenn es nur geringe Stufen sind, mit fallen sofort Treppen/Fragmente und Kanten auf.....
 
AMD kann jetzt mit Nvidia den Boden aufwischen wenn ihre 7000er genug liefert und ordentlich Marktanteile gewinnen... bevor Intel es fertig bringt ihr Hard und Software in Sachen Grafik auf einen guten Stand zu bringen und genau das dann zu machen.

AMD ist bei den Prozessor und Motherboard Preisen auf Intels Preis Niveau aufgestiegen und die Leute zahlen es, denkst du wirklich dass wenn die 7000er genug liefert die Karten unterm Wert verkaufen werden und nicht Nvidia als Messlatte hernehmen? Das AMD vielleicht zur Wohltätigkeitsorganisation geworden ist und kein Börsennotiertes Unternehmen ist das in erster Linie den Aktionären noch vor dem Kunden verpflichtet ist?

Und das mit den GPU Marktanteilen ist da auch so eine Sache die werden zurzeit schon wieder weniger. Aktuell für Q2 2022 sind die wieder auf Niveau von Q2 2021 (20%) runtergefallen nachdem die im ersten Quartal 2022 schon bei 24% waren... 1% ging da an Intel die in dem Zeitraum nicht außerhalb des asiatischen Marktes verkauft haben und bloß ein einziges Model im Handel hatten...
 
Also bei der Entwicklung gefällt mir überhaupt nicht und habe somit das gefühlt das 120 Watt der kleineren Modelle wohl vergessen kann. Zudem mein bester Kumpel will ein Upgrade von weil scheinbar nicht so viel braucht wie gedacht wohl von 2080 ti auf rtx 3050 um Stromverbrauch zu sparen. Und füt rund 330€ wirklich in Ordnung. Für den Preis kriegt man auch nix bei der 4000 Serie und auch kein sparsames Modell ebenso nicht. Nvidia was macht ihr nur für ein schmarn. So vergrault ihr nur eure Kunden. Mir kann es ja egal sein weil ich keine gpu Power mehr brauche, aber für andere wie meinen besten kumpel echt nicht leicht.
 
Gibt es denn schon Klarheit darüber, ob die diversen Hersteller jetzt auch definitiv entsprechende Netzteiladapter beilegen? Ich kann mir eigentlich in diesem speziellen Fall nicht vorstellen, dass die das nicht machen aber who knows?!
 
Der extreme Fokus auf DLSS 3.0 gefällt mir im Bezug auf die Leistungsdaten nicht, sagt auch wenig bis gar nichts über die wirkliche Power aus für meine Begriffe.
Ein Youtuber den ich gestern gesehen habe hat das erwähnt, ist euch schon aufgefallen das es bei dem bisher von Nvidia gezeigten DLSS 3 Material keine Kamera Schwenks gibt?
Schaut euch mal die Cyberpunk oder Spiderman Videos an. man ist immer hinter der Spielfigur und es geht immer grade nach vorne.
Nicht einmal wird während der Bewegung die Kamera benutzt, sieht ziemlich unnatürlich aus und offenbar will man etwas nicht von sich aus zeigen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh