NVIDIA stellt die ersten Modelle der GeForce-RTX-40-Serie vor

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Also ich muss sagen, dass ich seit meiner letzten Karte der 9700pro (damals ATi) nie damit gerechnet habe evtl. nochmal zur roten Seite zu wechseln aber diese Vorstellung der 40er Serie stinkt von allen Seiten gewaltig! Es fällt mir schwer mich von nVidia vorerst zu verabschieden aber sie lassen einem fast keine andere Wahl. Leisten könnte ich mir auch eine 4090 durchaus aber will ich das zu dem Preis wirklich? Ganz klar nein und sie sind mit dieser Art der Politik für mich einen Schritt zu weit gegangen. Ich hoffe, dass sich evtl. mit Release von RDNA3 nochmal etwas verändert, auch wenn ich nicht daran glaube aber bis dahin werde ich in jedem Fall mal abwarten.
 
Ich hoffe, dass sich evtl. mit Release von RDNA3 nochmal etwas verändert, auch wenn ich nicht daran glaube aber bis dahin werde ich in jedem Fall mal abwarten.

Die 7900er Serie mit Navi 31 kommt ja bald:, auch wenn erstmal High End. Preise sind offen.

Mein persönlicher Favorit ist halt Navi 32 geworden. Die 7700er Serie Midclass ist aber erst für März in Aussicht. Für spekulierte 500,- soll es bei AMD einen größeren Schub geben in der Mittelklasse als es beim letzten Generationenwechsel gab. Den kompletten Winter abwarten ist halt auch so ne Sache.
 
Als die 3090 rauskam wollte ich mir die "ASUS ROG Strix GeForce RTX 3090 OC" kaufen. Als die Preise für die Karte auf 3000€ hoch gingen, wollte ich mir die Karte nicht kaufen. Da jetzt die 4090 "raus" ist, bin ich mir am überlegen ob ich die ASUS ROG Strix GeForce RTX 3090 OC kaufen soll. Anderseits möchte ich die 3090 nicht kaufen, damit nVidia an den Karten erstickt. Anderseits möchte ich mir die 4090 kaufen. AAAAAAAAAAAAAAAAAAAAAAAAAAA, ich bin sowas von verwirrt o_Oo_Oo_O
Ich denke ich warte noch auf die echten Benchmarks von Usern die die wirklichen Leistungen der Karte zeigen. Mir ist es schon bei der Präsentierung aufgefallen, dass nVidia Birnen (DLSS3) mit Äpfeln (DLSS2) vergleicht. Für mich sah es so aus als die 3090 gar keine DLSS an hatte und die 4090 schon. Dadurch waren die Grafiken so abartig unterschiedlich.
 
Navi kommt offiziell am 3. November. Ist am Dienstag raus.
 
Zuletzt bearbeitet:
Na das dauert ja noch ne weile und ob AMD das ganze verbessert steht noch auf einen anderen Blatt.
 
Tja mit Pech muss man dann im November direkt wieder auf RDNA3 wechseln, wenn die schneller sind aber Jensen hat ja heute gesagt, das die GPU Preise nicht mehr gesenkt werden, dann sollte man ja seine 4090 noch gut verkauft bekommen. :d
 
Tja mit Pech muss man dann im November direkt wieder auf RDNA3 wechseln, wenn die schneller sind aber Jensen hat ja heute gesagt, das die GPU Preise nicht mehr gesenkt werden, dann sollte man ja seine 4090 noch gut verkauft bekommen. :d
Hat der nicht mal gesagt, dass Grafikkarten sich vom Preisniveau an Konsolen annähern sollen? Oder war das jemand anderes gewesen?
 
Ich bin immer auf GPUs abgefahren und CPUs konnte ich eher mal links liegen lassen.
Jetzt frage ich mich aber, was ich für Games zocke und ob ich einmal aussetzen soll....merkwürdig fühlt sich das an.
 
Tja mit Pech muss man dann im November direkt wieder auf RDNA3 wechseln, wenn die schneller sind aber Jensen hat ja heute gesagt, das die GPU Preise nicht mehr gesenkt werden, dann sollte man ja seine 4090 noch gut verkauft bekommen. :d

Also wenn die Inflation im aktuellen Tempo weiter geht, wird er wohl leider Recht haben.

 
Am Ende bestimmt der Markt den Preis, nicht der Hersteller. Auch nicht mit Bekräftigungen.
 
am Ende werden eh viele die auch hier verkehren und mitschreiben eine 40er Karte kaufen :d. Ich bin ehrlich, weiß noch selber nicht ob 3090 oder 4090 :d
 
Die Mehrleistung zu meiner 3090 strix oc ist es mir nicht wert da 95% eh wqhd. Das mit dem verbesserten encoder fürs streamen fand ich ganz nett, läuft der auch nur über die 40er Serie?
 
Am Ende wird sowieso nicht jedes Game mit 4K, 144 Hz, RTX ON, vsync usw. flüssig laufen. Doom ok, aber z.B. war der kleine Cyberpunk-Auschnitt was die da bei der Vorstellung gezeigt haben mit ~90 FPS auch nicht gerade so top.
 
Zuletzt bearbeitet:

Für mich ist das nur die Gier und nichts anderes. Man kann wenn man will kostengünstiger produzieren, aber das will Nvidia nicht. Der Jensen verarscht uns alle und wie immer fallen fast alle drauf rein.
 
Am Ende wird sowieso nicht jedes Game mit 4K, 144 Hz, RTX ON, vsync usw. flüssig laufen.
Genau daran werde ich die 4090 messen. Aktuell ist meine 3090 nicht dazu in der Lage alles in 4K mit 60Hz darszustellen. Wenn die 4090 tatsächlich jedes aktuelle Spiel in 4K, Raytracing, max. Details... ohne DLSS in 60 FPS darstellen kann, werde ich sie mir holen. Ansonsten warte ich weiterhin auf eine echte 4K Karte.
 
Genau daran werde ich die 4090 messen. Aktuell ist meine 3090 nicht dazu in der Lage alles in 4K mit 60Hz darszustellen. Wenn die 4090 tatsächlich jedes aktuelle Spiel in 4K, Raytracing, max. Details... ohne DLSS in 60 FPS darstellen kann, werde ich sie mir holen. Ansonsten warte ich weiterhin auf eine echte 4K Karte.
Kann ich nachvollziehen, hier will ein 4k OLED mit bis zu 120fps bedient werden. Das benötigt einfach viel Leistung.
 
1663866727957.png


Kann jemand der das Spiel und eine 3090 und/oder 3090 Ti hat gucken, was die FPS sein würden, wenn man DLSS "ON" stellt? ist doch schon mal ein Anfang :d
 
Nun ist es offiziell ada ist ein Turing Nachfolger mit 64 fp32 pro sm
Eine deutliche höheren dichte was zur folge hat das die 64 fp23 sehr heiß werden
Anzunehmende Leistung
rtx4090 +42% vs rtx3090ti
rtx4080 16gb +0% vs rtx3090ti
rtx4080 12gb +25% vs rtx3070ti

keine fp64 Einheiten die wie bei ampere für zusätzlich fp32 pro sm sorgten
Dazu Fokus auf tensor core pre render frame technik was ne latenz verursacht.
ich würde mal sagen alles auf dxr optimiert. Den da macht ada eine gute Figur bis zu 75% schneller (50% wegen generation 25% wegen ser)
Sprich dxr wird keine Eeinbrüche mehr in dxr haben vs raster.
Durch die hohe transistordichte ist zudem der Takt auf nur noch 2,5ghz beschränkt (maxed oc ab werk) sofern die dlls3 Technik eingreift geht der Takt hoch auf etwa 2,8ghz
Das wird eine qual beim Testen

achja die preise sind dem übebestand von ampere geschuldet und unverschämt

Das ich mal ampere als gute arch bezeichne hätt ich nicht gedacht
 
Hm EIne Frage was ist denn SER für eine Technik bzw Einheit oder meintest du was anderes damit?
 
Nun ist es offiziell ada ist ein Turing Nachfolger mit 64 fp32 pro sm
Eine deutliche höheren dichte was zur folge hat das die 64 fp23 sehr heiß werden
Anzunehmende Leistung
rtx4090 +42% vs rtx3090ti
rtx4080 16gb +0% vs rtx3090ti
rtx4080 12gb +25% vs rtx3070ti

keine fp64 Einheiten die wie bei ampere für zusätzlich fp32 pro sm sorgten
Hä? Ada hat weiterhin 128 Einheiten pro SM, von denen 64 feste FP32 Einheiten sind und 64 weitere, die entweder INT32 oder ebenfalls FP32 rechnen können.
 
Naja, wenn ich mit DLSS2 die selben FPS habe doch die Grafik nur ein wenig unterschied hat, dann kaufe ich mir die 3090.

Ich kann jetzt solche Spiele nicht spielen oder Testen da ich noch immer eine GTX 970 in meinem Rechner mit i9 10900K, 32GB Ram habe.



Ich weiß nicht ob das hier wahr ist, aber laut einem Bild stehen Zotac Karten besser als die Grünen da.

1663872474046.png
 
Am Ende bestimmt der Markt den Preis, nicht der Hersteller. Auch nicht mit Bekräftigungen.
Wenn die Herstellkosten steigen gibts auch irgendwo nen unteren Grenzpreis. Also Herstellkosten + Logistik + Admin + Gemeinkosten + erwünschter Gewinn. Selbst wenn du beim erwünschten Gewinn, bei Gemeinkosten usw. runter gehst... irgendwann biste beim unteren Grenzpreis ab dem du miese machst, wenn du weiter runter gehst.
Dann liegts einfach an den Konsumenten zu überlegen welche Technologie welchen Nutzwert hat... und wie die Zahlbereitschaft ist.

Es ist mit TSMC 4N und den riesigen Chips so, dass diese teuer sein werden.
Produktion auf dem Prozess ist teuer, und das Risiko für reduziertes Yield bei den extrem großen Chips ist hoch.
Und mit der hohen Leistungsaufnahme sind die Boards und die Kühler teuer.
 
Zuletzt bearbeitet:
alle sprechen von Herstellungskosten. Darf ich fragen was eine Herstellung kostet?

Nehmen wir an, dass die Entwicklung, Materialbeschaffung, Herstellung, Marketing, Release = 1.000.000.000$. Ich bin mir sicher, dass nVidia mehr als 1.000.000 4090 Karten verkauft aber gehen wir mal vom 1M aus, dann hat man immer noch ein Gewinn vom 599.000.000$. Bei 2M verkauften Karten, hat man 2,998 Mrd $ - 1 Mrd $ "Produktion" dann hat man ein reines Gewinn vom 1,998 Mrd $.
Entweder bin ich doof und verstehe was nicht oder es geht einfach nur um Rech sein.
 
 
@2k5lexi
Ja, schon klar. Nur ist der Preis den ein Produzent/Vertrieb veranschlagt ja erstmal nichts weiter als "Wunschdenken". Das wollen wir von Dir haben. Wenn der Kunde aber sagt "Nö, kein bock", dann bleibt der Artikel liegen. Und zwar solange bis der Kunde sagt "Jo, nehm' ich". Wenn aber kein Kunde auch bei einem Preis von plus/minus Null für den Hersteller zugreift, dann hat sich jemand am Markt vorbeikalkuliert.
Ich denke nicht, dass das bei diesem Fall eintritt, aber schön wärs, aus meiner Sicht.

Meine Hauptfrage momentan ist: sehen wir hier Gier oder sind das die neuen Preise für GPUs?
Wenn das Gier ist, sollte man auf keinen Fall kaufen. Wenn das die neuen, reelen, Preise sind, dann wird's aber hart für uns alle.

@nBlacky
Ich glaube das wird Dir hier keiner beantworten können. Deine Zahlen sind komplett willkürlich, oder hast Du Quellen?
Hier mal eine Quelle aus 2019, also vor Corona und mining: https://www.gamestar.de/artikel/gpu...ssen-trotzdem-verluste-hinnehmen,3351664.html
Zitat aus dem Artikel: "Allerdings können die Hersteller im traditionell starken dritten Quartal dieses Jahr nicht an die Verkaufszahlen von 2018 anknüpfen: Insgesamt verkauften sie 89 Millionen GPU-Einheiten, was gegenüber dem dritten Quartal 2018 einem Minus von sechs Millionen Einheiten beziehungsweise 5,6 Prozent entspricht."
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh