[News] Nvidia RTX 3090: Neue Hinweise deuten auf riesigen Videospeicher hin

Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Am ende hat die Karte zwar 24gb verbaut aber nur 12gb nutzbar, weil die 90er eigentlich immer dual GPUs waren.
Vielleicht hat es nvidia so hinbekommen das man bei ner dual gpu den verständig verbauten speicher auch "nutzen" kann

Das die Karte mehr als 1000€ kosten wird sollte jedem klar sein, solche Karten richten sich an absolute Enthusiasten oder Streamer mit guten Sponsor.
Auch 2000€ würden mich nicht wundern.
 
Sli ist Tod.

Außerdem würde so eine Karte wohl 600 Watt benötigen 🙈
 
Das jetzige SLI mag zwar scheiße sein aber es funktioniert auch nativ so wie aktuell bei denn nv cloud/remote gaming GPUs ohne das man auf irgendwelche Spiele Software/Treiber Profile angewiesen ist.
600 Watt sind auch nichts neues bei ner dual gpu siehe Titan Z/R9 295X2

Gibt doch genügend 1000w Netzteile, wird zeit das man als nicht extrem overlocker auch mal nen hohen verbrauch hat.
 
Zuletzt bearbeitet:
Das ist einfach eine rtx Titan für mindestens 2000 € und wohl min. 300 W Gesamt-TDP.
Würde mich nicht überraschen würde Huang und co. wieder geiern und selbst bei 2k € werden wieder nur gddr6 anstatt HBM verbaut.
Zeitlich passt der neue Hbm2E Flashbolt sogar in den Rahmen einer Veröffentlichung in den nächsten 4 - 5 Monaten. Release wäre für so eine Karte dann halt Ende Q4.
 
Das ist einfach eine rtx Titan für mindestens 2000 € und wohl min. 300 W Gesamt-TDP.
Würde mich nicht überraschen würde Huang und co. wieder geiern und selbst bei 2k € werden wieder nur gddr6 anstatt HBM verbaut.
Zeitlich passt der neue Hbm2E Flashbolt sogar in den Rahmen einer Veröffentlichung in den nächsten 4 - 5 Monaten. Release wäre für so eine Karte dann halt Ende Q4.

Ich halte auch 2k Euro für realistisch, GDDR6X reichen ja, ich brauch kein HBM nur des Namens wegen..

SLI bzw eine 2 Chip Karte halte ich für ausgeschlossen, die Zeiten sind um.
 
HBM ist nicht des Namens wegen. Vorteile bezüglich Verbrauch und Leistung sind da.
Auch von 1,4 TB/s Datenrate mit Flashbolt gegenüber gddr6 18 GBp/s und 1 GB/s Datenrate, würden in mehr Leistung für eine rtx Titan ampere resultieren.
 
GDDR6X mir 21 GBPS reichen völlig aus bei einem 384 BIT SI..
HBM ist einfach teuer
 
Ob der Speicher mit 21 GBp/s überhaupt existiert?
Reichen völlig aus und profitiert durch mehr Leistung, sind zwei verschiedene Dinge, nicht verwechseln.

Denke die Frage, als Außenstehende, was nun teurer ist, führt zu keinem genauem Ergebnis. Besagter 21 GBp/s Gddr6 Speicher sollte auch nicht günstig sein, vor allem bei der Anzahl der Chips.
In einem Video hat Industrie-Insider darüber erzählt, dass bei steigender Anzahl an Speicher, HBM sich relativiert.
Und die Beschäftigten bei nvidia können auch Interposer designen. Machen diese ja schon lange.

Generell möchte ich darauf hinweisen dass eine Radeon R7 in 7 nm und mit 16 GB hbm Anfang 2019 700 € gekostet hat.
Als 7nm duv noch recht neu und teuer war und 16 GB hbm auch was gekostet hat.
Das 1000 € Spielergrafikkarten nicht mal 16 GB hbm verbaut haben (Spekulationen zufolge nur 12 GB gdrr6), oder 2000 € Enthusiastenkarten, ist nur dick Marge.
Aber die Meinungsverschiedenheiten um Folgen/Konsequenzen gab es ja bereits letzens im Thread.^^
 
HBM wirdja bereits seit 3 Gens für NV spekuliert, müsste ja mittlerweile der Letzte gemerkt haben das das nicht der Way to go für NV ist..
Ob es Sinn macht oder nicht, darüber kann man vortrefflich streiten, nur sollte man eben immer auch Nvidia dabei im Hinterkopf haben.
 
Zuletzt bearbeitet:
SLI bzw eine 2 Chip Karte halte ich für ausgeschlossen, die Zeiten sind um.

Falls nvidia wieder eine Dual GPU anbietet dann mit einem überarbeitetem System.
Da es wie gesagt mittlerweile nativ möglich ist mehrere GPUs zu koppeln ohne auf Software angewiesen zu sein, die Hardware dazu hat nvidia seit geraumer zeit.

Daher so ausgeschlossen finde ich Theorie nicht, warum sollte man auch eine Titan als 3090 verkaufen und anschließend eine Titan bringen mit geringerer Speicher SI als die 3090, auch das passt zum x2 Modell.

Wie gesagt kann alles mögliche sein, kann auch eine Titan mit "sehr viel" Speicher sein, das dann die letzten GB ähnlich wie bei der 970 langsam angebunden sind.
Oder die Gerüchte stimmen nicht und die Titan kommt mit sehr viel Speicher bandbreite e.g HBM und die 3090 mit GDDR6/x
 
Zuletzt bearbeitet:
Mehrere Gpus auf einem pcb? Wie genau dies neue überarbeitende System?
Du meinst Nvlink und Nvswitch? Dies ist doch eine Spielerkarte und kein Severansatz^^

Geht gar nicht um streiten.
Für dick 1k € einer Spielerkarte sollte man im Jahre 2020 wenigstens 16 GB hbm erwarten! Samsungs 8 nm Prozess ist laut den meisten Informationen nicht nur bei Packdichte hinter tsmc normalen 7 nm Prozess, sondern soll für die Kunden auch günstiger sein.
Für 2000 €, eine Titan rtx ampere - da sollten einfach 16 - 24 GB HBM Speicher drauf sein.

Bin persönlich ziemlich unfroh darüber, dass sich Menschen wie du, die bereit sind so viel Geld für eine rtx titan ampere auszugeben (oder 1k € für eine rtx xx80 ti), mit gddr6 abgespeist werden. Nur weil die Unternehmensleitung der Situation entsprechend sich dies so leisten kann und solch Produkte noch Absatz finden.
Oder anders ausgedrückt für "sich dies so leisten kann", "Kunden so ausnehmen kann".
 
Was schreibst du immer von GDDR6, GDDR6X ist doch gesetzt ?
Was ich mir kaufe weiss ich nochnicht, im Grunde läuft alles was ich derzeit zocke auchnoch auf der 1080 wunderbar, ist bei mir der reine Hardwarenerd wenn ich dann kaufe..
Könnte auch gut eine 3080 10GB werden zb.. Die scheint ja ganz interessant zu werden von der Leistung und Hardware.

Eine Dualchip Karte würde ich nicht kaufen.
 
Man muss ja nicht kaufen, da es nun mal in jeder Leistungsklasse etwas gibt.
Wird ja so getan als werden wir gezwungen das teuerste Modell zu kaufen oder es wird so getan als könnte man alles unter 2080 ti kein Spiel Spielen.
Es gibt Menschen mit TV fetish die 10k und mehr für Fernseher ausgeben oder andere Menschen mit anderen teuren Hobbys wie Autos oder Modell Bau, also die liste ist endlos.
Bin auch deprimiert das ich mir kein Königsegg leisten kann und ist das die Schuld des Auto Herstellers?

Würde nvidia uns etwas vorenthalten würde ich das weitaus schlimmer finden.
nvidia hat keine Konkurrenz, wenn sie wollten könnten die ab x080 einfach aufhören noch Leistungsstärkere Modelle zu bringen und eine Generation einfach 10 mal refreshen.
Hätte keinem gejuckt wenn nvidia Pascal auch 2020 noch mal warm aufgesetzt hätte, einfach höherer Takt und fertig.
 
Wenn mich die Karten nicht überzeugen kaufe ich auch garnicht, habe ich bei RTX ja auchso gemacht, Mehrleistung zu wenig, für RTX zu lahm und selber Vram zu Wucherpreisen, ach nöööö..
Ich hoffe diesmal wieder auf einen Leistungsprung wie mit der GTX 10xx Gen..

Wenns denn nur das HW Hobby bei mir wäre :heul:
 
hab ich das bei Igor richtig verstanden das TSMC und Samsung chips fertigen ? Die Kleinen TSMC und die Großen Samsung 8NM ?

Holzi eine Alternative wär Bugatti xD
 
Es könnte sein das so die Karten etwas günstiger angeboten werden können.
eig ein 10NM aber da wurde wohl nochmal etwas optimiert so das es jetzt 8NM heißt.

 
Jede Wette gddr6X ist der angekündigte 18 GBp/s Gddr6 Speicher von 2018. Vllt. ein bump um 1000 MHz.
Würde nvidia uns etwas vorenthalten würde ich das weitaus schlimmer finden.
Ist ein anderer Satz für vorenthalten xD Nicht wohlen, da nicht müssen, da nicht brauchen, da sich rentiert.
Deswegen investiere ich lieber gescheite Kopfhörer fürs Spielen am Desktop. Die kauft man einmal für einen vierstelligen Betrag und hat 10 Jahre das Vergnügen. :whistle:


8 nm ist von der Packdichte etc. näher an 10 nm als an 7 nm duv. Oha!
Samsung begins production in new EUV line for 7-nm chips
Februar 2020 war für die Jungs bei nvidia wohl zu spät, um auf 7 nm umzusteigen.

Die Design ausgelegt auf die Fertigung von 10 nm, auf 8 nm oder 7nm duv zu portieren, ist nicht einfach in 6 Monaten möglich heißt es ständig.
 
Denke die Frage, als Außenstehende, was nun teurer ist, führt zu keinem genauem Ergebnis. Besagter 21 GBp/s Gddr6 Speicher sollte auch nicht günstig sein, vor allem bei der Anzahl der Chips.
In einem Video hat Industrie-Insider darüber erzählt, dass bei steigender Anzahl an Speicher, HBM sich relativiert.
Und die Beschäftigten bei nvidia können auch Interposer designen. Machen diese ja schon lange.
Du hast echt komische Ansichten wenn es um NV geht. Ehrlich... Warum sollte das jetzt so sein? Was interessiert denn der Preis auf einmal? Bei der 2080TI ist dir der Kostenfaktor doch auch völlig wumpe? Da gehts doch nur darum dass du den Preis für zu hoch empfindest, blendest aber komplett aus, dass das Teil 750mm² groß ist und kommst dann mit irgendwelchen Winzig GPUs, denen teils 50-60% von der Leistung fehlen, im Vergleich um irgendwas zu rechtfertigen. Kapier ich ehrlich gesagt nicht...

Generell möchte ich darauf hinweisen dass eine Radeon R7 in 7 nm und mit 16 GB hbm Anfang 2019 700 € gekostet hat.
Als 7nm duv noch recht neu und teuer war und 16 GB hbm auch was gekostet hat.
Das 1000 € Spielergrafikkarten nicht mal 16 GB hbm verbaut haben (Spekulationen zufolge nur 12 GB gdrr6), oder 2000 € Enthusiastenkarten, ist nur dick Marge.
Aber die Meinungsverschiedenheiten um Folgen/Konsequenzen gab es ja bereits letzens im Thread.^^
Das ist halt einfach genau der Käse - das hat nichts mit Meinungsverschiedenheit oder so zu tun, wenn du maximal negativ an ein Thema ran gehst und dann Urteile bildest die du alle Nase lang irgendwo platzierst... Eigentlich müsste doch langsam mal aufgefallen sein, dass es eben nicht so einfach geht!? Turing kam als 750mm² GPU mit neuem (zur Einführung schweine teuren GDDR6) Speicher auf den Markt. Da wurden teilweise für 8GB über 100$ spekuliert, an Kosten für den Hersteller um den Spaß zu beziehen. Lass dir das mal auf der Zunge zergehen :stupid:
Btw. ist der Wink zur Radeon VII auch nur bedingt schlüssig. Der Vega20 ist 336mm² groß. Das ist nichtmal die Hälfte der TU102 GPU - selbst wenn man die damalige Aussage von AMD nimmt, wo die 7nm TSMC Fertigung ungefähr doppelt so teuer sein soll wie der Vorgänger 16nm Prozess. Dann wäre TU102 immernoch teurer. Da hat nicht ein Entwickler an dem RT Kram gesessen. Für dich zur Erinnerung, Vega20 ist ein Shrink - da ist nicht sonderlich viel neu dran. Kann man so einfach nicht vergleichen zu Turing. Geänderte Shader ggü. Pascal, deutlich erweiterter Aufbau, mehr Function Units usw. usf.
Dass AMD an der Radeon VII nichts verdient, muss wohl auch nicht erwähnt werden - generell blendest du die Quartalszahlen irgendwie immer ganz aus. Du sprichst über AMD als würde der Laden satt Kohle einfahren, dabei kommt da real nur sehr wenig vom Umsatz bei an -> und da ist der Ryzen gar mit drin! Wie viel die GPUs allein erwirtschaften, sieht man gar nicht... Ganz ehrlich, bitte überdenk doch mal endlich diese komischen Aussagen mit deinen Preisansichten. Das ist irgendwo recht weit weg von der Realität. Wie viel, lässt sich nicht beziffern. Aber ein Blinder mit Krückstock sieht, dass da was bei deiner Wunschvorstellung einfach nicht zusammen passt... Und nein, schon vorbeugend - ich kann das kaum besser beziffern. So einfach wie du es hinstellst, ist es aber definitiv nicht.

Das jetzige SLI mag zwar scheiße sein aber es funktioniert auch nativ so wie aktuell bei denn nv cloud/remote gaming GPUs ohne das man auf irgendwelche Spiele Software/Treiber Profile angewiesen ist.
600 Watt sind auch nichts neues bei ner dual gpu siehe Titan Z/R9 295X2

Kannst du das genauer ausführen? Mir wäre nicht bekannt, dass da irgend ein MGPU Verfahren zum Einsatz kommt!?
Was dort genutzt wird, zumindest was ich kenne, sind Maßnahmen zum Splitten einer Hardware in mehrere virtuelle Teile. Das geht aber schon seit Anno Asbach - früher hießen die Dinger mal "Grid" Mit Kepler gabs da ne Grid K1 bspw. -> im Server Virtualisierungsumfeld konnte eine physische Hardware in virtuelle Einheiten geteilt werden, sodass jede Virtuelle Maschine einen Teil der GPU Ressourcen nutzen konnte. Meines Wissens nach wird das heute in ähnlicher Form fabriziert.
Wovon ich da aber bis dato nichts gehört habe, ist die Skalierung über mehrere physische GPUs. Was auch ohne weiteres so gar nicht geht. Zumindest nicht mit den bisher bekannten Mitteln... Normalerweise verwendet man in diesen Cloud-Gaming Kisten irgendwelche relativ "dicken" Server mit relativ dicken GPUs - mehrere an der Zahl und betreibt dann auf so nem Blech mehrere Instanzen und teilt die Ressourcen auf. Das geht dann komplett ohne eine Softwareskalierung wie SLI oder Crossfire, weil genug Instanzen drauf laufen. Anders kann sich sowas auch irgendwo gar nicht rechnen bei den Preisen die da aufgerufen werden!?

Wenn du da irgendwelche näheren Infos hast, hau mal was raus, ich hab da ernstes Interesse dran ;)


Ist ein anderer Satz für vorenthalten xD Nicht wohlen, da nicht müssen, da nicht brauchen, da sich rentiert.

Und wieder zu kurz gedacht...
Der Laden muss Geld verdienen. Wie macht man das wohl!? Man verkauft sinnigerweise seine Produkte. Erkläre mir, wie möchte NV mir noch ne dritte, vierte, fünfte 2080TI bitte schmackhaft machen!?
Kannste dir sicher sein, das wird nix werden... Ne 3080TI oder wie auch immer das Teil heißen wird, 2 Jahre nach der Turing, damit lockst du die ganzen Enthusiasten wieder vorm Ofen vor.
Das gilt btw. in der Mittelklasse noch viel mehr. Die, die versorgt sind, sind versorgt. Die kaufen kein zweites mal. Paar wenige Ausnahmen mal abgesehen...

Du kannst dir sicher sein, die werden alles dran setzen um so schnell es geht ne neue Generation zu bringen - einfach weil das bedeutet, dass man auf 1-2 Jahre wieder quasi gesicherte Einnahmen hat. Je nachdem, wie AMD mitspielt in der Konstellation wird die Sicherheit mal mehr, mal was weniger.
 
Das für und wieder ist mir nicht relevant zu erörtern. Das kann man doch unendlich so weiterführen, nicht?
Z.B: Gpu der RX Vega 64 wurde auch in 14 nm gefertigt, war mit 500 mm² um die 50 % kleiner, hatte aber teuren HBM drauf. Im Jahre 2017, UVP $ 500, nicht $ 1200.

Ich erwähne nur gern die Folgen & Konsequenzen überteuerter margenorientierter Produkte und weise die potentiellen Käufer darauf hin.

Dass AMD an der Radeon VII nichts verdient, muss wohl auch nicht erwähnt werden.
Der Laden muss Geld verdienen.
Wäre Lederjacke und deren Aktionäre nur so großzügig :bigok:


Nach simpler Rechnung, ausgehend vom rtx 2080 ti Chip. sind es theoretische max. 6100 Shader.
Warum nun die Gesamt-boardpower so hoch sein soll (320 W für rtx 3080), hat er nicht erwähnt.
 
Das Gerücht einer RTX3090 gibt es ja schon länger.
Ich denke das man einfach das Namensschema ändern wird.
es wird dann halt keine Ti mehr geben und die neue RTX3080 Ti ist dann eine RTX3090.
Eine RTX Titan X (Ampere) wird dann die 24Gb karte sein denke ich.

Ich vermute auch das die Boardpower so hoch ist weil Big Navi wohl doch sehr stark sein wird und man eben mehr rausholen muss

Edit: wenn aber die Big Navi womöglich so stark ist das man den Vollausbau umbedingt braucht um die Krone zu halten dann kann ich mir auch vorstellen das man die Titan wegfallen lässt und sie als 3090 mit 24Gb bringt.
AMD hatte ja in mehreren Interviews immer wieder gesagt das man Nvidia definitiv schlagen wird und es auch ein Versprechen ist so wie man Intel auch schon mit den Ryzen 3000 geschlagen hat.
Es wurde ja auch von AMD vor langer zeit gesagt das man schon in der Lage war mit Big Navi innerhalb von 300Watt >100% Leistung auf die 5700Xt zu packen .
Bin echt mal gespannt wie voll AMD den Mund genommen hat weil das wäre schon ein gewaltiger Sprung wenn man eine RTX3000 dann schlägt
 
Zuletzt bearbeitet:
Bei 320/350 W kann man gleich das 550 W Netzteil gegen ein 650 W wechseln. Auch Platinum/Titanium Effizienz 😫
Sonst gibt es wieder 350 - 400 W Lastspitzen, irgendeine Sicherung des Netzteils ist zu eng eingestellt, und schwups schaltet sich der PC aus oder das Spiel stürzt ab.
Igor hat ja beim Artikel mit dem Netzteil und der RX vega64, gtx 1080 ti und rtx 2080 ti, gezeigt dass man als Puffer für das Netzteil so ~ 100 W dazuaddieren sollte.
 
Ich habe 1000W und bin bereit :bigok:
 
750Watt Straight Power 11 dürfte auch reichen, auch wenn der 9900k sich gut was davon zieht :LOL:

Was mich schon seit langem ärgert ist das NV bewusst wenig Vram verbaut um schneller einen Neukauf zu generieren, war das noch schön also die Boardpartner für ein paar Euro mehr Versionen mit doppeltem Vram angeboten haben, hab die immer gern gekauft..
 
Es hieß ja von Anfang an BIS ZU 40% schneller als die 2080Ti und da war soweit ich das gelesen hatte der Vollausbau also die Titan oder 3090 oder so gemeint.
Eine 2080Ti FE würde den Vorsprung ja nochmal verringern.
Ampere soll ja angeblich auch einen ganz anderen Fokus haben als nur eine Gaming karte.
Ich denke das die RTX3000 ganz besonders stark bei DLSS und Raytracing loslegt
Die RTX2080Ti war ja am Anfang auch nicht sooo viel schneller als eine 1080Ti aber mit Treiber Updates war die dann teilweise 50% schneller bei neuen Titeln.

Wenn DLSS 3.0 auch wirklich bei allen Games die TAA nutzen funktioniert dann könnte die RTX3000 aber auch einen gewaltigen Sprung hinlegen.
Ich würde mich aber freuen wenn AMD die RTX3090 schlägt und NV DLSS braucht um zu gewinnen so das die preise sich wieder angleichen
 
Zuletzt bearbeitet:
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh