Nun wohl doch mit 512 Bit: GeForce RTX 5090 mit 32 GB und dreiteiligem PCB

Meinst Du das hier (siehe Anhang) ?
ist jetzt nicht ausschlaggebend, aber wenn die schon im Edge Case testen bezüglich Verbrauch sollte man das mit auf dem Schirm haben.

Ich bin aber der Meinung es ist sinnvoller in der mittleren Drehzahl zu testen. Also vielleicht eher 60FPS/Hz oder 100FPS/Hz. Nicht jedes Spiel brauch 144FPS/Hz

Aber vielleicht ist das nur meine Meinung und dann fällt der Verbrauch ziemlich steil ab. Meine gesamt System Leistung liegt im Durchschnitt CPU+GPU irgendwo zwischen 300-420W in etwa.
Davon Grafikkarte bei 200W +-. CPU 100W +- je nach Game.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.

Anhänge

  • Bench € Std %.jpg
    Bench € Std %.jpg
    229 KB · Aufrufe: 89
  • FPS € WQHD RT.jpg
    FPS € WQHD RT.jpg
    185,8 KB · Aufrufe: 90
Zuletzt bearbeitet:
Die Frage ist warum sollten sie überhaupt auf ein 512bit Interface setzen?
Oder hat die Lederjacke Angst davor dem Topmodell 48GB GDDR7 zu spendieren?
Für Spiele ist es nicht notwendig, aber die 5090 soll ja auch für irgendwelche Medienprofessionelle oder Grassroots AI Hobbyentwickler interessant sein.
Ein drittes Mal in Folge maximal 24GB für Normalsterbliche anzubieten wäre einfach langweilig.

Micron hat den 3Gbit GDDR7 ab Mitte 2024 in der Roadmap, für eine neue Nvidia Karte im Herbst wäre das zu spät, also keine 36GB an 384bit.
Aber zumindest macht es für den 128/192bit Bereich Hoffnung, denn dort würden 12/18GB Einzug halten.
 
Die müsste mindestens 16 GB VRAM haben und die doppelte Leistung einer 3080, dann wäre das natürlich ein potentieller Austausch für mich.
Ich denke aber angesichts der Situation könnte es ne AMD werden. Vielleicht zaubern die mit nächster Generation endlich wieder was brauchbare.

Edit: Ich finde es schade das sich AMD aus dem Semi professionellem Bereich mit seinen Consumer Karten zurück gezogen hat.

Ich möchte nv eigentlich schon treu bleiben. Wenn die 50er Generation aber zu teuer wird und AMD da was gutes und preiswerteres auf den Markt wirft, wäre ich auch u. U. zu einem umstieg bereiten. Aber warten wir mal ab...
 
Ich möchte nv eigentlich schon treu bleiben. Wenn die 50er Generation aber zu teuer wird und AMD da was gutes und preiswerteres auf den Markt wirft, wäre ich auch u. U. zu einem umstieg bereiten. Aber warten wir mal ab...
Wird nicht so kommen. Am Ende geht man wieder hin und drückt den Bestellbutton bei einer Nvidia Karte. Denn eines muss man ihnen lassen, Marketing können sie. Bisher war das immer so, dass man das Gefühl hatte, dass man das braucht, was sie einem da von der High End Karte vorschwärmen.

Da müsste es schon so weit kommen, dass man es sich nicht mehr leisten kann. Wollen will man bestimmt. Aber nach der Erfahrung mit meiner 4090 kaufe ich bestimmt nichts neues. Ich habe das Ding seitdem ich sie gekauft habe kaum ausgenutzt. Ich muss da ehrlich sein: eigentlich brauche ich sowas nicht mehr. Ich wollte es nur einfach in dem Moment. Weil, Marketing war verdammt gut.
 
Wird nicht so kommen. Am Ende geht man wieder hin und drückt den Bestellbutton bei einer Nvidia Karte.
Da könntest du recht haben 😜

Der hypetrain am fahren und "haben will" und schwupps gibt man doch mehr aus, als man sich geschworen hatte.

Immer das gleiche 🤣🤣
 
Naja wenn man ultrawide hat will bei möglicherweise dabei bleiben.
Als will man auch bestenfalls auf ultrawide mit 4k - / 5k? Wechseln.
 
Wird nicht so kommen. Am Ende geht man wieder hin und drückt den Bestellbutton bei einer Nvidia Karte. Denn eines muss man ihnen lassen, Marketing können sie. Bisher war das immer so, dass man das Gefühl hatte, dass man das braucht, was sie einem da von der High End Karte vorschwärmen.
Absolut
Auch kein Wunder wenn man Mid range bzw. upper mid range so "schlecht" macht. Letztes Jahr wollte nach der Vorstellung keiner eine 4080 12gb (korrigiere 4070ti) und hat stattdessen potenziell gleich 4080 oder höher genommen... Mich inklusive
Wenn man dann noch nicht warten kann/will auf 4070 & co. gibt es noch mehr Kunden für High-end

Wenn dieses mal wieder der Zeitabstand so groß wird, funktioniert "512 bit SI" "48gb Gddr7" und whatever auch wieder super
Marketing kann Nvidia
 
Zuletzt bearbeitet:
Was für ein Klopper. Mit dem aktuellen Gehäuse ist für mich das ok, da steht die Karte fast gerade drinnen. Aber hängend würde ich das Gerät nie verbauen, da hätte ich selbst mit einer Stütze Bauchschmerzen.

Die neue DP Version, damit der 57 Zöller von Samsung voll angesteuert werden kann, ist ja hoffentlich eh dabei, oder?
 
Die neue DP Version, damit der 57 Zöller von Samsung voll angesteuert werden kann, ist ja hoffentlich eh dabei, oder?
Es ist nicht bekannt inwieweit Nvidia auf DP2.1 geht, vielleicht auch nur wie AMD auf UHBR13.5 Intel scheint das zumindest den Gerüchten nach auch zu tun.


Ob das schon ein kleiner Testlauf für Blackwell ist? :d
 
Intel wird mit den Ultra 200 CPU´s schon auf UHBR 20.0 gehen also denke ich wird nvidia nachziehen und AMD genauso wäre nur der logische schritt
 
Ist die Frage, warum DP2.1 nicht mit vollem Funktionspotential verbaut werden soll. (jaja Gerüchte).
Wo sind da die technischen Hürden, außer sehr kurze Kabel, was ja aber nichts mit dem Interface zu tun hat.
 
News-Update:

"Dieser X-Beitrag (ehemals Twitter) ist an die GeForce RTX 5090 gerichtet, die den "GB202"-Chip beinhalten soll. Der bekannte Leaker kopite7kimi hatte sich geäußert, dass es sich beim GB202 für die GeForce RTX 5090 um eine physisch-monolithische Lösung handelt. Und im Grunde hat er zwar recht, doch die GeForce RTX 5090 soll auf zwei GB203-Chips bestehen, sodass das Multi-Chip-Design somit nicht vom Tisch zu sein scheint. Kurz um: Rein aus logischer Sicht sind es bei der GeForce RTX 5090 zwei GB203-Chips. Gehandelt wird das Doppelpack dann offenbar als GB202. Ein einzelner GB203-Chip wird als Kandidat für die GeForce RTX 5080 erwartet."
 
News-Update:

"Dieser X-Beitrag (ehemals Twitter) ist an die GeForce RTX 5090 gerichtet, die den "GB202"-Chip beinhalten soll. Der bekannte Leaker kopite7kimi hatte sich geäußert, dass es sich beim GB202 für die GeForce RTX 5090 um eine physisch-monolithische Lösung handelt. Und im Grunde hat er zwar recht, doch die GeForce RTX 5090 soll auf zwei GB203-Chips bestehen, sodass das Multi-Chip-Design somit nicht vom Tisch zu sein scheint. Kurz um: Rein aus logischer Sicht sind es bei der GeForce RTX 5090 zwei GB203-Chips. Gehandelt wird das Doppelpack dann offenbar als GB202. Ein einzelner GB203-Chip wird als Kandidat für die GeForce RTX 5080 erwartet."

Könnte mir ne Multichip Varianten für TI Versionen vorstellen.

Sagen wir die 5090 wäre MCM,

Dann wäre eine 5080 TI 2x der 5070 chip als MCM.
Usw.

Logisch könnte das upcycling ja auch auf die niederen Versionen angewendet werden.
 
Ist die Frage, warum DP2.1 nicht mit vollem Funktionspotential verbaut werden soll. (jaja Gerüchte).
Wo sind da die technischen Hürden, außer sehr kurze Kabel, was ja aber nichts mit dem Interface zu tun hat.
Es ist halt auch von den Leiterbahnen und den Display-Controllern höchst anspruchsvoll bei den wahnsinnigen Bandbreiten. Schon bei HDMI 2.1 hat man das ja an vielen Ecken gemerkt, bis heute gibt es viele Fernseher, bei denen nur 2 von 4 HDMI-Eingängen überhaupt 2.1-fähig sind. Und bei DisplayPort 2.x ist die Bandbreite nochmal doppelt so hoch.

Aber auch viele andere Geräte wie Laptops und co. haben nur HDMI 2.0 oder sehr lange auch nur HDMI 1.4 gehabt, schlicht und einfach weil alles darüber zu aufwändig und somit teuer ist.

Also ja, 3xDP 2.x wäre ziemlicher Aufwand. Merkt man ja auch an der DSC-Verdrahtung, dass Nvidia da gerne spart. Nicht nur, dass DSR und co nicht gehen, man kann auch höchstens zwei DSC-Monitore verwenden.

Für mich persönlich ist daher die 4090 auch relativ witzlos, in meinem Main-Game wären leistungsmäßig 8K 120FPS möglich, aber die Karte kann das partout nicht ausgeben und macht sogar beim 8K/2 57" Samsung-Monitor bei 120Hz schon dicht obwohl der Bildschirm 240Hz kann und das mit DSC an sich auch ginge.
 
Für mich persönlich ist daher die 4090 auch relativ witzlos, in meinem Main-Game wären leistungsmäßig 8K 120FPS möglich, aber die Karte kann das partout nicht ausgeben und macht sogar beim 8K/2 57" Samsung-Monitor bei 120Hz schon dicht obwohl der Bildschirm 240Hz kann und das mit DSC an sich auch ginge.

Wie kannst du nur einen Monitor haben der besser als ein zertifizierter Nvidia Monitor ist.🤣
 
Wer hätte gedacht, das sowas jemals ein Stat wird, der beim MB Kauf zu berücksichtigen ist. 😂
 
Was hilft es denn wenn der PCIe Slot des Mainboards 58 Kg tragen kann, wenn z.B. die Gigabyte Grafikkarten bei wesentlich weniger Gewicht schon Risse im PCB kriegen?
 
Was hilft es denn wenn der PCIe Slot des Mainboards 58 Kg tragen kann, wenn z.B. die Gigabyte Grafikkarten bei wesentlich weniger Gewicht schon Risse im PCB kriegen?
Bei etwaigen rma ansprüchen mit dem finger auf andere zeigen zu können. Sollte trotzdem das board wss abbekommen, kann man grobe fahrlässigkeit annehmen.
 
Das hat man doch bisher schon hinbekommen, vor allem als Gigabyte. Aber gut. Vielleicht einfach nur das Prinzip dass sich hohe Zahlen gut verkaufen.
 
Klassischer PCGH Clickbait mit dem Onkel Föhn hausieren geht. Ein stabiler PEG Slot ist natürlich richtig und wichtig. Die VRM und M.2 Kühler sehen Speziel beim Aorus aber immer nach Kompatibilitäts Katastrophe aus bei Gigabyte.
 
Die PCGH News kann man schon lange nicht mehr glauben.
 
"wieso haben sie 3 Säcke Zement in ihrem PC..."
 
Es ist nicht bekannt inwieweit Nvidia auf DP2.1 geht, vielleicht auch nur wie AMD auf UHBR13.5 Intel scheint das zumindest den Gerüchten nach auch zu tun.


Ob das schon ein kleiner Testlauf für Blackwell ist? :d

Wenn NVIDIA nichtmal den aktuellen DP-Standard schafft wird es verdammt schwer, mir das Upgrade schönzureden. :(:angel:
 
Die 4090 werden für gutes Geld den Straßenmarkt geflutet werden denke hier wird man kein schnäppchen machen sie wird weiterhin locker 1000-1300€ kosten je nach modell
Ich rechne mit 6-800 € nach spätestens einem Jahr wenn die neuen raus sind. Könnt ihr drüber lachen, aber siehe 3000er: Als die 4000er dann breit verfügbar waren ging die damals maßlos überteure 3090(Ti) auf dieses Preisniveau runter. Letztlich hängt es von Angebot und Relation zur Mehrleistung ab. Sollte P/L bei NVIDIA bei Blackwell sinken bleiben die Preise der alten Gen stabiler. Erlauben können sie sich das prinzipiell, zumal ich sowieso mit Stückchentaktik rechne: Je nachdem erst 5080/90 zum Weihnachtsmarkt und eventuelle Rabatte bei den Ada-Karten (zum Abverkaufen) und dann kommt irgendwann ein halbes Jahr später noch eine 5070. Die Preise bei Grafikkarten ändern sich nur wenn neue Produkte auf den Markt kommen, ansonsten bleiben sie relativ stabil (abgesehen von Mining und Scalping/Knappheiten).
 
Nach einem Jahr ist das was anderes Aber für dieses Jahr wird man für eine 4090 4 stellig zahlen je nach modell
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh