> > > > Pläne einer Dual-GPU-Grafikkarte mit zwei GF100-Chips eingestellt?

Pläne einer Dual-GPU-Grafikkarte mit zwei GF100-Chips eingestellt?

Veröffentlicht am: von

nvidiaWenn man der jüngsten Meldung auf Fudzilla.com Glauben schenken kann, so könnte die ATI Radeon HD 5970 wohl noch eine gewisse Zeit lang die schnellste DirectX-11-Grafikkarte bleiben. NVIDIA habe seine Pläne zum nächsten High-End-Modell, welches mit zwei GF100-Chips bestückt sein sollte und auf der internen Roadmap als "D12U-50" bekannt war, eingestellt. Eine Thermal Design Power (TDP) von rund 375 Watt soll das Ende der Pläne bedeutet haben. Stattdessen traut man sich erst wieder mit dem GF104 an Dual-GPU-Karten heran. Weiterhin soll die Roadmap jetzt mit "D12U-15" eine weitere Karte gelistet haben. Interessant hierbei, dass dieses Modell als GeForce GTX 460 bezeichnet wird und eine TDP zwischen 150 und 200 Watt aufweisen sollte. Die NVIDIA GeForce GTX 465 hingegen, welche wohl dann dem Modell mit 352 skalaren Einheiten entsprechen könnte, soll auf dem GF102 basieren und mit einer maximalen Leistungsaufnahme von 200 Watt daherkommen.

Bis dahin bleibt die ATI Radeon HD 5970 mit ihren 294 Watt die derzeit schnellste DirectX-11-Grafikkarte. Alles in allem erscheinen die neusten Gerüchte zu den kommenden NVIDIA-Grafikkarten ein ziemliches Durcheinander zu sein.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (17)

#8
customavatars/avatar15725_1.gif
Registriert seit: 28.11.2004

Admiral
Beiträge: 13890
eine fermi dual-gpu wird schwer, aber fudzilla schreibt in den meisten fällen bockmist.
#9
Registriert seit: 15.02.2010

Gefreiter
Beiträge: 57
Zitat fdsonne;14573240
Eine HD4870 X2 hat zwar eine niedrigere TDP Angabe, aber verbraucht in Spizenanwendungen auch 370W und mehr alleine für sich... Nachteil, das Teil wird schweine warm und der Stock Lüfter ist teils schon überfordert, was in GPU Temps von 90-100°C resultierte...
375W TDP wäre also noch nicht wirklich das Problem, wenn die Kühlung mitspielt

Ich denke aber mal, man hätte die beiden Chips schon derart drastisch kastrieren müssen um da überhaupt was Kühlbares auf die Beine stellen zu können, da dürfte der Leistungsgewinn zur 480GTX also auch nicht sooo sonderlich groß ausfallen. Für NV lohnt das wohl alles nicht so wirklich...


da frag ich mich warum sich amd mit der 5970 so zurückgehalten hat, nvidia liegt mit der gtx 480 ja auch nicht wirklich unter 300w
#10
customavatars/avatar45212_1.gif
Registriert seit: 17.08.2006
Wien
Banned
Beiträge: 4193
Zitat bawde;14573806
eine fermi dual-gpu wird schwer, aber fudzilla schreibt in den meisten fällen bockmist.


Würde ich so nicht unterschreiben. Hinter jeder Unwahrheit, steckt auch ein funken Wahrheit außerdem weiß jeder wie die Fermis heizen und da wundert es keinen wenn auf eine Dual Karte verzichtet werden würde.
Die GTX 460 im Doppelpack hätte nach den Benches die ich gesehen habe so gut wie keine Chance gegen eine GTX 480.
Da müsste SLI immer mit mindestens 90% skalieren um mithalten zu können. Klingt also Logisch das man drauf verzichtet.
#11
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34159
Zitat SuperHans;14574058
da frag ich mich warum sich amd mit der 5970 so zurückgehalten hat, nvidia liegt mit der gtx 480 ja auch nicht wirklich unter 300w


Die 480GTX braucht real wohl um die 250W alleine in Alltagssettings. Im Worst Case wohl um die 300W.

Die HD4870 X2 hingegen wie gesagt im Worst Case 370W+ und auch in Alltagssettings ohne OC im Sommer bei mir permanent auf 100% Lüfterspeed, anders ging das auch gar nicht zu bewerkstelligen. GPU Temps von teils über 100°C sind nicht grad wenig.

Mit der HD4870 X2 hat man sich schon sehr weit aus dem Fenster gelehnt, das hat man mit der HD5970 besser gemacht.

Eine Fermi Karte hingegen hat schon extreme Probleme mit einer GPU, bei zweien würde man alles dagewesene wohl sprengen. Ohne ein Refresh mit deutlich verringerter Leistungsaufnahme sehe ich da keine Dual Karte vom Fermi im kommen, die wirklich 50-80% über einer 480GTX liegt.
#12
customavatars/avatar88641_1.gif
Registriert seit: 03.04.2008
In Wayneland
Matrose
Beiträge: 7
Hallo!

War vorher nicht von anderen Quellen gesagt worden, dass die GTX460 auf den GF100 und nicht auf den GF104 basieren soll?

MfG
#13
customavatars/avatar57219_1.gif
Registriert seit: 02.02.2007
Düsseldorf
Bootsmann
Beiträge: 701
Aus dem Fermi kann man locker ein GF102 basteln der nur 12SM und dadurch 384SP hat.

Das Design ist ja modular. Bei so einem Chip würde NV 1/6 der Fläche einsparen. Wäre man nur noch bei 2,66 Mil. Transistoren. Es würden auf einem Wafer ca. 113 Chips passen.
#14
customavatars/avatar15725_1.gif
Registriert seit: 28.11.2004

Admiral
Beiträge: 13890
Zitat Mj.Overclocker;14575065
Hallo!

War vorher nicht von anderen Quellen gesagt worden, dass die GTX460 auf den GF100 und nicht auf den GF104 basieren soll?

MfG

zufällig auch von fudzilla?! :fresse:
#15
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Ja Fudzilla ist sozusagen die Bild der Hardware^^
#16
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 9037
Mmh,4,0GHZ I5 5970 @1000GPU/1200 Ram bei Spielen zwischen 370W und 420W Zeigt mein Messinstrument an.
Mir soll es recht sein das NV erstmal keine Dual Karte bringt.
War aber bei den Verbrauchswerten von vorn herein klar deshalb habe ich mir die 5970 geordert.
MFG
#17
customavatars/avatar18314_1.gif
Registriert seit: 22.01.2005
Berlin
Bootsmann
Beiträge: 728
Man könnte eine DualFermi mit 550MHzGPU/1099MHzShader/1411MHzMemory @0.825V takten. Dürften dann um die 280W TDP in FurMark sein.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]