> > > > Launch der Single-PCB-GTX-295 für Mai bestätigt

Launch der Single-PCB-GTX-295 für Mai bestätigt

Veröffentlicht am: von

nvidiaIm Mai soll wie vermutet (wir berichteten) das neue 1-Platinen-Referenzdesign für NVIDIAs GeForce-GTX-295 an den Start gehen. Auf Endkundenseite besteht allerdings kaum Grund zur Aufregung, denn die "neue" GeForce-GTX-295 wird mit den gleichen Taktraten daherkommen und definitiv genauso viel kosten wie ihr Vorgänger - einzig die TDP könnte etwas niedriger ausfallen. Einige Boardpartner werden möglicherweise werksübertaktete Modelle anbieten, aber das alleine ist bekanntermaßen auch kein Grund für spontanen Freudentaumel. NVIDIAs Hauptmotivation für die Überarbeitung des Referenzdesigns der GeForce-GTX-295 dürfte in der Senkung der Produktionskosten durch das 1-Platinen-PCB und die weniger komplexe Kühllösung liegen. Möglicherweise ist die Single-PCB-GTX-295 auch als Testlauf auf sicherem Terrain für zukünftige Multi-GPU-Monster aus dem Hause NVIDIA zu verstehen - das Doppel-PCB-Sandwichprinzip musste ja nun schon für vier Karten (7900GX2, 7950GX2, 9800GX2, GTX295) herhalten.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (109)

#100
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat fdsonne;11865307
Du hast sicher recht, und ich glaube man kann mittlerweile sagen, wir sind schon fast am max. angelangt, was dem Endkunden mit Luftkühlung noch zumutbar ist...

Viel mehr als eine HD4870 X2 / 295GTX ist eigentlich wirklich nicht machbar muss ich sagen...
Ne X2 dümpelt bei mir in Crysis mit 78°C bei 100% Luffispeed rum, heizt das Zimmer innerhalb kürzester Zeit auf 35°C+ auf usw.

Ich glaube mal, wir werden in mittlerer Zukunft auch keine HighEnd Dual GPU Karten mehr sehen, einfach aus dem Grund, weil die Leistungsaufnahme und die Wärmeabgabe der HighEnd GPUs zu hoch ist.
Aber Dual GPU Karten im Performance Bereich, welche in Summe dann über ner Single HighEnd Karte stehen machen dennoch Sinn.
Und der Stromverbrauch und die Abwärme sollte sich in Grenzen halten...

Die wirklichen Freaks können ja dann immernoch ein SLI als den einzellnen HighEnd GPUs zusammen schrauben. Müssen dann aber mit der Leistungsaufnahme leben.


ach, 78°C bei 100% Lüftergeschwindikeit, was solls, die GPU hält sicher noch mehr aus :fresse:
sind die Karten kurzlebiger und die Hersteller verdienen noch mehr :d
Mal Spaß beisiete: ich hätte anstelle von nVidia geguckt, dass die GPUs auf 2 PCBs bleiben und man somit schon die Multi-GPU Schiene weiterfährt aber eben die PCBs noch weiter räumlich trennt um somit die Kühlung noch mit Luft zu realisieren.
Ich bin gerade auch wieder am überlegen wie dieses Wort hieß: umso mehr man an den Fotorealismus herankommt, desto mehr Lesitung braucht man und der Bedarf steigt exponentiell an???
#101
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24307
du meinst raytracing? :)

also dualpcb ist teurer und lässt sich schlechter kühlen als single pcb ;) darum ja auch der wechsel von nividia.
#102
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33793
Neja, mehr als Dualslot ist auch ungünstig... sprich weiter auseinander bekommen würde man die beiden PCBs auch nicht wirklich. Die Single PCB Version ist schon gut.

Und ja, klar hällt die GPU sicher auch mehr aus, aber ist eben unschön, wenn diese immer an der Brechgrenze läuft. Ich hab es mal auf 60% Speed probiert, da geht nach 2min das Notprogramm an und der Lüfter dreht trotz fixen 60% im CCC auf 100% hoch :fresse:
#103
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Es gibt eigentlich nur zwei möglichkeiten um dem problem entgegenzuwirken.Entweder man produziert langsamer u optimiert den herstellungsprozess erst soweit das er verlustleistungsmässig auf dem level der vorherigen generation liegt.

Oder man bleibt bei diesem tempo wie bissher u muss dafür aber irgendwann in kauf nehmen auf ein effiziententeres Kühlsystem(z.B Wasserkühlung)auszuweichen im ultra highendbereich;)

Zitat Le_Frog99;11865379
du meinst raytracing? :)
.

Genau das war das wort was er meinte denke ich:fresse:

Zitat fdsonne;11865239
Ich denke mal, mit der Legung des Grundsteins 1PCB Dual GPU Karte kann NV auch in zukünftigen Generationen auf das jetzt erwirtschaftete KnowHow zurück greifen...

Das wird der hauptgrund sein bei nvidias bestreben,ein singel pcb zu entwickeln für die dual karten;)
#104
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat Le_Frog99;11865379
du meinst raytracing? :)

also dualpcb ist teurer und lässt sich schlechter kühlen als single pcb ;) darum ja auch der wechsel von nividia.

ja, ne irgendwie nicht, meinte den Begriff für die immer weiter steigende bzw. benötigte Lesitung umso mehr Realismus man haben will...
werds schon über google finden.


Zitat fdsonne;11865384
Neja, mehr als Dualslot ist auch ungünstig... sprich weiter auseinander bekommen würde man die beiden PCBs auch nicht wirklich. Die Single PCB Version ist schon gut.

Und ja, klar hällt die GPU sicher auch mehr aus, aber ist eben unschön, wenn diese immer an der Brechgrenze läuft. Ich hab es mal auf 60% Speed probiert, da geht nach 2min das Notprogramm an und der Lüfter dreht trotz fixen 60% im CCC auf 100% hoch :fresse:

meinte das eher so, dass nVidia am SLI noch weiter feilt und die Karten dann räumlich weiter getrennt sind. So könnte man doch 2 monster-GPUs benutzen ohne dadruch Nachteile bei der Kühlung zu haben.
Dieser Schritt, die 2 GPUs nun auf ein PCB zu bringen, geschieht mMn primär aus Prestige-und nicht aus wirtschaftlichen Gründen. So oder so wird Verlust gemacht, und auch wenn nV das Know-How damit erwirbt, Dual-GPU-Lösungen stoßen irgendwann an ihre Grenzen, auch wenn wir in der Zukunft schon bei 28nm sind mit den GPUs. Wenn man mal bedenkt wie groß der GT200 schon ist, da wird es noch schwieriger diese Schiene so weiter zu führen und 2 GPUs auf ein PCB zu packen.
#105
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
"Expotentiell zunehmen" ist das der begriff den du meintest;)
#106
customavatars/avatar103066_1.gif
Registriert seit: 23.11.2008
endlich wieder dhoim! INFERNO VIII
Stabsgefreiter
Beiträge: 345
du meinst, man braucht extra für die neuen ultra-high-end grafikkarte, trotz 28nm & noch kleinerer fertigungstechnik, n supreme-extended-atx (sprich RIESEN! 1m²) mainboard & n datzu passendes server-artiges gehäudse damit auch die wasser kühlung reinpasst?
#107
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat SPIROW;11865535
du meinst, man braucht extra für die neuen ultra-high-end grafikkarte, trotz 28nm & noch kleinerer fertigungstechnik, n supreme-extended-atx (sprich RIESEN! 1m²) mainboard & n datzu passendes server-artiges gehäudse damit auch die wasser kühlung reinpasst?


wenn es bis dahin immer noch eine modifizierte GT200 ist wird ein PCB mit 4 GPUs vllt. möglich sein :fresse:
#108
customavatars/avatar103066_1.gif
Registriert seit: 23.11.2008
endlich wieder dhoim! INFERNO VIII
Stabsgefreiter
Beiträge: 345
Zitat PCZeus;11865555
wenn es bis dahin immer noch eine modifizierte GT200 ist wird ein PCB mit 4 GPUs vllt. möglich sein :fresse:


(SCH-)ENKELKLOPF!!
#109
customavatars/avatar50918_1.gif
Registriert seit: 05.11.2006
localhost
Kapitänleutnant
Beiträge: 1577
Da binichmalgespanntweidie asu sieht.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

ZOTAC GeForce GTX 1080 Ti Mini: 1080-Ti-Leistung auf gerade einmal 21 Zentimeter

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-MINI-LOGO

Wir haben uns bereits mehr als ein Dutzend verschiedene Modelle der GeForce GTX 1080 Ti angeschaut. Mit von der Partie waren standard-luftgekühlte und wassergekühlte Modelle, mit All-in-One-Wasserkühlung und Custom-Open-Loop – die Vielfalt lässt sicherlich kaum Wünsche offen. ZOTAC hat nun... [mehr]