> > > > GF100: Kommt der wohl heißeste Chip doch schon im Februar?

GF100: Kommt der wohl heißeste Chip doch schon im Februar?

Veröffentlicht am: von

nvidiaSofern man den neusten Gerüchten Glauben schenken kann, gibt es an dieser Stelle neben einer positiven auch eine durchwachsene Nachricht über die kommende Grafikkarten-Generation von NVIDIA zu berichten. Die schlechte zuerst: Den Informationen auf Fudzilla.com zufolge soll Fermi nicht nur zu den komplexesten Chips zählen, sondern sich auch zu den heißesten Single-GPU-Karten seiner Art gesellen. Während die ATI Radeon HD 5870 über eine Thermal Design Power (TDP) von 188 Watt verfügt, soll das kommende High-End-Modell von NVIDIA hingegen die 200-Watt-Marke erreichen. Böse Zungen sprechen sogar von deutlich mehr. Dass eine so hohe Leistungsaufnahme allerdings kein allzu große Hürde darstellt, hat AMD mit seiner ATI Radeon HD 5970, deren TDP bei 294 Watt liegt, eindrucksvoll bewiesen.

Weiterhin ließ die stets gut bediente Gerüchteküche heute verlauten, dass das Warten bald ein Ende haben könnte. Demnach sollte die nächste NVIDIA-Generation schon im Februar an die Boardpartner ausgeliefert werden, sodass man die Karten ab März an den Mann bringen könnte. Wie gewohnt werden sich die Hersteller zu Beginn allerdings noch an die Vorgaben der kalifornischen Grafikschmiede halten und erst später am Design feilen. Ein Quartal später sollen dann die Mainstream-Modelle folgen. NVIDIA selbst bestätigte diese Angaben nicht und verweist weiter auf seine jüngste Enthüllung (wir berichteten).

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (104)

#95
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33992
Zitat scully1234;13835399
Du besitzt also auch ein Hardwaremuseum so wie andere Leute:)


könnte man dann wohl so sagen, wobei das ganz Alte Zeug schon weggeflogen ist, die CPUs und die Speicherriegel von damals hab ich alle noch.
Sowie nahezu komplett alle Technik seit dem Sockel-A... Davon vieles auch noch in Betrieb, wie mein Router mit Sockel-A Board + 1800+ Athlon XP und irgend ne damals schweine teure Diamond PCI Grafikkarte...

Aber gut, ich tausch auch nicht meine Hardware wie manch andere ihre Unterwäsche. Mein Hauptsys steht so seit über 3 Jahren ;) nur mal hier und da was getauscht, wie jüngst 2x4GB Speicherriegel nachgeschoben...
Aber im Sommer kommt dann wieder was neues, wohl das Dual S1366er EVGA Board + 1-2 Hexacore CPUs ;)
#96
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Haro;13835548


Und karten die jede menge strom verbrachen sind eben nicht zeitgemäß!


Es geht aber auch nicht ohne Strom im Highendbereich u jeder Hersteller wird darauf erpicht sein seine Chips so "kühl/leistungsaufnahmearm" wie möglich zu produzieren um aufwändigen u damit teuren Kühlkonstruktionen aus dem Weg zu gehen.
#97
Registriert seit: 17.08.2005
Leverkusen
Kapitänleutnant
Beiträge: 1897
Zitat scully1234;13835581
Es geht aber auch nicht ohne Strom im Highendbereich u jeder Hersteller wird darauf erpicht sein seine Chips so "kühl/leistungsaufnahmearm" wie möglich zu produzieren um aufwändigen u damit teuren Kühlkonstruktionen aus dem Weg zu gehen.


Dann muss man sich halt fragen was zeitgemäßer ist, der ansatz von ATI oder der Bruteforce ansatz von NV?
#98
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;13835569
wohl das Dual S1366er EVGA Board + 1-2 Hexacore CPUs ;)


Weiß Frauchen schon von der Ausgabe die du da tätigen willst:fresse:[COLOR="red"]

---------- Beitrag hinzugefügt um 19:36 ---------- Vorheriger Beitrag war um 19:34 ----------

[/COLOR]
Zitat Haro;13835594
Dann muss man sich halt fragen was zeitgemäßer ist, der ansatz von ATI oder der Bruteforce ansatz von NV?


Wie was meinst du denn jetzt?

Der Fermi wird allen Anschein nach schneller sein als die 5er Serie von ATI.

Warum muss er dann eigentlich nach Meinung einiger auf dem selben Energielevel liegen,wie das ATI Gegenstück?

Wo ist hier die Logik

Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim,das er diese auch verbraucht
#99
customavatars/avatar12546_1.gif
Registriert seit: 11.08.2004
Mainz
Gelegenheitsposter
Beiträge: 1109
Zitat ColeTrickle;13820902
so ein käse...1000w...anmachen,mal surfen,film schauen machst du nie...da kommt ganz schön ne summe übers jahr zusammen!
es geht doch nicht um 12w oder so...wenn man aber z.b. für 20% mehr leistung 300w anstatt 200w aus der dose zieht,ist das einfach der falsche weg,das energie ressourcen bzw. die,die wir jetzt nutzen nicht unendlich sind,ist dir egal....wenn du mal kinder hat,die können sich dann nen hamster holen,weil alles andere nicht mehr da ist!
solche dummen kommentare!


Du sprichst mir aus der Seele. Solche Aussagen, gerade wie die, sind sowas von lächerlich. Ich hasse diese scheiß Mentalität: Was ich nicht zahl, das ist mir egal. Und wenn jetzt einer kommt und sagt: ICh zahls, aber mir ists Wert, dann ist das noch 3 mal so dämlich.

Ich lasse, nur weil ich es finanziell könnte, auch incht mein Auto mit laufendem Motor vorm Haus stehen oder befülle meinen Kühlschrank bis er platzt, weil ist ja scheiß egal, wenn das Verfallsdatum abgelaufen ist, schmeiß ich es weg.

Es geht hier NICHT darum, das man etwas kann, sondern ob man der Verantwortung, die man dadurch auch hat, gerecht wird.

Ein bisschen über Nachaltigkeit von Verbrauchsgütern nachdenken, dann wäre schon vielen Leuten geholfen.
#100
Registriert seit: 17.08.2005
Leverkusen
Kapitänleutnant
Beiträge: 1897
Zitat scully1234;13835599
Weiß Frauchen schon von der Ausgabe die du da tätigen willst:fresse:[COLOR="red"]

---------- Beitrag hinzugefügt um 19:36 ---------- Vorheriger Beitrag war um 19:34 ----------

[/COLOR]

Wie was meinst du denn jetzt?

Der Fermi wird allen Anschein nach schneller sein als die 5er Serie von ATI.

Warum muss er dann eigentlich nach Meinung einiger auf dem selben Energielevel liegen,wie das ATI Gegenstück?

Wo ist hier die Logik

Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim


Ich sag ja nicht gleiches , aber sollte nicht den "rahmen" sprengen :fresse:

Und die mehrleistung kennt man noch nicht!
#101
Registriert seit: 27.01.2006
Leipzig
Flottillenadmiral
Beiträge: 5785
Ein Problem wird sicher auch die Haltbarkeit sein, wenn hohe Ströme fließen müssen. Eine schnelle und leistungsfähige Grafikkarte ist super, aber man möchte sicher mindestens länger als zwei Jahre Spaß damit haben.
#102
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33992
Zitat scully1234;13835599
Weiß Frauchen schon von der Ausgabe die du da tätigen willst:fresse:

Ohne Frauchen hab ich das Problem aktuell zum Glück nicht ;)

Zitat scully1234;13835599
Warum muss er dann eigentlich nach Meinung einiger auf dem selben Energielevel liegen,wie das ATI Gegenstück?

Wo ist hier die Logik

Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim


Die Frage ist wohl eher, welche der beiden Karten effizienter arbeiten wird...
#103
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;13835698



Die Frage ist wohl eher, welche der beiden Karten effizienter arbeiten wird...


Genau:)[COLOR="red"]

---------- Beitrag hinzugefügt um 20:05 ---------- Vorheriger Beitrag war um 20:03 ----------

[/COLOR]
Zitat Haro;13835671


Und die mehrleistung kennt man noch nicht!

Genau;)

Deshalb

Zitat
Wenn er für die prophezeiten 250Watt eine adäquate Leistung bringt ist das vollkommen legitim
#104
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6349
Zitat fdsonne;13827853
Du hast doch selbst Furmark als Beispiel weiter oben genannt...
Dann ist dir sicher auch nicht entfallen, das in Furmark weit mehr als 188W real von der Karte geschluckt werden.

Xbitlabs: ~160 W, HT4U: ~200 W. Keine Ahnung, auf was deine Aussagen basieren, aber sie entsprechen nicht den Tatsachen. Zudem, was soll das mit dem Thema und meiner Aussage zu tun haben? :hmm:
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

Erstes Custom-Design: ASUS ROG Strix Radeon Vega 64 OC Edition im Test

Logo von IMAGES/STORIES/2017/ASUS-VEGA

Es ist endlich soweit: Wir können uns das erste Custom-Modell der Radeon RX Vega 64 anschauen. ASUS war der erste Hersteller, der ein entsprechendes Modell vorgestellt hat, nun erreichte uns das finale Produkt. Im Zentrum steht natürlich die Frage, welche Verbesserungen ASUS mit der ROG Strix... [mehr]

AMD Radeon RX Vega 64 im mGPU-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

In den letzten Tagen war es so weit. Wir hatten endlich Hard- und Software zusammen, um die Radeon RX Vega 64 im mGPU testen zu können. Zum einen halten wir die ASUS ROG Strix Radeon Vega 64 OC Edition in Händen, zum anderen hat AMD den Radeon Software Crimson ReLive Edition 17.9.2... [mehr]