> > > > Drei Fermi-Karten zum Start?

Drei Fermi-Karten zum Start?

Veröffentlicht am: von

nvidiaErst in dieser Woche stellte NVIDIA seine neue Fermi-Architektur offiziell vor (wir berichteten). Demnach wird der Chip nicht nur im 40-nm-Fertigungsverfahren gefertigt, sondern kann auch auf eine Vielzahl von Shadereinheiten zurückgreifen. So sollen insgesamt 512 solcher Einheiten zur Verfügung stehen. Erstmals setzt der kalifornische Grafikkartenspezialist auch auf GDDR5-Videospeicher – bis zu 6 GB werden unterstützt – samt einer Anbindung von 384 Bit. Einzig die für Spieler interessanten Textur-Mapping-Units und Rasteroperations blieben bislang noch unter Verschluss. Neben der gewöhnlichen Single-Chip-Karte, soll es aber auch wieder eine Dual-GPU-Variante geben, welche mit zwei GF100-Chips daherkommen wird. Doch auch ein Gegenstück zur ATI Radeon HD 5850, welche leider noch immer kaum erhältlich ist, soll es zum Start der neuen Modellreihe geben. Während die 512 Shadereinheiten, welche nun auch als CUDA-Cores bezeichnet werden, in 16 SMs (Streaming-Multiprozessoren), welche wiederum aus 32 Shader-Prozessoren bestehen, unterteilt sind, könnte man für den kleineren Ableger ein oder zwei SM-Einheiten deaktivieren, sodass die Karte nur noch mit 480 bzw. 448 Shadereinheiten daherkommen könnte. Auch das Speicherinterface könnte von ehemals 384 Bit auf 320 Bit beschnitten werden – ähnlich wie zu Beginn der G80-Ära.

Weiterhin machte man jetzt erstmals auch genauere Angaben zur Thermal-Design-Power (TDP). So soll das kommende Flaggschiff mit einer TDP von 300 Watt daherkommen, während es die Single-GPU-Variante auf rund 225 Watt TDP bringen soll. Die neuen Grafikkarten sollen aktuellen Gerüchten zufolge bereits im Dezember – wohl rechtzeitig zum Weihnachtsgeschäft – auf den Markt kommen.

Weitere Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (16)

#7
Registriert seit: 18.07.2009

Hauptgefreiter
Beiträge: 141
Ich bin zuversichtlich. Zur Not muss halt noch jemand in den Baumarkt, neue Spaxschrauben und Heisskleber holen.
#8
customavatars/avatar58810_1.gif
Registriert seit: 25.02.2007

Banned
Beiträge: 8170
Zitat Gast #33;13006311
Sind 3 Karten für das Weihnachtsgeschäft nicht ein bissl wenig? :fresse:


Es ist ja hoffentlich die Rede von drei Modellen... und nicht von 3 Karten insgesamt ! :D
#9
customavatars/avatar118436_1.gif
Registriert seit: 19.08.2009

Oberstabsgefreiter
Beiträge: 492
Ich bin etwas überrascht, seit wann ist ein teildeaktivierter G 100- CHip (wohl 360 GTX mit 480 oder 448 shadereinheiten) der konkurrent zur 5850, ist das nicht eher der konkurrent zur 5870? :confused:
#10
Registriert seit: 20.08.2006

Flottillenadmiral
Beiträge: 5397
Zitat Der_ZockerMK;13008463
Ich bin etwas überrascht, seit wann ist ein teildeaktivierter G 100- CHip (wohl 360 GTX mit 480 oder 448 shadereinheiten) der konkurrent zur 5850, ist das nicht eher der konkurrent zur 5870? :confused:


Vll vom Preis her. 20% mehr Leistung, 10% höherer Preis oder so.

Aber wie das am Ende aussehen wird kann man nur schwer abschätzen.

Da kann man nur auf neue Infos warten.
#11
customavatars/avatar75855_1.gif
Registriert seit: 29.10.2007
München
Vizeadmiral
Beiträge: 6268
So bald schon? Kommt mir anhand der Tatsache dass für die Vorstellung noch ein Plagiat nötig war recht früh vor.
Freuen tät's mich natürlich schon, auch wenn ich noch nicht weiß ob ich umsteig, seh ich dann wenn erste Benchmark-Ergebnisse publik sind.
#12
customavatars/avatar118436_1.gif
Registriert seit: 19.08.2009

Oberstabsgefreiter
Beiträge: 492
Ja das ist auch so ein problem, die glaubwürdigkeit NVidias. Ob sie wirklich einen hardlaunch dies jahr hinkriegen, das bezweifeln ja viele.

UNd wann die preislich interessanten Karten für unter 250 euro kommen, man wird sehen. Am Anfang kommt erstma die 380 gtx für irgendwas über 400 Euro und ne 360 GTX, 300 euro wird man da auch mindestens berappen müssen.

Nicht vor frühjahr 2010 und dann kommt ja auch ATIs refresh, also wohl was in 28 nm, das heißt nochmal mehr leistung, bei weniger chipfläche, da wird sich nvidia warm anziehen müssen.
#13
Registriert seit: 17.12.2007

Stabsgefreiter
Beiträge: 278
ahahahahahaha ich glaube kaum das sich nvidia warm anziehen muss gegen ati ihr werdet schon sehen die haben wider mehr leistung und scheis auf den strom wenn ich jedes mal an den denken würde wenn ich mein rechner anmachen würde umgottes willen dann müsste ich ja weinen wenn ich kaffe koche oder bügle oder den fön anmache mit 2000w also
#14
Registriert seit: 23.12.2008

Stabsgefreiter
Beiträge: 273
Aja, mit dem Unterschied dass dein "2000 Watt-Föhn" vllt. 15 Minuten läuft und dein PC am Tag schätzungsweise 8 Stunden. Da möcht' ich dann nicht unbedingt 3 300 Watt-Karten drin haben :fresse:
#15
customavatars/avatar73489_1.gif
Registriert seit: 25.09.2007

Kapitänleutnant
Beiträge: 1581
Zitat kingcool321;13009955
ahahahahahaha ich glaube kaum das sich nvidia warm anziehen muss gegen ati ihr werdet schon sehen die haben wider mehr leistung und scheis auf den strom wenn ich jedes mal an den denken würde wenn ich mein rechner anmachen würde umgottes willen dann müsste ich ja weinen wenn ich kaffe koche oder bügle oder den fön anmache mit 2000w also


Vielleicht kriegst du ja für das geld noch eine schachtel satzzeichen dazu, damit solche amüsanten postings beim lesen nicht so schmerzen. :lol:
#16
customavatars/avatar58401_1.gif
Registriert seit: 19.02.2007
Homberg (Hessen)
Moderator
Beiträge: 7081
300 Watt TDP einzuhalten bei der Dual-GPU Lösung wär natürlich top - auch wenn man dann zwei teildeaktivierte GF100 wird einsetzen müssen - ähnlich GTX 295.

Wenn eine GTX 380 (?) 225 Watt TDP hat, dann wären in Vollausstattung (also 512 Shader Units, 384 Bit usw.) bei der GTX 395 (?) sicher locker an die 400 Watt TDP von Nöten, wenn man die TDP noch etwas optimieren würde - das schreit dann imho eher nach 32 oder 28nm Shrink, um die 300 Watt zu schaffen.

Die HD 5870 X2 soll ja 375 Watt verbrauchen - wobei man dann 2 x 6+2 pol. PCIe Buchsen verbauen müsste - die bisher gezeigten X2 Karten kamen ja wie bisher mit 6+2 und 6 pol. PCIe aus, also 300 Watt TDP.


Ich denke auch mal, dass die nächst kleinere Karte (GTX 360 ?) auf 448 1D Shader, 320 Bit SI und 1,28 GB VRAM setzen wird.
Die Performance Modelle (GTS 350 ?) werden dann vielleicht 384 oder 320 Shader, 256 Bit SI und 1 GB VRAM haben.
Die nächst kleinere Karte (GTS 340 ?) sehe ich etwa mit 240 Shader und 256 Bit SI - sollte dank neuer oder stark verbesserten Architektur zwischen GTX 285 und GTX 295 liegen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Gigabyte GeForce GTX 1080 Ti AORUS im Test

Logo von IMAGES/STORIES/LOGOS-2017/GIGABYTE-GTX1080TI-AORUS-LOGO

Bei den Grafikkarten scheint sich derzeit alles auf den High-End-Markt zu konzentrieren, denn besonders NVIDIA ist mit der Titan Xp und den Custom-Modellen der GeForce GTX 1080 Ti hier sehr gut aufgestellt. Heute nun wollen wir uns die Gigabyte GeForce GTX 1080 Ti AORUS einmal genauer anschauen,... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]