> > > > GeForce GTX 680: Preise, Benchmarks und Blockdiagramme

GeForce GTX 680: Preise, Benchmarks und Blockdiagramme

Veröffentlicht am: von

nvidiaUnd wieder einmal mehr sind wenige Tage vor dem Start einer kommenden Grafikkarte alle Details ans Tageslicht gelangt. Neben den ersten Benchmarks zur heiß erwarteten NVIDIA GeForce GTX 680 sind auch die ersten Blockdiagramme der „Kepler“-GPU aufgetaucht. Demnach soll die kalifornische Grafikschmiede kleinere Änderungen gegenüber der „Fermi“-Architektur vorgenommen und weitere Feinheiten angepasst haben. Schon seit Längerem schreibt die Gerüchteküche dem kommenden Gegner der AMD Radeon HD 7970 drei Mal so viele Shadereinheiten vo wie bei einer NVIDIA GeForce GTX 580. Diese scheinen sich nun endgültig zu bestätigen und sollen sich in vier Graphics Processing Clustern (GPCs) organisieren. Jeder GPC soll dabei zwei Streaming-Multiprozessoren (SMs) oder – wie sie jetzt heißen – zwei SMX-Einheiten beherbergen. Diese sollen sich den Angaben zufolge einen L2-Cache teilen und eine Single Raster Engine bereithalten. In jeder SMX finden sich 192 CUDA-Cores, eine Polymorph-Engine der zweiten Generation, ein Instruction-Cache, ein 64 KB großer L1-Cache (shared) und vier Dispatch-Einheiten, die gewohnt die Auslastung der einzelnen ALUs erhöhen sollen.

Während die GF104-GPU noch zwei GPCs mit vier SMs besaß, stehen dem namentlichen Nachfolger vier GPCs zur Seite, die aber mit nur noch zwei SMs bzw. SMXs bestückt wurden. Dafür gibt es mehr Textureinheiten je Cluster. Waren es beim GF104 noch acht Texture Mapping Units je Streaming-Multiprozessor sind es jetzt pro SMX 16 TMUs. Bei Vollausbau soll der GK104-Chip acht XMS-Einheiten besitzen und es somit auf satte 128 Textureinheiten bringen.

Beim Speicherinterface warten vier 64-Bit-Controller auf ihre Verwendung. Die NVIDIA GeForce GTX 680 wirft damit 256 Bit in die Waagschale und muss mit zwei Speichercontrollern weniger auskommen als eine GeForce GTX 580. Diese basaß ein 384 Bit breites Speicherinterface. An jeden Speichercontroller ist ein ROP-Cluster angeschlossen, der sich aus je acht Raster Operation Units zusammensetzt. In der Summe stehen somit 32 ROPs zur Verfügung. Die insgesamt 1536 skalaren Einheiten sollen auf einer Fläche von 294 mm² und in über 3,54 Milliarden Transistoren ihren Platz finden. Gefertigt wird die neu GPU wie AMDs Radeon HD 7970 im fortschrittlichen 28-nm-Prozess.

Bei den Taktraten geht man aktuelle von einem Grundtakt von 1006 MHz aus, der sich dank eines Turbos auf mindestens 1058 MHz automatisch heraufsetzen soll – je nach aktueller Leistungsaufnahme. Der 2048 MB große GDDR5-Videospeicher, was bei der oben beschriebenen Speicheranbindung technisch machbar wäre, sollen effektive 6000 MHz anliegen. Apropos Leistungsaufnahme: Hier gelten aktuell 195 Watt als bestätigt. Somit reichen der GeForce GTX 680 zwei 6-Pin-Anschlüsse. Zum Vergleich: Eine AMD Radeon HD 7970 dürstet nach einem 6- und einem zusätzlichen 8-Pin-Stecker.

Soweit zur Theorie. Auch in der Praxis will man die neue GeForce GTX 680 schon ausgiebig getestet haben. Die Kollegen von HKEPC haben ihr Sample durch den Benchmarks-Parcours, bestehend aus 3DMark 11, Battlefield 3, Batman: Arkham City, Call of Duty: Modern Warfare 3, Lost Planet 2 und Unigine Heaven, geschickt. Alle Tests wurden in einer Auflösung von 1920 x 1080 und mit achtfachem MSAA erstellt. Als Testsystem dienten ein ASUS Rampage IV Extreme, ein Intel Core i7-3960X Extreme Edition, insgesamt 8 GB DDR3-Arbeitsspeicher und ein Corsair AX1200-Netzteil. Den Benchmarks zur Folge liegt die NVIDIA GeForce GTX 680 stets vor einer AMD Radeon HD 7970 – mal mehr, mal weniger. Während es bei Call of Duty mit 74 FPS keinerlei Unterschiede zwischen den beiden Konkurrenten gab, fiel der Abstand in Lost Planet 2 deutlicher aus. Hier stehen sich 73,4 und 58,5 FPS gegenüber. Im Extreme-Preset von 3DMark Vantage brachte es das „Tahiti“-Flaggschiff von AMD auf 2669 Punkte. Die NVIDIA-Karte lieferte mit 3165 Punkten abermals eine höhere Leistung und ist damit knapp 20 Prozent schneller. Im Performance-Preset liegt der Vorsprung sogar bei 50 Prozent. Im Tessellation-Test Unigine-Heaven liegt die GeForce GTX 680 mit zwölf Prozent Vorsprung in Führung.

alles
In ersten Benchmarks liegt die NVIDIA GeForce GTX 680 stets vor einer AMD Radeon HD 7970

Sollten diese Informationen zutreffen, so hätte AMD hart zu knappern, könnte dafür aber mit einer aggressiveren Preis-Strategie sehr gut gegenhalten. Bislang waren die Preise der Radeon-HD-7000-Familie allesamt nicht konkurrenzfähig und meist kräftig überteuert. Auch ein Preis für die GeForce GTX 680 geistert derzeit durchs Netz. In unserem Nachbarland ist eine ZOTAC GeForce GTX 680 gelistet und soll inklusive Steuern für 512,34 Euro ihren Besitzer wechseln. Ohne steuerliche Abgaben werden 431,38 Euro fällig. Lieferbar sein und auf die Reise geschickt werden, soll der 3D-Beschleuniger allerdings erst in zwei bis fünf Wochen. Als Startschuss gilt immer noch der 22. März. 

Social Links

Kommentare (152)

#143
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat carlo
Es sollten nur spielbare Settings getestet werden, so ähnlich wie es bei Hardocp.com der Fall ist, das ist sinniger als irgendwelche Balken, die in der Praxis keinerlei Vorteil bringen. Das ist genau das was du anderen Sites oder NV vorwirfst, Cherry Picking nichts anderes betreibst du hier auch, indem du nur theoretische Werte einfließen lässt. ;-)


Wenn du damit sagen willst, dass das Zusammenfassen mehrerer Ratings von objektiven und rennomierten Seiten cherry Picking ist, dann hast du glaub ich den Sinn von "cherry Pcking " nicht verstanden, oder du willst Trollen.
Die Gesamtleistung aus verschiedenen praxisnahen Settings (HD 4xAA/8xAA)
Savegames sind alles andere als theoretische Werte, aber wem erzähl ich das schon.

Zitat temnozor
wer glaubt das die GTX680 langsamer als die 7970 sein wird ist entweder ATI/AMD fan oder ein ziemlicher Träumer


Du hältst ein Kopf an Kopf Rennen also nicht für realistisch? Ich schon.

Schon echt erstaunlich wie verbissen und null argumentativ die Nvidiaboys kommen, wenn man etwas geringere Leistungseinschätzungen für realistisch hält, als die Firma selbst angibt. Whuu

Zu deinem restlichen Unsinn, kann man natürlich nur den Kopf schütteln.

Zitat
man sieht ja schon was ihr für hardware verbaut habt meine Freunde


Ja ich hab ne GTX480 verbaut, weil ich ein unbelehrbarer AMD Fanboy bin.:heuldoch:

Zitat bawder
die 680 ist schneller als die 7970 und kostet auch mehr, was gibt es da noch zu diskutieren und verdrehen


Und ich verstehe nicht, warum immer alle Spammer aus den Löchern gekrochen kommen müssen und felsenfest irgendetwas behaupten zu müssen.
Das verstehe ich eher unter Viralem Marketing, na los wer bezahlt euch, raus mit der Sprache. :D
#144
customavatars/avatar122193_1.gif
Registriert seit: 27.10.2009

Bootsmann
Beiträge: 520
Zitat Schmetze;18602321
Du vergisst die 2x 6-Pin Anschlüsse. Die werden eine allzu hohe Übertaktung hardwareseitig verhindern.


GTX570 haben auch nur 2x6 Pin und nuckeln tüchtig (besonders mit OC und mehr saft)
auf PCIe spezifikationen wird schon lang ein grosser haufen drauf gesch***en
mitunter liegt gk104 bei Spielen bei 180-185 Watt das sind mal fast 50 Watt unter deinem 2x6Pin Limit (PCIe Specs Limit)

Zitat

Aber selbst wenn es geht, ist jedoch die pauschale Aussage, dass die Karten 1400Mhz laufen totaler Müll! Ursprünglich sollte der GK104 mit etwas geringerem Takt kommen. Deshalb ist zu vermuten, dass das Potential nicht mehr so hoch ist.

genau das potential ist NATÜRLICH geringer weil die GPU fast 30% kleiner ist mit fast 20% weniger default Spannung kommt und eine geringere Leistungsaufnahme und TDP besitzt

Ja nee is kla das ist natürlich alles SEHR logisch

Zitat Schaffe89;18602396

Du hältst ein Kopf an Kopf Rennen also nicht für realistisch? Ich schon.


ich hab doch geschrieben das es sich noch herausstellen muß wieviel schneller sie ist und das es sein kann das sie nur leicht schneller (5-10%) im Schnitt ist - aber sie ist definitiv schneller denn sonst hätte man den GK110 von der Leine gelassen und sei es nur erstmal auf dem Papier.
#145
customavatars/avatar102678_1.gif
Registriert seit: 17.11.2008
Germany\Saarland
Kapitän zur See
Beiträge: 3727
Naja vllt. kommt ja wieder nen Refresh in Form von GTX 685 und GTX675.

@temnozor "[email protected]=40Ghz" Das ist aber nicht dein Ernst ?
#146
customavatars/avatar102895_1.gif
Registriert seit: 21.11.2008

Kapitän zur See
Beiträge: 3132
Der einzige Unterschied von 6-Pin zu 8-Pin sind zwei weitere Masseleitungen.

Diese 2 zusätzlichen Pins sollen den Übergangswiderstand der Steckverbindung senken. Der Strom "fließt" ja eigentlich von Masse zu +12V, wenn man das überhaupt so nennen kann. Solange die Steckverbindung einwandfrei funktioniert, kann man diese auch erheblich ausserhalb der Spezifikation von 75W ( 6-Pin ) bzw. 150W ( 8-Pin ) betreiben.

Hatte mal eine übertaktete 4870 x2 mit "nur" 6-Pin Kabeln betrieben,welche teilweise alleine bis zu 420W aus den Kabeln genuckelt hat. Laut Zangen-amperemeter gingen über die beiden PCI-E 6-Pin Stecker fast 330W. Also mehr als das doppelte der zulässigen Werte.
Unbeaufsichtigt würde ich das ganze aber so nicht laufen lassen :bigok:
#147
customavatars/avatar4438_1.gif
Registriert seit: 05.02.2003
Tangermünde
BadBoy
Beiträge: 16950
Was das ungefähre Übertaktungspotenzial der Karte angeht, wäre ich nicht ganz so optimistisch, denn zumindest mit auf Dauer verträglichen Spannungen von sagen wir maximal + 0.1V über Standard wird da bestimmt nciht ganz soviel Spielraum vorhanden sein. Und ich denke nicht, dass bei um die 1V Standardspannung 1.2V für die inneren Strukturen der Chips wirklich gesund sind, auch wenn AMD wiederum schon Standardspannungen fährt, die an diesen Wert herankommen, deren Chips sind ja, bis auf den Fertigungsprozess, auch anders aufgebaut (und 1.4V anlegen würde dort doch wahrscheinlich auch niemand, oder :fresse: )?
#148
customavatars/avatar34469_1.gif
Registriert seit: 30.01.2006
NRW
Admiral
Beiträge: 10906
so gerade mal bei nem shop angerufen die auch die 7970 vorher hatten und die haben die karten noch nicht und er meinte die haben die normalerweise 1-2 wochen vorher da. Meinte zu ihm das die donnerstag ja raus kommen. Da meinte er das das noch was dauern wird. Na super :(. So jetzt nächsten Shop anrufen :D


Wäre ja echt schlecht wenn die zum NDA fall nciht verfügbar wären und der Marktstart später wäre.
#149
customavatars/avatar31785_1.gif
Registriert seit: 20.12.2005
Großenhain/Jena
Admiral
Beiträge: 8989
Eventuell ist der Launch ja auch 2 Wochen vorgezogen, wie bei AMD. Verfügbarkeit stellt sich dann erst im April ein.
#150
customavatars/avatar122193_1.gif
Registriert seit: 27.10.2009

Bootsmann
Beiträge: 520
hier hat schon ein mitarbeiter eines shops eine GTX680
Gigabyte GTX 680 2GB already arrive at my shop! :)

also ist davon auszugehen das die Dinger gerade an den Handel ausgeliefert werden
Das macht die offizielle Vorstellung der Karten diese Woche schon zu fast 100% sicher

Zitat Robert45230;18602824

@temnozor "[email protected]=40Ghz" Das ist aber nicht dein Ernst ?



Ich hab mich nur an das übliche Forenniveau angepasst :bigok:
#151
customavatars/avatar145005_1.gif
Registriert seit: 12.12.2010

Oberleutnant zur See
Beiträge: 1381
Kann es sein, dass der Radial-Lüfter riesig ist oder ist das nur eine optische Täuschung? :hmm:
#152
customavatars/avatar148454_1.gif
Registriert seit: 20.01.2011

Leutnant zur See
Beiträge: 1115
Hmm, die Werte sehen seltsam aus. Vor allem die Stromverbrauchsfolie lässt mich stutzen, dass da getrickst worden ist. Ich warte erstmal die echten Benchmarks ab und dann entscheide ich mich. Ich würde mir ja auch gerne mal eine NV Karte besorgen, aber ich traue dem Braten nicht.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Sapphire Radeon RX Vega 64 Nitro+ im Test

    Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

    Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

  • NVIDIA Titan V: Volta-Architektur im Gaming-Test

    Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

    In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]