> > > > GPU-Z-Screenshot zeigt angeblich Eckdaten der NVIDIA GTX 680

GPU-Z-Screenshot zeigt angeblich Eckdaten der NVIDIA GTX 680

Veröffentlicht am: von

nvidiaNoch hat das kalifornische Unternehmen NVIDIA für seine kommende Grafikkarten-Generation "Kepler" keinen Veröffentlichungstermin genannt, aber nun ist angeblich der erste GPU-Z-Screenshot von einer GTX 680 aufgenommen worden. Der Grafikprozessor wird bekanntlich erstmals in 28 Nanometern gefertigt und kann wohl auf 1024 CUDA-Cores zurückgreifen. Neben einer Verdoppelung der CUDA-Kerne gegenüber dem Vorgänger GTX 580, soll auch die Transistoren-Anzahl ordentlich gewachsen sein. An dieser Stelle verrät der Screenshot mit 6 Millionen Transistoren ebenfalls die doppelte Anzahl gegenüber dem kleineren Bruder. Zur weiteren Ausstattung zählen ein 512-Bit-Interface, um den verbauten 2,0 GB großen GDDR5-Speicher auch mit einer genügend hohen Geschwindigkeit ansprechen zu können. Zum Übertragen der Berechnungen wird ein PCI-Express-Interface in der Version 3.0 zum Einsatz kommen. Die Taktraten hingegen wurden leider unkenntlich gemacht.

Beim Blick auf die Revision des verwendeten Chips ist die Bezeichnung "A2" zu finden. Dies könnte auch die Erklärung für die Verschiebung von Kepler sein, denn laut älteren Gerüchten zufolge, hat die Revision "A1" noch Probleme bereitet und dadurch hat sich das Unternehmen zu einer Verschiebung entschieden. Trotz dieses Screenshots sollten aber auch diese Informationen mit ein wenig Vorsicht genossen werden, denn eigentlich kann GPU-Z den neuen Grafikprozessor GK110 noch nicht auslesen, sodass dieses Bild auch eine Fälschung sein könnte. Ob es sich um ein reales Bild handelt, wird sich wohl wirklich erst in den kommenden Wochen herausstellen, aber spätestens zu der offiziellen Vorstellung seitens NVIDIA.

efd129625a02a39b63557231d6db4cbd

Social Links

Ihre Bewertung

Ø Bewertungen: 4.5

Tags

Kommentare (42)

#33
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8906
Kann man erst mal so ein schätzen denke ich .
Wie gesagt die Infos sind vorerst sehr dürftig.
#34
customavatars/avatar55526_1.gif
Registriert seit: 10.01.2007

Vizeadmiral
Beiträge: 6322
Zitat Thunderburne;18309701
@Dark_angel
Also bei meinem EX SLI [email protected] wenn ich Crysis2 oder BF3 @ Downsampling Max Grafik bei 2840*1620 gezockt habe bei einem von den beiden Spielen sogar schon 2560*1440.
Wurde nach 1-2Min gar nichts mehr verwaltet sondern es ist plötzlich so zu zusamen gebrochen das es unspielbar war .
Powerplay hat mit 2*HD7970 BF3 Single player Downsampling erzwungen über das PCGH Tool und dort waren es dan bei 3880*2160 so gar über 2200 MB ohne AA und auch voll ends flüssig.
So viel Leistung wie da auf uns eventuell zu kommt sind 2GB wirlich knapp gerade für SLI Nutzer.
Wenn das wieder Costum Karten richten müssen wäre das ärgerlich .


Was für Karten waren es? Ich würde kein Sli unter 2GB betreiben unter dem macht es kein Sinn, bzw. nicht bei der Auflösung.
Es geht aber grundsätzlich nicht um Sli sondern um den "normalen" Verbraucher, werde es sowieso nie verstehen wie man ca.800-1000€ in Grafikkarten investiert aber das ist eine andere Sache.

Ich wollte damit sagen das eine einzelne Karte mit Z b. 1.25GB den Speicher besser verwaltet als eine Karte mit 2GB oder mehr.
#35
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8906
Ja für eine Single Karte reicht das das stimmt.
Aber NV wirbt ja mit SLI und Quad SLI usw.
Und hier bei uns im Forum ist SLI++ keine Seltenheit.
Auf die Masse gesehen gebe ich dir recht.
#36
Registriert seit: 08.10.2003
Stuttgart, Germany
Matrose
Beiträge: 21
Zitat Oberst;18308599
Hallo,
ist es nicht so, dass GPU-Z sich die Chipdaten aus einer Datenbank holt? Das liest doch eigentlich nur die ID der Karte aus und holt dann die technischen Daten dazu aus einer Datenbank


nö, aus ner datenbank kommt nur das was nicht auf der karte gespeichert ist:
release date, gpu name, transistors, process size und directx (wegen xp das sonst nur dx9 anzeigen würde)

gpu name könnte man wohl noch per bios auslesen, aber ist unzuverlässig und bios ist ja auch schnell editiert mit nem hex editor, wird in china gern gemacht um grafikkarten zu fälschen für verkauf
#37
Registriert seit: 03.07.2007

Obergefreiter
Beiträge: 78
Zitat W1zzard;18311529
nö, aus ner datenbank kommt nur das was nicht auf der karte gespeichert ist[...]


Hallo,
heißt das dann, dass dein GPU-Z z.B. die Shader Zahl direkt ausliest? Ist der Wert auf der Karte gespeichert, und wenn ja, für was wird das gespeichert? Für den Treiber zur Lastverteilung, oder was kann der Wert bringen? Oder kannst du bei dem Tool durch einen Code abfragen, wie viele Shader aktiv laufen?
#38
Registriert seit: 08.10.2003
Stuttgart, Germany
Matrose
Beiträge: 21
anzahl der shader wird ausgelesen, die gpu muss ja wissen wieviele shader sie hat sonst kann sie keine arbeit verteilen. ka ob der treiber irgendwas mit dem vorgang zu tun hat. wenn ja dann benutzt das auch der treiber
#39
Registriert seit: 13.05.2009

Oberbootsmann
Beiträge: 843
die wird wohl in furmark die 400 watt marke knacken
#40
customavatars/avatar89447_1.gif
Registriert seit: 13.04.2008

Stabsgefreiter
Beiträge: 284
512bit SA? Das wird teuer, aber ich begrüße es.
#41
customavatars/avatar55526_1.gif
Registriert seit: 10.01.2007

Vizeadmiral
Beiträge: 6322
Zitat W1zzard;18312375
anzahl der shader wird ausgelesen, die gpu muss ja wissen wieviele shader sie hat sonst kann sie keine arbeit verteilen. ka ob der treiber irgendwas mit dem vorgang zu tun hat. wenn ja dann benutzt das auch der treiber




Hallo W1zzard schön dich auch hier begrüßen zu können, frage wird die ASIC-Qualität auch schon bei NV Karten genau ermittelt und ist der errechnete Wert der gleiche wie bei AMD?
#42
Registriert seit: 03.07.2007

Obergefreiter
Beiträge: 78
Zitat Dark_angel;18313018
Hallo W1zzard schön dich auch hier begrüßen zu können, frage wird die ASIC-Qualität auch schon bei NV Karten genau ermittelt und ist der errechnete Wert der gleiche wie bei AMD?


Da hänge ich mich gleich mal mit dran: Gibt's schon einen Zeitplan, wann das für die HD6 Generation kommen wird und kann man da evtl. helfen, dass es schneller geht (Werte auslesen und einsenden, um eine Datenbasis zu erstellen oder so...)?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Die ersten Custom-Modelle der GeForce GTX 1070 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1070TI-LOGO

Nach der Vorstellung aller Details dürfen wir heute die Leistungswerte der GeForce GTX 1070 Ti veröffentlichen. Dabei stand uns dieses Mal keine Founders Edition zur Verfügung, die nur von NVIDIA verkauft wird, dafür aber einige Custom-Modelle. Diese stammen aus dem Hause ASUS, Inno3D und... [mehr]

Erstes Custom-Design: ASUS ROG Strix Radeon Vega 64 OC Edition im Test

Logo von IMAGES/STORIES/2017/ASUS-VEGA

Es ist endlich soweit: Wir können uns das erste Custom-Modell der Radeon RX Vega 64 anschauen. ASUS war der erste Hersteller, der ein entsprechendes Modell vorgestellt hat, nun erreichte uns das finale Produkt. Im Zentrum steht natürlich die Frage, welche Verbesserungen ASUS mit der ROG Strix... [mehr]