> > > > GPU-Z-Screenshot zeigt angeblich Eckdaten der NVIDIA GTX 680

GPU-Z-Screenshot zeigt angeblich Eckdaten der NVIDIA GTX 680

Veröffentlicht am: von

nvidiaNoch hat das kalifornische Unternehmen NVIDIA für seine kommende Grafikkarten-Generation "Kepler" keinen Veröffentlichungstermin genannt, aber nun ist angeblich der erste GPU-Z-Screenshot von einer GTX 680 aufgenommen worden. Der Grafikprozessor wird bekanntlich erstmals in 28 Nanometern gefertigt und kann wohl auf 1024 CUDA-Cores zurückgreifen. Neben einer Verdoppelung der CUDA-Kerne gegenüber dem Vorgänger GTX 580, soll auch die Transistoren-Anzahl ordentlich gewachsen sein. An dieser Stelle verrät der Screenshot mit 6 Millionen Transistoren ebenfalls die doppelte Anzahl gegenüber dem kleineren Bruder. Zur weiteren Ausstattung zählen ein 512-Bit-Interface, um den verbauten 2,0 GB großen GDDR5-Speicher auch mit einer genügend hohen Geschwindigkeit ansprechen zu können. Zum Übertragen der Berechnungen wird ein PCI-Express-Interface in der Version 3.0 zum Einsatz kommen. Die Taktraten hingegen wurden leider unkenntlich gemacht.

Beim Blick auf die Revision des verwendeten Chips ist die Bezeichnung "A2" zu finden. Dies könnte auch die Erklärung für die Verschiebung von Kepler sein, denn laut älteren Gerüchten zufolge, hat die Revision "A1" noch Probleme bereitet und dadurch hat sich das Unternehmen zu einer Verschiebung entschieden. Trotz dieses Screenshots sollten aber auch diese Informationen mit ein wenig Vorsicht genossen werden, denn eigentlich kann GPU-Z den neuen Grafikprozessor GK110 noch nicht auslesen, sodass dieses Bild auch eine Fälschung sein könnte. Ob es sich um ein reales Bild handelt, wird sich wohl wirklich erst in den kommenden Wochen herausstellen, aber spätestens zu der offiziellen Vorstellung seitens NVIDIA.

efd129625a02a39b63557231d6db4cbd

Social Links

Ihre Bewertung

Ø Bewertungen: 4.5

Tags

Kommentare (42)

#33
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8771
Kann man erst mal so ein schätzen denke ich .
Wie gesagt die Infos sind vorerst sehr dürftig.
#34
customavatars/avatar55526_1.gif
Registriert seit: 10.01.2007

Flottillenadmiral
Beiträge: 6107
Zitat Thunderburne;18309701
@Dark_angel
Also bei meinem EX SLI [email protected] wenn ich Crysis2 oder BF3 @ Downsampling Max Grafik bei 2840*1620 gezockt habe bei einem von den beiden Spielen sogar schon 2560*1440.
Wurde nach 1-2Min gar nichts mehr verwaltet sondern es ist plötzlich so zu zusamen gebrochen das es unspielbar war .
Powerplay hat mit 2*HD7970 BF3 Single player Downsampling erzwungen über das PCGH Tool und dort waren es dan bei 3880*2160 so gar über 2200 MB ohne AA und auch voll ends flüssig.
So viel Leistung wie da auf uns eventuell zu kommt sind 2GB wirlich knapp gerade für SLI Nutzer.
Wenn das wieder Costum Karten richten müssen wäre das ärgerlich .


Was für Karten waren es? Ich würde kein Sli unter 2GB betreiben unter dem macht es kein Sinn, bzw. nicht bei der Auflösung.
Es geht aber grundsätzlich nicht um Sli sondern um den "normalen" Verbraucher, werde es sowieso nie verstehen wie man ca.800-1000€ in Grafikkarten investiert aber das ist eine andere Sache.

Ich wollte damit sagen das eine einzelne Karte mit Z b. 1.25GB den Speicher besser verwaltet als eine Karte mit 2GB oder mehr.
#35
customavatars/avatar48631_1.gif
Registriert seit: 03.10.2006
WOB
Admiral
Beiträge: 8771
Ja für eine Single Karte reicht das das stimmt.
Aber NV wirbt ja mit SLI und Quad SLI usw.
Und hier bei uns im Forum ist SLI++ keine Seltenheit.
Auf die Masse gesehen gebe ich dir recht.
#36
Registriert seit: 08.10.2003
Stuttgart, Germany
Matrose
Beiträge: 21
Zitat Oberst;18308599
Hallo,
ist es nicht so, dass GPU-Z sich die Chipdaten aus einer Datenbank holt? Das liest doch eigentlich nur die ID der Karte aus und holt dann die technischen Daten dazu aus einer Datenbank


nö, aus ner datenbank kommt nur das was nicht auf der karte gespeichert ist:
release date, gpu name, transistors, process size und directx (wegen xp das sonst nur dx9 anzeigen würde)

gpu name könnte man wohl noch per bios auslesen, aber ist unzuverlässig und bios ist ja auch schnell editiert mit nem hex editor, wird in china gern gemacht um grafikkarten zu fälschen für verkauf
#37
Registriert seit: 03.07.2007

Obergefreiter
Beiträge: 69
Zitat W1zzard;18311529
nö, aus ner datenbank kommt nur das was nicht auf der karte gespeichert ist[...]


Hallo,
heißt das dann, dass dein GPU-Z z.B. die Shader Zahl direkt ausliest? Ist der Wert auf der Karte gespeichert, und wenn ja, für was wird das gespeichert? Für den Treiber zur Lastverteilung, oder was kann der Wert bringen? Oder kannst du bei dem Tool durch einen Code abfragen, wie viele Shader aktiv laufen?
#38
Registriert seit: 08.10.2003
Stuttgart, Germany
Matrose
Beiträge: 21
anzahl der shader wird ausgelesen, die gpu muss ja wissen wieviele shader sie hat sonst kann sie keine arbeit verteilen. ka ob der treiber irgendwas mit dem vorgang zu tun hat. wenn ja dann benutzt das auch der treiber
#39
Registriert seit: 13.05.2009

Oberbootsmann
Beiträge: 843
die wird wohl in furmark die 400 watt marke knacken
#40
customavatars/avatar89447_1.gif
Registriert seit: 13.04.2008

Stabsgefreiter
Beiträge: 282
512bit SA? Das wird teuer, aber ich begrüße es.
#41
customavatars/avatar55526_1.gif
Registriert seit: 10.01.2007

Flottillenadmiral
Beiträge: 6107
Zitat W1zzard;18312375
anzahl der shader wird ausgelesen, die gpu muss ja wissen wieviele shader sie hat sonst kann sie keine arbeit verteilen. ka ob der treiber irgendwas mit dem vorgang zu tun hat. wenn ja dann benutzt das auch der treiber




Hallo W1zzard schön dich auch hier begrüßen zu können, frage wird die ASIC-Qualität auch schon bei NV Karten genau ermittelt und ist der errechnete Wert der gleiche wie bei AMD?
#42
Registriert seit: 03.07.2007

Obergefreiter
Beiträge: 69
Zitat Dark_angel;18313018
Hallo W1zzard schön dich auch hier begrüßen zu können, frage wird die ASIC-Qualität auch schon bei NV Karten genau ermittelt und ist der errechnete Wert der gleiche wie bei AMD?


Da hänge ich mich gleich mal mit dran: Gibt's schon einen Zeitplan, wann das für die HD6 Generation kommen wird und kann man da evtl. helfen, dass es schneller geht (Werte auslesen und einsenden, um eine Datenbasis zu erstellen oder so...)?
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]