> > > > NVIDIA hält langsamere GeForce GTX 660 in der Hinterhand

NVIDIA hält langsamere GeForce GTX 660 in der Hinterhand

Veröffentlicht am: von

nvidiaAm vergangenen Donnerstag ließ NVIDIA mit der GeForce GTX 660 Ti eine weitere „Kepler“-Grafikkarte hinter dem Vorhang hervorkommen. Nun ist auch eine abgespeckte Version auf den Seiten der kalifornischen Grafikschmiede aufgetaucht, die auf das zusätzliche Kürzel „Ti“ verzichtet und vorerst nur für den OEM-Markt kommen soll. Im Vergleich zur Ti ist die GeForce GTX 660 (Non Ti) um einen SMX-Cluster beschnitten worden.

Damit stellt sie nicht mehr 1344 Shadereinheiten wie bei der GeForce GTX 660 Ti oder der GeForce GTX 670 bereit, sondern muss sich mit 1152 Rechenkernen begnügen. Die sechs verbleibenden SMX-Cluster stellen aber weiterhin 192 ALUs zur Verfügung und finden sich in vier Graphics Processing Clustern wieder. Da die Zahl der Texureinheiten an die SMX-Cluster gekoppelt ist, sinkt auch die Anzahl der TMUs. Standen der GeForce GTX 660 Ti bislang 112 TMUs zur Seite, sind es jetzt nur noch 96 Texturiereinheiten. Beim Speicherinterface hat NVIDIA allerdings nicht zum Rotstift gegriffen. Dieses legt weiterhin 192 Bit in die Waagschale und kann auf einen 1,5 GB großen GDDR5-Speicher zurückgreifen. Alternativ kann es die doppelte Menge sein – je nach Belieben des OEM-Partners.

Bei den Taktraten haben die Kalifornier kräftig gedreht. Arbeitet die GeForce GTX 660 Ti noch mit 915/1502 MHz, sind es jetzt nur noch 823 respektive 1450 MHz. Dank Boost-Takt darf es für den kleinen „Kepler“-Chip auch etwas mehr sein: Je nach Auslastung bis zu 888 MHz. Die maximale Leistungsaufnahme beziffert man auf 130 Watt. 

Aktuelle GeForce GTX 600-Karten im Überblick
Modell NVIDIA GeForce GTX 660 NVIDIA Geforce GTX 660 Ti NVIDIA GeForce GTX 670 NVIDIA GeForce GTX 680
- ab 280 Euro ab 350 Euro ab 420 Euro
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.nvidia.de
Technische Daten
GPU GK104 GK104 GK104 GK104
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden
GPU-Takt 823 MHz (Boost: 888 MHz) 915 MHz (Boost: 980 MHz) 915 MHz (Boost: 980 MHz) 1006 MHz (Boost: 1058 MHz)
Speichertakt 1450 MHz 1502 MHz 1502 MHz 1502 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 1,5 / 3,0 GB 2048 MB 2048 MB 2048 MB
Speicherinterface 192 Bit 192 Bit 256 Bit 256 Bit
Speicherbandbreite 132,0 GB/Sek. 144,2 GB/Sek. 192,2 GB/Sek. 192,2 GB/Sek.
DirectX-Version 11.1 11.1 11.1 11.1
Shadereinheiten 1152 (1D) 1344 (1D) 1344 (1D) 1536 (1D)
Textur Units 96 112 112 128
ROPs 24 24 32 32
TDP 130 Watt 150 Watt 170 Watt 195 Watt
SLI/CrossFire SLI SLI SLI SLI

Ob die „Non Ti“-Version der GeForce GTX 660 Ti demnächst auch für die breite Masse verfügbar sein wird, bleibt abzuwarten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (45)

#36
customavatars/avatar145689_1.gif
Registriert seit: 24.12.2010

Kapitänleutnant
Beiträge: 1572
Es ist wie es ist, viel zu spät.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
#37
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat scully1234;35
Beste Noob Aussage ever

GK104 ist hier der komplexe Chip nicht GK106

Was soll diese Behauptung/These über "Probleme" beim GK106 also hervor rufen außer Gelächter,wenn GK104 bereits real existiert und funktioniert


Ich suche erklärungen dafür, dass Nvidia diesen Chip immernoch nicht gebracht hat, was ist daran oknkret Noob?
Erkläre mal genauer. Nur aufgrund der Komplexität darauf zu schließen dass im unteren Preeisbereich alles einwandfrei über die Bühne gehen soll ist etwas sehr naiv.

Zitat
Wie du es nun nennst,kastriert oder nicht ist mal völlig Bockwurst,wenn das System mit den flexibel abschaltbaren Clustern funktioniert,senkt das die Anzahl der nötigen Wafer für die Kepler Serie



Nein, denn darum gehts ja konkret gerade. Ich glaub du bist verwirrt, scully1234.
Seit meinem ersten Post geht es um die Frage ob die GTX660 nun ein GK104 ist oder ein GK106.

Denn das senkt nicht die Waferkosten, sondern steigert die Kosten, weil ein kleinerer Chip billiger zu produzieren wäre.
#38
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Schaffe89;19361985


Denn das senkt nicht die Waferkosten, sondern steigert die Kosten, weil ein kleinerer Chip billiger zu produzieren wäre.


So ein Käse

Wenn ich nahezu alle Chips auf dem Wafer verwenden kann,weil es keinen Ausschuss mehr gibt aufgrund der strategischen SMX Clusteranordnung und deren Deaktivierung bei Teildefekten,steh ich am Ende mit mehr Kosten da:stupid:

Gerade am Anfang eines Shrinks wo die Yields ja so "dermaßen hoch" sind,das "100%" Wafer = 100% Chipausbeute entspricht
#39
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Du checkst nach wie vor wohl "absichtlich " nicht worum es hier geht und suchst dir zusammenhanglose Zitate raus, denn meine Aussage behandelt nicht den Sachverhalt den dumir jetzt andrehen willst.
Klar ist es billiger teildefekte Chips zu kastrieren und weiterhin als GTX 660 ti oder vll als GTX 660 zu verkaufen.
Trotzdem ist ist es im Endeffekt auf Dauer teurer einen großen Chip dafür zu verwenden, als einen deutlich kleineren, das war meine Intention.

Ansonsten würde Nvidia ja wohl überhaupt keine anderen Chips produzieren und bis ins 100 Euro Sgment gnadenlos runterkastrieren.
#40
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Schaffe89;19365309

Trotzdem ist ist es im Endeffekt auf Dauer teurer einen großen Chip dafür zu verwenden, als einen deutlich kleineren, das war meine Intention.

.


Von welchen "großen" Chip redest du denn hier?

Sind wir hier immer noch beim GK104 ja,oder von was redest du?

Schonmal einen DIE davon gesehen?

Und wie oben schonmal gesagt schmeiß ich 60% des Wafers weg,weil die Chips darauf nicht mehr einen nativen GK104 bilden können,ist das im Endeffekt teurer wie ~90% des Materials in verwertbare Chips umzumünzen,und daraus ein Produkt zu formen
#41
customavatars/avatar30622_1.gif
Registriert seit: 02.12.2005
Eutin.OH.SH
Vizeadmiral
Beiträge: 6980
einigt euch doch einfach darauf, dass beide varianten nicht optimal sind!

natürlich ist es das kleinere übel, wenn man teil-defekte chips wenigstens noch
als GTX660 verkaufen kann, aber dennoch ist die produktion der GTX660 damit
viel zu teuer!

da muss man kein experte sein um das zu sehen!
#42
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Madschac;19365579
, aber dennoch ist die produktion der GTX660 damit
viel zu teuer
!

da muss man kein experte sein um das zu sehen!


DIE Size GK104 294mm 680/670 @660 GTX

DIE Size GF104 460/560 GTX 367mm

Wirds jetzt klarer?

Hat man mit der 560er Verluste eingefahren obwohl der DIE noch größer ist wie GK104?

GK104 ist kein "Bratpfannencore" wie der Vorgänger [email protected](529mm) sondern schon so "filigran"das man selbst bei Produktion kleinerer Kepler Ableger nicht in die Verlustzone rutscht,ganz im Gegenteil
#43
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat scully1234;19365663
DIE Size GK104 294mm 680/670 @660 GTX

DIE Size GF104 460/560 GTX 367mm

Wirds jetzt klarer?

Hat man mit der 560er Verluste eingefahren obwohl der DIE noch größer ist wie GK104?

GK104 ist kein "Bratpfannencore" wie der Vorgänger [email protected](529mm) sondern schon so "filigran"das man selbst bei Produktion kleinerer Kepler Ableger nicht in die Verlustzone rutscht,ganz im Gegenteil


Wer zum Teufel hat denn behauptet man rutsche damit in die Verlustzone?
Ist es denn so schwer einzusehen dass ein kleinerer Chip auf Dauer kostemgünstiger wäre, um damit gegen Pitcairn von den Margen her besser dazustehen?

Fu willst also behaupten es sei besser einen grösseren chip zu beschneiden als einen kleineren für die gts 660 zu verwenden?
Welchen Krieh führst du hier? Du gehst ja sogar soweit jedwder einfachen Logik zu wiedersprechen nur um ein unfehlbares Bild von Nvidia hier in den Foren zu kolportieren, sowas kotzt mich an.
#44
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
So und jetzt das ganze nochmal in Deutsch:lol:



Zitat
Ist es denn so schwer einzusehen dass ein kleinerer Chip auf Dauer kostemgünstiger wäre, um damit gegen Pitcairn von den Margen her besser dazustehen



Wir sind im Hier und Jetzt und im Hier und Jetzt ist der Prozess bei TMSC noch weit davon entfernt Ideal zu sein.Defakto ist das Wegschmeißen der Wafer kostenintensiver wie für jeden Chip ein natives Design nebst eigener Fertigungsstrasse zu haben

Zumal sich der "große" GK104 so oder so schon vorzüglich gegen Pitcairn positionieren kann u könnte,allein wegen seiner "Größe",da kannst du heulen wie du willst
#45
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Leb nur weiter in deiner Traumwelt, scully1234.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]