> > > > NVIDIA hält langsamere GeForce GTX 660 in der Hinterhand

NVIDIA hält langsamere GeForce GTX 660 in der Hinterhand

DruckenE-Mail
Erstellt am: von

nvidiaAm vergangenen Donnerstag ließ NVIDIA mit der GeForce GTX 660 Ti eine weitere „Kepler“-Grafikkarte hinter dem Vorhang hervorkommen. Nun ist auch eine abgespeckte Version auf den Seiten der kalifornischen Grafikschmiede aufgetaucht, die auf das zusätzliche Kürzel „Ti“ verzichtet und vorerst nur für den OEM-Markt kommen soll. Im Vergleich zur Ti ist die GeForce GTX 660 (Non Ti) um einen SMX-Cluster beschnitten worden.

Damit stellt sie nicht mehr 1344 Shadereinheiten wie bei der GeForce GTX 660 Ti oder der GeForce GTX 670 bereit, sondern muss sich mit 1152 Rechenkernen begnügen. Die sechs verbleibenden SMX-Cluster stellen aber weiterhin 192 ALUs zur Verfügung und finden sich in vier Graphics Processing Clustern wieder. Da die Zahl der Texureinheiten an die SMX-Cluster gekoppelt ist, sinkt auch die Anzahl der TMUs. Standen der GeForce GTX 660 Ti bislang 112 TMUs zur Seite, sind es jetzt nur noch 96 Texturiereinheiten. Beim Speicherinterface hat NVIDIA allerdings nicht zum Rotstift gegriffen. Dieses legt weiterhin 192 Bit in die Waagschale und kann auf einen 1,5 GB großen GDDR5-Speicher zurückgreifen. Alternativ kann es die doppelte Menge sein – je nach Belieben des OEM-Partners.

Bei den Taktraten haben die Kalifornier kräftig gedreht. Arbeitet die GeForce GTX 660 Ti noch mit 915/1502 MHz, sind es jetzt nur noch 823 respektive 1450 MHz. Dank Boost-Takt darf es für den kleinen „Kepler“-Chip auch etwas mehr sein: Je nach Auslastung bis zu 888 MHz. Die maximale Leistungsaufnahme beziffert man auf 130 Watt. 

Aktuelle GeForce GTX 600-Karten im Überblick
Modell NVIDIA GeForce GTX 660 NVIDIA Geforce GTX 660 Ti NVIDIA GeForce GTX 670 NVIDIA GeForce GTX 680
- ab 280 Euro ab 350 Euro ab 420 Euro
Homepage www.nvidia.de www.nvidia.de www.nvidia.de www.nvidia.de
Technische Daten
GPU GK104 GK104 GK104 GK104
Fertigung 28 nm 28 nm 28 nm 28 nm
Transistoren 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden 3,54 Milliarden
GPU-Takt 823 MHz (Boost: 888 MHz) 915 MHz (Boost: 980 MHz) 915 MHz (Boost: 980 MHz) 1006 MHz (Boost: 1058 MHz)
Speichertakt 1450 MHz 1502 MHz 1502 MHz 1502 MHz
Speichertyp GDDR5 GDDR5 GDDR5 GDDR5
Speichergröße 1,5 / 3,0 GB 2048 MB 2048 MB 2048 MB
Speicherinterface 192 Bit 192 Bit 256 Bit 256 Bit
Speicherbandbreite 132,0 GB/Sek. 144,2 GB/Sek. 192,2 GB/Sek. 192,2 GB/Sek.
DirectX-Version 11.1 11.1 11.1 11.1
Shadereinheiten 1152 (1D) 1344 (1D) 1344 (1D) 1536 (1D)
Textur Units 96 112 112 128
ROPs 24 24 32 32
TDP 130 Watt 150 Watt 170 Watt 195 Watt
SLI/CrossFire SLI SLI SLI SLI

Ob die „Non Ti“-Version der GeForce GTX 660 Ti demnächst auch für die breite Masse verfügbar sein wird, bleibt abzuwarten.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (45)

#36
customavatars/avatar145689_1.gif
Registriert seit: 24.12.2010

Kapitänleutnant
Beiträge: 1564
Es ist wie es ist, viel zu spät.

Gesendet von meinem GT-I9100 mit der Hardwareluxx App
#37
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat scully1234;35
Beste Noob Aussage ever

GK104 ist hier der komplexe Chip nicht GK106

Was soll diese Behauptung/These über "Probleme" beim GK106 also hervor rufen außer Gelächter,wenn GK104 bereits real existiert und funktioniert


Ich suche erklärungen dafür, dass Nvidia diesen Chip immernoch nicht gebracht hat, was ist daran oknkret Noob?
Erkläre mal genauer. Nur aufgrund der Komplexität darauf zu schließen dass im unteren Preeisbereich alles einwandfrei über die Bühne gehen soll ist etwas sehr naiv.

Zitat
Wie du es nun nennst,kastriert oder nicht ist mal völlig Bockwurst,wenn das System mit den flexibel abschaltbaren Clustern funktioniert,senkt das die Anzahl der nötigen Wafer für die Kepler Serie



Nein, denn darum gehts ja konkret gerade. Ich glaub du bist verwirrt, scully1234.
Seit meinem ersten Post geht es um die Frage ob die GTX660 nun ein GK104 ist oder ein GK106.

Denn das senkt nicht die Waferkosten, sondern steigert die Kosten, weil ein kleinerer Chip billiger zu produzieren wäre.
#38
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Schaffe89;19361985


Denn das senkt nicht die Waferkosten, sondern steigert die Kosten, weil ein kleinerer Chip billiger zu produzieren wäre.


So ein Käse

Wenn ich nahezu alle Chips auf dem Wafer verwenden kann,weil es keinen Ausschuss mehr gibt aufgrund der strategischen SMX Clusteranordnung und deren Deaktivierung bei Teildefekten,steh ich am Ende mit mehr Kosten da:stupid:

Gerade am Anfang eines Shrinks wo die Yields ja so "dermaßen hoch" sind,das "100%" Wafer = 100% Chipausbeute entspricht
#39
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Du checkst nach wie vor wohl "absichtlich " nicht worum es hier geht und suchst dir zusammenhanglose Zitate raus, denn meine Aussage behandelt nicht den Sachverhalt den dumir jetzt andrehen willst.
Klar ist es billiger teildefekte Chips zu kastrieren und weiterhin als GTX 660 ti oder vll als GTX 660 zu verkaufen.
Trotzdem ist ist es im Endeffekt auf Dauer teurer einen großen Chip dafür zu verwenden, als einen deutlich kleineren, das war meine Intention.

Ansonsten würde Nvidia ja wohl überhaupt keine anderen Chips produzieren und bis ins 100 Euro Sgment gnadenlos runterkastrieren.
#40
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Schaffe89;19365309

Trotzdem ist ist es im Endeffekt auf Dauer teurer einen großen Chip dafür zu verwenden, als einen deutlich kleineren, das war meine Intention.

.


Von welchen "großen" Chip redest du denn hier?

Sind wir hier immer noch beim GK104 ja,oder von was redest du?

Schonmal einen DIE davon gesehen?

Und wie oben schonmal gesagt schmeiß ich 60% des Wafers weg,weil die Chips darauf nicht mehr einen nativen GK104 bilden können,ist das im Endeffekt teurer wie ~90% des Materials in verwertbare Chips umzumünzen,und daraus ein Produkt zu formen
#41
customavatars/avatar30622_1.gif
Registriert seit: 02.12.2005
Eutin.OH.SH
Vizeadmiral
Beiträge: 6938
einigt euch doch einfach darauf, dass beide varianten nicht optimal sind!

natürlich ist es das kleinere übel, wenn man teil-defekte chips wenigstens noch
als GTX660 verkaufen kann, aber dennoch ist die produktion der GTX660 damit
viel zu teuer!

da muss man kein experte sein um das zu sehen!
#42
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat Madschac;19365579
, aber dennoch ist die produktion der GTX660 damit
viel zu teuer
!

da muss man kein experte sein um das zu sehen!


DIE Size GK104 294mm 680/670 @660 GTX

DIE Size GF104 460/560 GTX 367mm

Wirds jetzt klarer?

Hat man mit der 560er Verluste eingefahren obwohl der DIE noch größer ist wie GK104?

GK104 ist kein "Bratpfannencore" wie der Vorgänger [email protected](529mm) sondern schon so "filigran"das man selbst bei Produktion kleinerer Kepler Ableger nicht in die Verlustzone rutscht,ganz im Gegenteil
#43
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Zitat scully1234;19365663
DIE Size GK104 294mm 680/670 @660 GTX

DIE Size GF104 460/560 GTX 367mm

Wirds jetzt klarer?

Hat man mit der 560er Verluste eingefahren obwohl der DIE noch größer ist wie GK104?

GK104 ist kein "Bratpfannencore" wie der Vorgänger [email protected](529mm) sondern schon so "filigran"das man selbst bei Produktion kleinerer Kepler Ableger nicht in die Verlustzone rutscht,ganz im Gegenteil


Wer zum Teufel hat denn behauptet man rutsche damit in die Verlustzone?
Ist es denn so schwer einzusehen dass ein kleinerer Chip auf Dauer kostemgünstiger wäre, um damit gegen Pitcairn von den Margen her besser dazustehen?

Fu willst also behaupten es sei besser einen grösseren chip zu beschneiden als einen kleineren für die gts 660 zu verwenden?
Welchen Krieh führst du hier? Du gehst ja sogar soweit jedwder einfachen Logik zu wiedersprechen nur um ein unfehlbares Bild von Nvidia hier in den Foren zu kolportieren, sowas kotzt mich an.
#44
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
So und jetzt das ganze nochmal in Deutsch:lol:



Zitat
Ist es denn so schwer einzusehen dass ein kleinerer Chip auf Dauer kostemgünstiger wäre, um damit gegen Pitcairn von den Margen her besser dazustehen



Wir sind im Hier und Jetzt und im Hier und Jetzt ist der Prozess bei TMSC noch weit davon entfernt Ideal zu sein.Defakto ist das Wegschmeißen der Wafer kostenintensiver wie für jeden Chip ein natives Design nebst eigener Fertigungsstrasse zu haben

Zumal sich der "große" GK104 so oder so schon vorzüglich gegen Pitcairn positionieren kann u könnte,allein wegen seiner "Größe",da kannst du heulen wie du willst
#45
customavatars/avatar145021_1.gif
Registriert seit: 12.12.2010

Banned
Beiträge: 5646
Leb nur weiter in deiner Traumwelt, scully1234.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]