> > > > NVIDIA: Mögliche Taktraten des G300 aufgedeckt

NVIDIA: Mögliche Taktraten des G300 aufgedeckt

Veröffentlicht am: von

nvidiaGerade erst hatten wir erfahren, dass NVIDIAs G300-Grafikchip vermutlich bereits sein Tape-Out feiern durfte und schon tauchen erste Informationen zu den möglichen Taktraten auf. Die ersten lauffähigen Samples im A1-Stepping kommen demzufolge mit einem Chiptakt von 700 MHz daher. Der Shadertakt beträgt 1600 MHz und der GDDR5-Speicher wird mit 1100 MHz betrieben (effektiv 4400 MHz). Sofern die Spekulationen über die Anzahl (512) und Funktionsweise (1D) der Shadereinheiten stimmen, sollte die GPU eine theoretische Rechenleistung von knapp 2500 Gigaflops erreichen. Die Speicherbandbreite würde bei einem 512-Bit-Interface auf gigantische 282 GB/s kommen, womit ein Engpass in diesem Bereich wohl kaum noch möglich wäre.

Im Vergleich zur GTX 280, die auf dem G200 beruht, entspräche die Steigerung der Rechenleistung sagenhaften 163 Prozent und die Speicherbandbreite hätte sich genau verdoppelt. Über die Anzahl der Textur- und Raster-Einheiten ist allerdings noch nichts bekannt. Es ist sehr gut möglich, dass NVIDIA einen ähnlichen Weg wie AMD einschreitet und das Verhältnis der Shadereinheiten gegenüber den anderen erhöht.

Angeblich sei NVIDIA mit den Sample-Chips bereits so zufrieden, dass womöglich bereits das A1-Stepping in die Produktionsphase gelangen könnte, womit einem Launch im vierten Quartal praktisch nichts mehr im Wege stünde.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (36)

#27
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat fdsonne;12057553
Ähm nö, erstens brauchst du durch ein breiteres SI nicht mehr Strom, zweitens brauch GDDR5 Speicher bei gleichem Takt weniger Strom als GDDR3 Speicher (und auch die schlussendliche Größe dessen macht den Braten nicht weiter Fett)
Und drittens kommt eine einzige 280GTX mit Stock Takt und Stock Spannung in gewöhnlichen 3D Games nicht mal auf 180W...
http://xbitlabs.com/images/video/evga-geforce-gtx285ssc/evga285_power.png

Also Abwarten und Tee trinken... bis Fakten bekannt sind.


Wie sind deine Vorstellungen zum GT300 ? ungefähr abschätzen...
#28
Registriert seit: 08.04.2007

Kapitän zur See
Beiträge: 3362
Zitat duplex;12057361
kannst du nicht lesen, ich habe geschrieben das die Karte vorraussichtlich 280-350 watt verbrauchen wird!


werd ma nicht gleich kratzig.
als ich angefangen hab zu schreiben, war deine nachricht noch nicht da, hab deine auch erst gesehen, als ich meine schon abgeschickt hatte.
außerdem hatte ich selber geschrieben, dass es "nicht so viel werden" wird.
der :fresse: drückt auch aus, dass das nicht ganz ernst gemeint war

so, und jetzt :btt:
#29
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat lrwr;12057679
werd ma nicht gleich kratzig.
als ich angefangen hab zu schreiben, war deine nachricht noch nicht da, hab deine auch erst gesehen, als ich meine schon abgeschickt hatte.


alles klar :btt:
#30
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 33160
Zitat duplex;12057616
Wie sind deine Vorstellungen zum GT300 ? ungefähr abschätzen...


Ich spekuliere auf ca. 200-220W im 3D Gameverbrauch für die Top SingleGPU Karte.
Furmark wohl ne Ecke mehr...
#31
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat fdsonne;12057697
Ich spekuliere auf ca. 200-220W im 3D Gameverbrauch für die Top SingleGPU Karte.
Furmark wohl ne Ecke mehr...


[U]offtopic:[/U] wenns so wird, kommt der GT300 auf die richtige Kunden zu ;)
und was ist mit dem RV870? wird das Design jetzt wirklich verändert oder in High End umgewandellt mit 1D Shader oder komprimierten 5D ? Ursprünglich ging man laut spekus von 50% mehrleistung gegenüber einem RV770 aus...
#32
Registriert seit: 17.09.2004
Erde / Deutschland
Flottillenadmiral
Beiträge: 6000
Zitat fdsonne;12057697
Ich spekuliere auf ca. 200-220W im 3D Gameverbrauch für die Top SingleGPU Karte.
Furmark wohl ne Ecke mehr...


Wobei Furmark eh Quatsch is:coolblue:
#33
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Man müsste ja sonst auch langsam die PCIe Specs ändern;)

Zitat
offtopic: wenns so wird, kommt der GT300 auf die richtige Kunden zu
und was ist mit dem RV870? wird das Design jetzt wirklich verändert oder in High End umgewandellt mit 1D Shader oder komprimierten 5D ? Ursprünglich ging man laut spekus von 50% mehrleistung gegenüber einem RV770 aus...


Dann kommt der aber erst mitte nächsten Jahres ;)
#34
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6261
Zitat duplex;12057798
und was ist mit dem RV870? wird das Design jetzt wirklich verändert oder in High End umgewandellt mit 1D Shader oder komprimierten 5D ?

Also 1D Shader werden es mit Sicherheit nicht. ATI wird sich wohl kaum zurück entwickeln wollen. Ich gehe davon aus, dass man weiterhin auf 5D Shader setzt und an der Effizienz schraubt. In vermutlich erst 2-3 Generationen könnte man dann eine neue Architektur mit neuer Shader Architektur entwickelt haben.

Ich denke sowieso, was man bisher noch nicht allzu viel zum RV870 ernst nehmen sollte. Zu viele Möglichkeiten sind denkbar. Auch gut möglich, dass die erste Generation nur ein kurzes Gastspiel hat und relativ schnell auf 32 oder 28 nm umgestellt wird. Stichwort Globalfoundries. Das würde natürlich noch mehr Möglichkeiten beim Design eröffnen.
#35
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat
Ich denke sowieso, was man bisher noch nicht allzu viel zum RV870 ernst nehmen sollte. Zu viele Möglichkeiten sind denkbar. Auch gut möglich, dass die erste Generation nur ein kurzes Gastspiel hat und relativ schnell auf 32 oder 28 nm umgestellt wird. Stichwort Globalfoundries. Das würde natürlich noch mehr Möglichkeiten beim Design eröffnen.


Gleiches gilt für den G(T)300. Wir werden erst wissen wie schnell die beiden Chips wirklich sind wenn es erste Tests gibt oder ATI und Nvidia Daten veröffentlichen auf die man vertrauen kann.
#36
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Das bei Globalfoundries gleich auf 32 bzw. 28nm umgestellt wird bezweifel ich stark.
Was den Stromverbrauch angeht hat sich nVidia schon gebessert. Ich denke mal das wird auch ein Punkt sein, bei dem man während der Entwicklung viel Wert darauf gelegt hat.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Unser Test der Radeon RX Vega 64 und Vega 56 hat gezeigt: AMD liefert eine Leistung auf dem Niveau der GeForce GTX 1080 und GeForce GTX 1070, erkauft wird dies aber mit einer deutlich zu hohen Leistungsaufnahme. Derzeit hat AMD bei den Vega-Karten noch viele Baustellen, die vor allem den Treiber... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

Neun Modelle der GeForce GTX 1080 Ti im Test

Logo von IMAGES/STORIES/LOGOS-2017/GTX1080TI-LOGO

Wenn es nach AMD geht, wird NVIDIA mit der Radeon RX Vega bald Konkurrenz im High-End-Segment bekommen. Derzeit ist die Informationslage aber noch etwas undurchsichtig und so bleibt die GeForce GTX 1080 Ti erst einmal die schnellste Grafikkarte am Markt. Einige Modelle haben wir uns schon... [mehr]

ASUS ROG GeForce GTX 1080 Ti Strix OC im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2017/ASUS-ROG-GTX1080TI-STRIX-OC/ASUS_ROG_GEFORCE_GTX_1080_TI_STRIX_OC

Die Inno3D GeForce GTX 1080 Ti X3 Edition war eines der ersten Custom-Designs, welches wir in der Redaktion begrüßen und bereits ausführlich auf den Prüfstand stellen konnten. Während sie noch auf der Platine der Founders Edition basiert und lediglich ein eigenes Kühlsystem aufgeschnallt... [mehr]