> > > > NVIDIA: Mögliche Taktraten des G300 aufgedeckt

NVIDIA: Mögliche Taktraten des G300 aufgedeckt

Veröffentlicht am: von

nvidiaGerade erst hatten wir erfahren, dass NVIDIAs G300-Grafikchip vermutlich bereits sein Tape-Out feiern durfte und schon tauchen erste Informationen zu den möglichen Taktraten auf. Die ersten lauffähigen Samples im A1-Stepping kommen demzufolge mit einem Chiptakt von 700 MHz daher. Der Shadertakt beträgt 1600 MHz und der GDDR5-Speicher wird mit 1100 MHz betrieben (effektiv 4400 MHz). Sofern die Spekulationen über die Anzahl (512) und Funktionsweise (1D) der Shadereinheiten stimmen, sollte die GPU eine theoretische Rechenleistung von knapp 2500 Gigaflops erreichen. Die Speicherbandbreite würde bei einem 512-Bit-Interface auf gigantische 282 GB/s kommen, womit ein Engpass in diesem Bereich wohl kaum noch möglich wäre.

Im Vergleich zur GTX 280, die auf dem G200 beruht, entspräche die Steigerung der Rechenleistung sagenhaften 163 Prozent und die Speicherbandbreite hätte sich genau verdoppelt. Über die Anzahl der Textur- und Raster-Einheiten ist allerdings noch nichts bekannt. Es ist sehr gut möglich, dass NVIDIA einen ähnlichen Weg wie AMD einschreitet und das Verhältnis der Shadereinheiten gegenüber den anderen erhöht.

Angeblich sei NVIDIA mit den Sample-Chips bereits so zufrieden, dass womöglich bereits das A1-Stepping in die Produktionsphase gelangen könnte, womit einem Launch im vierten Quartal praktisch nichts mehr im Wege stünde.

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (36)

#27
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat fdsonne;12057553
Ähm nö, erstens brauchst du durch ein breiteres SI nicht mehr Strom, zweitens brauch GDDR5 Speicher bei gleichem Takt weniger Strom als GDDR3 Speicher (und auch die schlussendliche Größe dessen macht den Braten nicht weiter Fett)
Und drittens kommt eine einzige 280GTX mit Stock Takt und Stock Spannung in gewöhnlichen 3D Games nicht mal auf 180W...
http://xbitlabs.com/images/video/evga-geforce-gtx285ssc/evga285_power.png

Also Abwarten und Tee trinken... bis Fakten bekannt sind.


Wie sind deine Vorstellungen zum GT300 ? ungefähr abschätzen...
#28
Registriert seit: 08.04.2007

Kapitän zur See
Beiträge: 3369
Zitat duplex;12057361
kannst du nicht lesen, ich habe geschrieben das die Karte vorraussichtlich 280-350 watt verbrauchen wird!


werd ma nicht gleich kratzig.
als ich angefangen hab zu schreiben, war deine nachricht noch nicht da, hab deine auch erst gesehen, als ich meine schon abgeschickt hatte.
außerdem hatte ich selber geschrieben, dass es "nicht so viel werden" wird.
der :fresse: drückt auch aus, dass das nicht ganz ernst gemeint war

so, und jetzt :btt:
#29
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat lrwr;12057679
werd ma nicht gleich kratzig.
als ich angefangen hab zu schreiben, war deine nachricht noch nicht da, hab deine auch erst gesehen, als ich meine schon abgeschickt hatte.


alles klar :btt:
#30
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34161
Zitat duplex;12057616
Wie sind deine Vorstellungen zum GT300 ? ungefähr abschätzen...


Ich spekuliere auf ca. 200-220W im 3D Gameverbrauch für die Top SingleGPU Karte.
Furmark wohl ne Ecke mehr...
#31
Registriert seit: 11.02.2008

Admiral
Beiträge: 10258
Zitat fdsonne;12057697
Ich spekuliere auf ca. 200-220W im 3D Gameverbrauch für die Top SingleGPU Karte.
Furmark wohl ne Ecke mehr...


[U]offtopic:[/U] wenns so wird, kommt der GT300 auf die richtige Kunden zu ;)
und was ist mit dem RV870? wird das Design jetzt wirklich verändert oder in High End umgewandellt mit 1D Shader oder komprimierten 5D ? Ursprünglich ging man laut spekus von 50% mehrleistung gegenüber einem RV770 aus...
#32
Registriert seit: 17.09.2004
Erde / Deutschland
Flottillenadmiral
Beiträge: 6068
Zitat fdsonne;12057697
Ich spekuliere auf ca. 200-220W im 3D Gameverbrauch für die Top SingleGPU Karte.
Furmark wohl ne Ecke mehr...


Wobei Furmark eh Quatsch is:coolblue:
#33
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Man müsste ja sonst auch langsam die PCIe Specs ändern;)

Zitat
offtopic: wenns so wird, kommt der GT300 auf die richtige Kunden zu
und was ist mit dem RV870? wird das Design jetzt wirklich verändert oder in High End umgewandellt mit 1D Shader oder komprimierten 5D ? Ursprünglich ging man laut spekus von 50% mehrleistung gegenüber einem RV770 aus...


Dann kommt der aber erst mitte nächsten Jahres ;)
#34
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Zitat duplex;12057798
und was ist mit dem RV870? wird das Design jetzt wirklich verändert oder in High End umgewandellt mit 1D Shader oder komprimierten 5D ?

Also 1D Shader werden es mit Sicherheit nicht. ATI wird sich wohl kaum zurück entwickeln wollen. Ich gehe davon aus, dass man weiterhin auf 5D Shader setzt und an der Effizienz schraubt. In vermutlich erst 2-3 Generationen könnte man dann eine neue Architektur mit neuer Shader Architektur entwickelt haben.

Ich denke sowieso, was man bisher noch nicht allzu viel zum RV870 ernst nehmen sollte. Zu viele Möglichkeiten sind denkbar. Auch gut möglich, dass die erste Generation nur ein kurzes Gastspiel hat und relativ schnell auf 32 oder 28 nm umgestellt wird. Stichwort Globalfoundries. Das würde natürlich noch mehr Möglichkeiten beim Design eröffnen.
#35
customavatars/avatar102004_1.gif
Registriert seit: 06.11.2008

Flottillenadmiral
Beiträge: 4311
Zitat
Ich denke sowieso, was man bisher noch nicht allzu viel zum RV870 ernst nehmen sollte. Zu viele Möglichkeiten sind denkbar. Auch gut möglich, dass die erste Generation nur ein kurzes Gastspiel hat und relativ schnell auf 32 oder 28 nm umgestellt wird. Stichwort Globalfoundries. Das würde natürlich noch mehr Möglichkeiten beim Design eröffnen.


Gleiches gilt für den G(T)300. Wir werden erst wissen wie schnell die beiden Chips wirklich sind wenn es erste Tests gibt oder ATI und Nvidia Daten veröffentlichen auf die man vertrauen kann.
#36
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Das bei Globalfoundries gleich auf 32 bzw. 28nm umgestellt wird bezweifel ich stark.
Was den Stromverbrauch angeht hat sich nVidia schon gebessert. Ich denke mal das wird auch ein Punkt sein, bei dem man während der Entwicklung viel Wert darauf gelegt hat.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • PowerColor Radeon RX Vega 56 Red Devil im Test

    Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • ZOTAC Gaming GeForce RTX 2080 Ti AMP im Test

    Logo von IMAGES/STORIES/2017/ZOTAC-RTX1080TI

    Nach der Veröffentlichung und den ausführlichen Tests zur GeForce RTX 2080 Ti und GeForce RTX 2080 Founders Edition kommen wir nun zum ersten Test eines Custom-Modells. ZOTAC konnte uns die Gaming GeForce RTX 2080 Ti AMP bereits zum Start der neuen Generation zur Verfügung stellen, ein... [mehr]