> > > > GT300 begnügt sich mit 225-Watt-TDP

GT300 begnügt sich mit 225-Watt-TDP

Veröffentlicht am: von

nvidiaWährend AMD auf der diesjährigen Computex in Teipeh vor allem mit Informationen zu DirectX 11 und seiner ATI Radeon HD 4770 vorpreschte, hielt sich Konkurrent NVIDIA wieder einmal mehr bedeckt. Wie auf Bright Side Of News nun zu lesen ist, soll die Karte nicht nur über insgesamt 512 skalare Einheiten verfügen, sondern auch auf einen 1100 MHz schnellen GDDR5-Videospeicher zurückgreifen können. Während der Chip auf 700 MHz gehandelt wird, setzt man den Takt der Shadereinheiten hingegen auf 1600 MHz an. Dank der fortschrittlichen 40-nm-Strukturbreite soll der Chip trotz seiner 2,4 Milliarden Transistoren rund 495 mm² Fläche einnehmen. Doch nicht nur die Größe soll sich in Grenzen halten. Auch der Stromverbrauch soll erfreulich gering ausfallen. Ging man anfangs noch von einer Thermal-Design-Power (TDP) von 300 Watt aus, glaubt man heute mit 225 Watt TDP mehr zu wissen. Demnach würde sich der GT300 mit zwei 6-Pin-PCI-Express-Stromsteckern, welche jeweils 75 Watt liefern, begnügen. Zudem stellt das PCI-Express-Interface nochmals maximal 75 Watt bereit. Zum Vergleich: NVIDIAs schnellste Single-GPU-Grafikkarte, vertreten durch die GeForce GTX 285, kommt mit einer TDP von 183 Watt daher.

Wann die nächste Generation des kalifornischen Grafikkartenherstellers offiziell das Licht der Welt erblicken wird und vor allem ob sich diese Informationen dann bestätigen werden, bleibt abzuwarten. Gerüchten zufolge könnte der Chip allerdings schon im 3. Quartal 2009 vorgestellt werden.

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (44)

#35
customavatars/avatar37164_1.gif
Registriert seit: 20.03.2006
Bayern, Oberpfalz
Flottillenadmiral
Beiträge: 4734
so kann man das nicht ganz sehen, die leistung von high-end gpus vergangener tage (z.b. 9800Pro) bewältigt heutzutage auch fast jede lowend-karte (9400GT, 8400,7300 und dergleichen) und verbraucht fast keinen strom!

->BTT! will mit niemanden streiten oder sowas, sorry!!
#36
customavatars/avatar47447_1.gif
Registriert seit: 17.09.2006
Manila / Philippines
Forenleitung
Chefsklave
Turbo Froschn !
Beiträge: 24336
ja aber du willst doch wieder mehr Leistung oder? Aktuell ist das nun mal nicht machbar das sich das im Laufe der Zeit ändert ist ja logisch ;)
#37
customavatars/avatar32678_1.gif
Registriert seit: 03.01.2006
Thüringen/Erfurt
Admiral
Beiträge: 18795
Früher hat auch ein 200 Watt Netzteil im Rechner gereicht ;)
#38
Registriert seit: 10.11.2002
Mittelhessen
Oberstabsgefreiter
Beiträge: 436
Zitat THE_DOCTOR;12200957
so kann man das nicht ganz sehen, die leistung von high-end gpus vergangener tage (z.b. 9800Pro) bewältigt heutzutage auch fast jede lowend-karte (9400GT, 8400,7300 und dergleichen) und verbraucht fast keinen strom!



Ja und? Das spricht doch jetzt eher für die heutige Technik, oder?
#39
customavatars/avatar69199_1.gif
Registriert seit: 28.07.2007
J, AP et B
✠ Я немец ✠ & Fanbuscus
Beiträge: 9203
Der GT300 wird ja nicht nur ein Shrink des GT200. ;)
Mehr als doppelt so viele Shader, schnellerer Speicher, kleineres Fertigungsverfahren und und und.

Es wird wohl (wieder) ein Monster werden... ...bei Leistung und Verbrauch versteht sich.
:fresse:
#40
Registriert seit: 30.11.2005

Leutnant zur See
Beiträge: 1053
naja...
für mich ehrlich gesagt uninteressant die neuen Teile...irgendwie strange das ganze...
normale lampen werden verboten (dafür gibts ja jetz bald nur noch unrentable energiesparlampen...ausser man hat nen dauerbeleuchteten puff...dann rentiert sichs vielleicht) aber Grafikkarten brauchen so viel wie noch vor ca. 4 Jahren ein kompletter PC und für damalige Verhältnisse waren die auch nicht langsam...Siehe A-XP mit 9800Pro oder X800... Damals hatte ich ohne übertaktung mit nem 2500+ 1Gb RAM und ner 9800Pro ca. 190 Watt voll ausgelastet...(ok. alles übertaktet warens dann knapp 100 Watt mehr ;) )
Also für mich ist das nix mehr...egal ob TDP oder real... alles was über 150 Watt allein für die Grafikkarte geht ist einfach nur blödsinnig...
Schon allein weil sehr viele extra beim Kauf einer CPU extra diejenige kaufen die 10 Watt weniger braucht als die andere aber dann auch solche Grafikkarten Monster zurückgreift...Leistung hin oder her...da is glaub ich noch ein weiterer weg diese Dinger wirklich effizienter zu gestallten...
#41
customavatars/avatar94909_1.gif
Registriert seit: 14.07.2008

Admiral
Beiträge: 19157
Ich schlage mal vor wir warten es ab *g*
#42
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34180
@Joe21
solange die Karten im idle nur recht wenig brauche, und das tun sie idR, wenn alles glatt geht, dann ist der Volllast verbrauch schon fast völlig egal...
Schließlich sitzt man nicht 24/7 vor der Kiste und zockt an dem Teil, die meiste Zeit wird die Karte wohl im idle verbringen, die, welche es ganz sparsam haben wollen, haben sowieso zum alltäglichen Arbeiten noch ne zweit Stromsparkiste zum Surfen usw. und die Zockerkiste ist nur an, wenn diese auch benötigt wird ;)
#43
customavatars/avatar38507_1.gif
Registriert seit: 12.04.2006

Vizeadmiral
Beiträge: 6350
Du musst mal ein bisschen weiterdenken. Wer so eine Grafikkarte kauft, wird auch oft damit spielen. Und in Zukunft werden GPUs noch deutlich mehr gefordert, Stichwort GPGPU. Insofern wird die Leistungsaufnahme unter Last der alles entscheidende Faktor. Nur daran kannst du die Effizienz messen. Idle wäre bei dedizierten GPUs im Grunde völlig egal, wenn die Hersteller auch im Desktop Bereich Technologien wie PowerXPress oder HybridPower endlich mal durchsetzen würden.
#44
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat Neurosphere;12200033
Logisch, da Fehler im Wafer bei kleineren Chips nicht so drastisch auf die Yield-Rate wirken.



Naja, mal gucken. Ich denke das Problem bei einer solchen Kühlung ist sie bei dem geringen Raum auch effezient zu bekommen. Mit größeren Kühllösungen wie sie Dritte anbieten ist das Kühlen ja meist kein Problem.



Zitat THE_DOCTOR;12200029
stimmt, diese TDP muss erstmal gekühlt werden... :fresse:

hoffentlich kommen dann wieder echte mittelklassemodelle rauß, welche abgespeckte highendkarten sind (takt, shadereinheiten, SI,...) und nicht wieder was aufgewärmtes, z.b. aus der GTX260 ne GTX350 machen :rolleyes:


VaporX und co. gibt es schon, da sehe ich nicht das Problem, sondern eher darin, dass nVidia und ATi mit der jetigen Strategie irgendwann an ein Limit stoßen werden. Und zwar sollten sie sich vielmehr auf das Thema Multi-GPU und deren Koordination bzw. Zusammenarbeit konzentrieren bevor sie einfach mehr GPUs auf ein PCB pappen und somit etwas mehr Leistung erzielen.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

  • Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080

    Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

  • Kleiner Turing-Ausbau: Gigabyte GeForce RTX 2070 WindForce 8G im Test

    Logo von IMAGES/STORIES/2017/GIGABYTE-RTX2070-WINDFORCE-LOGO

    Gestern war es soweit und mit der GeForce RTX 2070 startet die vorerst "kleinste" GeForce-RTX-Karte der neuen Serie von NVIDIA. Mit der Gigabyte GeForce RTX 2070 Windforce 8G haben wir ein Partnermodell im Test, denn die Founders Edition ist bislang noch nicht verfügbar. Erwartet wird die GeForce... [mehr]

  • GeForce RTX 2080 Ti von ASUS und MSI im Test

    Logo von IMAGES/STORIES/2017/ASUS-STRIX-RTX2080TI-25_EBA36C79E22348199FB2B590657E5413

    Nach den ersten drei Modellen der GeForce RTX 2080 schauen wir uns nun zwei Custom-Varianten der GeForce RTX 2080 Ti an. Diese stammen aus dem Hause ASUS und MSI, unterscheiden sich äußerlich in einigen Aspekten natürlich, sind sich auf den zweiten Blick aber ähnlicher als man denken möchte.... [mehr]

  • Die GeForce RTX 2080 Ti leidet offenbar an erhöhter Ausfallrate (6. Update)

    Logo von IMAGES/STORIES/2017/GEFORCERTX2080TI

    Reddit und diverse Foren laufen heiß, denn seit einigen Tagen mehren sich die Berichte, nach denen es bei der GeForce RTX 2080 Ti zu einer erhöhten Ausfallrate kommt. Bestätigt ist dies bislang nicht, auch weil belastbare Zahlen fehlen und diese sicherlich nur durch NVIDIA selbst oder die... [mehr]

  • GeForce RTX 2080 von ASUS, Gigabyte und PNY im Test

    Logo von IMAGES/STORIES/2017/ASUS-GEFORCE-RTX

    Nach dem Test der GeForce RTX 2080 in der Founders Edition, wollen wir uns nun die ersten Custom-Modelle genauer anschauen. Diese stammen von ASUS, Gigabyte sowie PNY. Zwei Modelle verwenden das Referenz-PCB von NVIDIA, eines baut aber auch schon auf einem eigenen PCB des Herstellers auf. Eine... [mehr]

  • ASUS ROG Strix GeForce RTX 2070 OC im Test

    Logo von IMAGES/STORIES/2017/ASUS-ROG-RTX2070

    Nach dem ersten Einstiegsmodell können wir uns nun auch eines der schnelleren Modelle der GeForce RTX 2070 anschauen. Die ASUS ROG Strix GeForce RTX 2070 OC ist eine typische ROG-Strix-Lösung, die das Maximum aus der Hardware herausholen soll. Allerdings gönnt sich ASUS auch einen... [mehr]