> > > > Inno3D präsentiert GeForce-9-Energy-Save-Edition

Inno3D präsentiert GeForce-9-Energy-Save-Edition

Veröffentlicht am: von

inno3d_logoDie grüne Welle reist nicht ab. So nahm nun auch Inno3D mit seiner neuen Energy-Save-Edition insgesamt drei stromsparende Grafikkarten der NVIDIA-GeForce-9-Reihe in seinem Produktportfolio auf. Dank einer geringeren Kernspannung soll die Leistungsaufnahme um bis zu 60 Prozent geringer ausfallen, als bei den herkömmlichen Modellen des kalifornischen Grafikkartenherstellers. Auch auf den zusätzlichen 6-Pin-PCI-Express-Stromstecker konnte verzichtet werden. So liegt die maximale Leistungsaufnahme der GeForce 9800 GT E-Save unterhalb der 75-Watt-TDP-Grenze. Ansonsten arbeitet die 55-nm-GPU mit 550 MHz und kann auf wahlweise 512- oder auch 1024-MB-GDDR3-Videospeicher, welcher mit effektiven 1800 MHz ans Werk geht und über ein 256 Bit breites Speicherinterface angebunden ist, zurückgreifen. Die 112 skalaren Einheiten werden hingegen mit 1500 MHz befeuert. Als nächstes im Bunde folgt die GeForce 9600 GT E-Save, welche mit 64 Shadereinheiten auskommen muss. Die Taktraten beziffert Inno3D bei diesem Modell auf 600/1625/1400 MHz. Wie beim großen Bruder auch hat man die Wahl zwischen 512- oder 1024-MB-Videospeicher. Das langsamste Modell der Kette ist die GeForce 9600 GSO E-Save, welche gerade einmal über 48 Shadereinheiten, die allerdings auch mit 1625 MHz takten, verfügt. Der Chip selbst verrichtet mit 600 MHz seinen Dienst.

Alle drei PCI-Express-2.0-Grafikkarten sollen in den nächsten Wochen erhältlich sein. Einen Preis konnte man uns zu diesem Zeitpunkt jedoch noch nicht nennen. Auch in unserem Preisvergleich sucht man die Drei vergebens. Die normale Variante der NVIDIA GeForce 9800 GT wechselt dort jedenfalls schon für etwa 88 Euro den Besitzer.

 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

 

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (27)

#18
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Strom[U]verbrauch[/U] ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...
#19
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34122
Zitat PCZeus;11988206
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Strom[U]verbrauch[/U] ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...


guck dir doch die GPUs aktuell an...
Man nehme 2900XT und setze HD4870 dagegen, macht ca. 100% Mehrleistung bei ca. 30W weniger Stromaufnahme

Gleiches zur 8800GTX zur 280/285GTX.
ebenso ca. 100% Mehrleistung bei ca. 20W mehr Leistungsaufnahme.


Also die Punkte sind nach wie vor gegeben, nur sind wir eben langsam an dem Punkt, wo die Leistungsaufnahme nicht weiter in die Höhe schreiten kann (was Dual GPU Karten betrifft)
Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)
#20
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@fdsonne: dazu habe ich schon was im folgenden Thread geschrieben:

http://www.hardwareluxx.de/community/showpost.php?p=11992843&postcount=434

Es hat einfach viel zu lange gedauert bis diese Entwicklungen kamen. Es ist mir schon klar, dass man so eine Technologie nicht innerhalb von 1 Monat auf den Markt bringen kann, aber zwischen der 2900XT und der HD4870/90 sind doch schon mehr als ein paar Monate vergangen. Und so viel an revolutionärer Technik ist da nicht gekommen (wie damals beim G80, die Mehrleistung war der Hammer)
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34122
schau dir doch einfach an, was die Vergangenheit gebracht hat.

Du bekommst mit jeder echten neuen Generation ca. 100% Mehrleistung, im Schnitt gesehen zum Vorgänger bei nem in etwa Wechsel pro Jahr.

Neben den neuen Generationen bekommst du immer mal wieder nen Refresh dazwischen geschoben.

Aber auch egal, ich weis auch gar nicht, was für Quantensprünge der G80 gemacht haben soll? Mal abgesehen, das es die erste DX10 Karte was, die Mehrleistung von der Top G71 Karte oder ner X1950XTX waren nichtmal 100%... Und sind nach wie vor keine 100% (wenn den alten Karten der Speicher nicht ausgeht)


Wir sollten aber mal wieder :btt: kommen, geht ja hier schließlich um Stromsparen und die neue Karte. ;)
#22
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@fdsonne: der G80 war im Vergleich zu dem G71 schon ein Monster aus leistungstechnischer Sicht...

@Topic: Stromsparen hin oder her, mMn ist es möglich selbst High-End Chips zu konstruieren, die wesentlich weniger aufnehmen als die jetzigen Grakas, aber wozu, wenn der Markt es nich aufnimmt. Und da liegt das Problem...
#23
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;11992322

Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)


Hoffentlich nicht sonst haben wir irgendwann pcie stecker im rechner die nen durchmesser von starkstromkabeln haben und mit 20pins belegt sind:d

Ich denke allein schon die kühlung setzt den herstellern hier die magische grenze zum glück:p
#24
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten

aber wir wollten ja eigentlich :btt: :fresse:

€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.
#25
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat PCZeus;11993780
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten :fresse:


Sollen dort auch die leistung die die karte ziehen darf über den bus u die stecker selbst erhöht werden?

Ich hoffe doch nicht u es geht bei pcie 3.0 ausnahmsweisse mal [COLOR="Red"]nur[/COLOR] um die bandbreite:haha:
#26
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 34122
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...

Zitat PCZeus;11993780
€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.


Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.
#27
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat fdsonne;11993824
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...



Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.


die 7950GX2 ist ein Sonderfall :fresse:
ich ging bei meiner Betrachtung von der 7900GTX aus; dafür war das revolutionär!

In puncto Stromaufnahme drastisch reduzieren und dabei auch noch mehr Lesitung bereit stellen: es geht, technisch ist das für die Entwickler kein Problem (wenn sie an einer Karte 5 Jahre basteln könnten :d )
Nur wird das am Markt nicht bezahlt; also stellt sich der Hersteller auf den Markt ein, der recht kurzlebig ist. Wenn rein theoretisch jeder 2.te Kunde nach einer stromsparenden und schnellen Graka schreien würde, so wären nVidia und ATi (vllt. auch Intel) daran bemüht schnellstmöglich diesen Markt zu bedienen...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Sapphire Radeon RX Vega 64 Nitro+ im Test

Logo von IMAGES/STORIES/2017/SAPPHIRE-VEGA

Heute ist es endlich soweit: Wir können uns das zweite Custom-Design der Radeon RX Vega anschauen. Dabei handelt es sich um die Sapphire Radeon RX Vega 64 Nitro+, die besonders durch die Kühlung auf sich aufmerksam machen will. Drei Slots, drei Axiallüfter und sogar eine spezielle... [mehr]

NVIDIA Titan V: Volta-Architektur im Gaming-Test

Logo von IMAGES/STORIES/2017/NVIDIA-TITANV

In der letzten Woche hatte NVIDA noch eine Überraschung für uns parat: Die brandneue NVIDIA Titan V wurde vorgestellt. Damit gibt es das erste Consumer-Modell mit der neuen Volta-Architektur, das auch für Spieler interessant sein kann, in erster Linie aber auch professionelle Nutzer ansprechen... [mehr]

Die GeForce RTX 2080 Ti und RTX 2080 Founders Edition im Test

Logo von IMAGES/STORIES/2017/GEFORCERTX2080

Heute nun ist es endlich soweit und wir präsentieren die vollständigen Leistungsdaten und Messwerte zu den beiden ersten Karten der GeForce-RTX-20-Serie von NVIDIA. Nach der Vorstellung der Pascal-Architektur im Mai 2016 sind die neuen Karten für NVIDIA in vielerlei Hinsicht ein... [mehr]

Mega-Roundup: 14 aktuelle GeForce-Grafikkarten in 11 Blockbuster-Spielen...

Logo von IMAGES/STORIES/2017/GPU_BLOCKBUSER_VGL_ZOTAC-TEASER

In Kooperation mit Zotac Auch in diesem Jahr veranstalteten die Spielepublisher wieder ein regelrechtes Feuerwerk an neuen Videospielen. Vor allem in den letzten Wochen des Jahres wurden zahlreiche neue Triple-A-Titel veröffentlicht, wie beispielsweise ein neues "Call of Duty",... [mehr]

Sechs Grafikkarten von Sapphire im Vergleich in 11 Blockbuster-Spielen

Logo von IMAGES/STORIES/2017/SAPPHIRE-2017AUFMACHER

In Kooperation mit Sapphire Nachdem der Herbst und Winter mit zahlreichen neuen Spielen samt Grafikfeuerwerk aufwarten konnte, haben wir uns bereits 14 aktuelle GeForce-Karten in 11 neuen Spielen angeschaut. Nun wollen wir die Seiten sozusagen wechseln und schauen uns an, wie diese Spiele auf... [mehr]

PowerColor Radeon RX Vega 56 Red Devil im Test

Heute wollen wir unsere Artikelübersicht zu den Custom-Modellen der Radeon RX Vega abrunden, denn mit der PowerColor Radeon RX Vega 56 Red Devil steht uns das Modell eines weiteren AMD-Exklusivpartners zur Verfügung. Das erste Mal haben wir nun auch die Gelegenheit uns eine solche Variante auf... [mehr]