> > > > Inno3D präsentiert GeForce-9-Energy-Save-Edition

Inno3D präsentiert GeForce-9-Energy-Save-Edition

DruckenE-Mail
Erstellt am: von

inno3d_logoDie grüne Welle reist nicht ab. So nahm nun auch Inno3D mit seiner neuen Energy-Save-Edition insgesamt drei stromsparende Grafikkarten der NVIDIA-GeForce-9-Reihe in seinem Produktportfolio auf. Dank einer geringeren Kernspannung soll die Leistungsaufnahme um bis zu 60 Prozent geringer ausfallen, als bei den herkömmlichen Modellen des kalifornischen Grafikkartenherstellers. Auch auf den zusätzlichen 6-Pin-PCI-Express-Stromstecker konnte verzichtet werden. So liegt die maximale Leistungsaufnahme der GeForce 9800 GT E-Save unterhalb der 75-Watt-TDP-Grenze. Ansonsten arbeitet die 55-nm-GPU mit 550 MHz und kann auf wahlweise 512- oder auch 1024-MB-GDDR3-Videospeicher, welcher mit effektiven 1800 MHz ans Werk geht und über ein 256 Bit breites Speicherinterface angebunden ist, zurückgreifen. Die 112 skalaren Einheiten werden hingegen mit 1500 MHz befeuert. Als nächstes im Bunde folgt die GeForce 9600 GT E-Save, welche mit 64 Shadereinheiten auskommen muss. Die Taktraten beziffert Inno3D bei diesem Modell auf 600/1625/1400 MHz. Wie beim großen Bruder auch hat man die Wahl zwischen 512- oder 1024-MB-Videospeicher. Das langsamste Modell der Kette ist die GeForce 9600 GSO E-Save, welche gerade einmal über 48 Shadereinheiten, die allerdings auch mit 1625 MHz takten, verfügt. Der Chip selbst verrichtet mit 600 MHz seinen Dienst.

Alle drei PCI-Express-2.0-Grafikkarten sollen in den nächsten Wochen erhältlich sein. Einen Preis konnte man uns zu diesem Zeitpunkt jedoch noch nicht nennen. Auch in unserem Preisvergleich sucht man die Drei vergebens. Die normale Variante der NVIDIA GeForce 9800 GT wechselt dort jedenfalls schon für etwa 88 Euro den Besitzer.

 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

 

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (27)

#18
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Strom[U]verbrauch[/U] ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...
#19
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Zitat PCZeus;11988206
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Strom[U]verbrauch[/U] ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...


guck dir doch die GPUs aktuell an...
Man nehme 2900XT und setze HD4870 dagegen, macht ca. 100% Mehrleistung bei ca. 30W weniger Stromaufnahme

Gleiches zur 8800GTX zur 280/285GTX.
ebenso ca. 100% Mehrleistung bei ca. 20W mehr Leistungsaufnahme.


Also die Punkte sind nach wie vor gegeben, nur sind wir eben langsam an dem Punkt, wo die Leistungsaufnahme nicht weiter in die Höhe schreiten kann (was Dual GPU Karten betrifft)
Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)
#20
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@fdsonne: dazu habe ich schon was im folgenden Thread geschrieben:

http://www.hardwareluxx.de/community/showpost.php?p=11992843&postcount=434

Es hat einfach viel zu lange gedauert bis diese Entwicklungen kamen. Es ist mir schon klar, dass man so eine Technologie nicht innerhalb von 1 Monat auf den Markt bringen kann, aber zwischen der 2900XT und der HD4870/90 sind doch schon mehr als ein paar Monate vergangen. Und so viel an revolutionärer Technik ist da nicht gekommen (wie damals beim G80, die Mehrleistung war der Hammer)
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
schau dir doch einfach an, was die Vergangenheit gebracht hat.

Du bekommst mit jeder echten neuen Generation ca. 100% Mehrleistung, im Schnitt gesehen zum Vorgänger bei nem in etwa Wechsel pro Jahr.

Neben den neuen Generationen bekommst du immer mal wieder nen Refresh dazwischen geschoben.

Aber auch egal, ich weis auch gar nicht, was für Quantensprünge der G80 gemacht haben soll? Mal abgesehen, das es die erste DX10 Karte was, die Mehrleistung von der Top G71 Karte oder ner X1950XTX waren nichtmal 100%... Und sind nach wie vor keine 100% (wenn den alten Karten der Speicher nicht ausgeht)


Wir sollten aber mal wieder :btt: kommen, geht ja hier schließlich um Stromsparen und die neue Karte. ;)
#22
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@fdsonne: der G80 war im Vergleich zu dem G71 schon ein Monster aus leistungstechnischer Sicht...

@Topic: Stromsparen hin oder her, mMn ist es möglich selbst High-End Chips zu konstruieren, die wesentlich weniger aufnehmen als die jetzigen Grakas, aber wozu, wenn der Markt es nich aufnimmt. Und da liegt das Problem...
#23
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;11992322

Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)


Hoffentlich nicht sonst haben wir irgendwann pcie stecker im rechner die nen durchmesser von starkstromkabeln haben und mit 20pins belegt sind:d

Ich denke allein schon die kühlung setzt den herstellern hier die magische grenze zum glück:p
#24
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten

aber wir wollten ja eigentlich :btt: :fresse:

€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.
#25
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat PCZeus;11993780
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten :fresse:


Sollen dort auch die leistung die die karte ziehen darf über den bus u die stecker selbst erhöht werden?

Ich hoffe doch nicht u es geht bei pcie 3.0 ausnahmsweisse mal [COLOR="Red"]nur[/COLOR] um die bandbreite:haha:
#26
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
Weinböhla (Sachsen)
Moderator
Beiträge: 31938
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...

Zitat PCZeus;11993780
€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.


Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.
#27
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat fdsonne;11993824
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...



Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.


die 7950GX2 ist ein Sonderfall :fresse:
ich ging bei meiner Betrachtung von der 7900GTX aus; dafür war das revolutionär!

In puncto Stromaufnahme drastisch reduzieren und dabei auch noch mehr Lesitung bereit stellen: es geht, technisch ist das für die Entwickler kein Problem (wenn sie an einer Karte 5 Jahre basteln könnten :d )
Nur wird das am Markt nicht bezahlt; also stellt sich der Hersteller auf den Markt ein, der recht kurzlebig ist. Wenn rein theoretisch jeder 2.te Kunde nach einer stromsparenden und schnellen Graka schreien würde, so wären nVidia und ATi (vllt. auch Intel) daran bemüht schnellstmöglich diesen Markt zu bedienen...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Roundup: 5x GeForce GTX 1070 mit Custom-Design im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/5X-GTX1070/GTX1070_CUSTOM_ROUNDUP-TEASER

Nachdem wir bereits eine Reihe von Boardpartner-Karten der NVIDIA GeForce GTX 1080 ausführlich getestet haben, holen wir gleiches nun für das kleinere Schwestermodell nach, denn auch von der NVIDIA GeForce GTX 1070 gibt es viele Custom-Modelle mit höheren Taktraten, eigenen Kühlsystemen und... [mehr]

Drei Custom-Modelle der GeForce GTX 1060 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/3X-GTX1060/GTX1060_ROUNDUP_TEST-TEASER

Anders als bei der GeForce GTX 1080 und GeForce GTX 1070 trudelten wenige Stunden nach unserem Test zur Founders Edition der NVIDIA GeForce GTX 1060 schon die ersten Boardpartner-Karten mit teils höheren Taktraten, eigenem Kühlsystem und überarbeitetem Platinenlayout ein. Sie dürften... [mehr]

NVIDIA GeForce GTX 1080 mit Pascal-Architektur im XXL-Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Heute ist es soweit: NVIDIA läutet mit der GeForce GTX 1080 und GTX 1070 auf Basis der Pascal-Architektur den diesjährigen Neustart bei den Grafikkarten ein. In Kürze wird wohl auch AMD seinen Beitrag zu diesem Thema leisten. Vor zehn Tagen lud NVIDIA die gesammelte Fachpresse nach Austin ein... [mehr]

Roundup: 5x GeForce GTX 1080 im Custom-Design im Test

Logo von IMAGES/STORIES/LOGOS-2016/GEFORCE-GTX-1080

Nachdem wir uns die Founders Edition der GeForce GTX 1080 und GeForce GTX 1070 bereits angeschaut haben, folgen nun fünf Retail-Modelle, die wir in aller Ausführlichkeit unter die Lupe nehmen wollen. Aus den vielen Boardpartnern und unterschiedlichen Modellen haben wir uns solche von ASUS, EVGA,... [mehr]

AMD Radeon RX 480 im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/RADEON-RX480/RADEON-RX480-REFERENCE-LOGO

Es ist also soweit: AMD startet die großangelegte Zurückeroberung des Grafikkartenmarktes mit der Radeon RX 480, die als erste Grafikkarte der Polaris-Generation mit gleichnamiger Architektur erscheint und die wir uns genauer anschauen können. Dabei versucht sich AMD an einem anderen Ansatz im... [mehr]

PowerColor Radeon RX 480 Red Devil im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/POWERCOLOR-RX480/POWERCOLOR-RX480REDDEVIL-LOGO

Mit der Radeon RX 480 will AMD zurück zu alter Stärke und hat daher über Monate hinweg die PR-Trommel geschlagen. Letztendlich dabei herausgekommen ist eine sehr gute Karte für einen niedrigen Preis, die aber nicht in allen Bereichen zu überzeugen weiß. Wohl größtes Manko der Karte sollte... [mehr]