> > > > Inno3D präsentiert GeForce-9-Energy-Save-Edition

Inno3D präsentiert GeForce-9-Energy-Save-Edition

Veröffentlicht am: von

inno3d_logoDie grüne Welle reist nicht ab. So nahm nun auch Inno3D mit seiner neuen Energy-Save-Edition insgesamt drei stromsparende Grafikkarten der NVIDIA-GeForce-9-Reihe in seinem Produktportfolio auf. Dank einer geringeren Kernspannung soll die Leistungsaufnahme um bis zu 60 Prozent geringer ausfallen, als bei den herkömmlichen Modellen des kalifornischen Grafikkartenherstellers. Auch auf den zusätzlichen 6-Pin-PCI-Express-Stromstecker konnte verzichtet werden. So liegt die maximale Leistungsaufnahme der GeForce 9800 GT E-Save unterhalb der 75-Watt-TDP-Grenze. Ansonsten arbeitet die 55-nm-GPU mit 550 MHz und kann auf wahlweise 512- oder auch 1024-MB-GDDR3-Videospeicher, welcher mit effektiven 1800 MHz ans Werk geht und über ein 256 Bit breites Speicherinterface angebunden ist, zurückgreifen. Die 112 skalaren Einheiten werden hingegen mit 1500 MHz befeuert. Als nächstes im Bunde folgt die GeForce 9600 GT E-Save, welche mit 64 Shadereinheiten auskommen muss. Die Taktraten beziffert Inno3D bei diesem Modell auf 600/1625/1400 MHz. Wie beim großen Bruder auch hat man die Wahl zwischen 512- oder 1024-MB-Videospeicher. Das langsamste Modell der Kette ist die GeForce 9600 GSO E-Save, welche gerade einmal über 48 Shadereinheiten, die allerdings auch mit 1625 MHz takten, verfügt. Der Chip selbst verrichtet mit 600 MHz seinen Dienst.

Alle drei PCI-Express-2.0-Grafikkarten sollen in den nächsten Wochen erhältlich sein. Einen Preis konnte man uns zu diesem Zeitpunkt jedoch noch nicht nennen. Auch in unserem Preisvergleich sucht man die Drei vergebens. Die normale Variante der NVIDIA GeForce 9800 GT wechselt dort jedenfalls schon für etwa 88 Euro den Besitzer.

 

Durch Klick auf das Bild gelangt man zu einer vergrößerten Ansicht

 

 

Weiterführende Links:

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

es liegen noch keine Tags vor.

Kommentare (27)

#18
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Strom[U]verbrauch[/U] ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...
#19
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32927
Zitat PCZeus;11988206
Das stimmt soweit, dass so ein Chip bei vielen nicht ankommen würde, nur weil er 50% weniger Stromaufnahme hat (Strom[U]verbrauch[/U] ist blödsinn!!!). Nur bin ich davon überzeugt, dass es durchaus möglich ist, einen Chip zu entwicklen, der meinetwegen 1ß oder 20% mehr Stromaufnahme bei 50 oder sogar mehr % Leistung hat. Nur rentiert sich das nicht für die Hersteller. Die sind darauf bedacht, ihre Produkte zu verkaufen. Die Umwelt ist da nur ein Aufhänger und der Kunde, der diese Entwicklung maßgeblich beeinflußen könnte, macht wenig...


guck dir doch die GPUs aktuell an...
Man nehme 2900XT und setze HD4870 dagegen, macht ca. 100% Mehrleistung bei ca. 30W weniger Stromaufnahme

Gleiches zur 8800GTX zur 280/285GTX.
ebenso ca. 100% Mehrleistung bei ca. 20W mehr Leistungsaufnahme.


Also die Punkte sind nach wie vor gegeben, nur sind wir eben langsam an dem Punkt, wo die Leistungsaufnahme nicht weiter in die Höhe schreiten kann (was Dual GPU Karten betrifft)
Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)
#20
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@fdsonne: dazu habe ich schon was im folgenden Thread geschrieben:

http://www.hardwareluxx.de/community/showpost.php?p=11992843&postcount=434

Es hat einfach viel zu lange gedauert bis diese Entwicklungen kamen. Es ist mir schon klar, dass man so eine Technologie nicht innerhalb von 1 Monat auf den Markt bringen kann, aber zwischen der 2900XT und der HD4870/90 sind doch schon mehr als ein paar Monate vergangen. Und so viel an revolutionärer Technik ist da nicht gekommen (wie damals beim G80, die Mehrleistung war der Hammer)
#21
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32927
schau dir doch einfach an, was die Vergangenheit gebracht hat.

Du bekommst mit jeder echten neuen Generation ca. 100% Mehrleistung, im Schnitt gesehen zum Vorgänger bei nem in etwa Wechsel pro Jahr.

Neben den neuen Generationen bekommst du immer mal wieder nen Refresh dazwischen geschoben.

Aber auch egal, ich weis auch gar nicht, was für Quantensprünge der G80 gemacht haben soll? Mal abgesehen, das es die erste DX10 Karte was, die Mehrleistung von der Top G71 Karte oder ner X1950XTX waren nichtmal 100%... Und sind nach wie vor keine 100% (wenn den alten Karten der Speicher nicht ausgeht)


Wir sollten aber mal wieder :btt: kommen, geht ja hier schließlich um Stromsparen und die neue Karte. ;)
#22
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
@fdsonne: der G80 war im Vergleich zu dem G71 schon ein Monster aus leistungstechnischer Sicht...

@Topic: Stromsparen hin oder her, mMn ist es möglich selbst High-End Chips zu konstruieren, die wesentlich weniger aufnehmen als die jetzigen Grakas, aber wozu, wenn der Markt es nich aufnimmt. Und da liegt das Problem...
#23
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat fdsonne;11992322

Die Hersteller müssen sich was einfallen lassen, oder die Spezifikationen müssten angepasst werden. (ich denke mal letzteres wird passieren)


Hoffentlich nicht sonst haben wir irgendwann pcie stecker im rechner die nen durchmesser von starkstromkabeln haben und mit 20pins belegt sind:d

Ich denke allein schon die kühlung setzt den herstellern hier die magische grenze zum glück:p
#24
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten

aber wir wollten ja eigentlich :btt: :fresse:

€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.
#25
customavatars/avatar83107_1.gif
Registriert seit: 21.01.2008
Thüringen
Banned
Beiträge: 16333
Zitat PCZeus;11993780
Es soll doch bald PCIe 3.0 kommen, zwar nicht mehr dieses Jahr, aber bis dahin werden die kommenden Grafikkarten noch durchhalten müssen. Danach gehts weiter mit den rekordverdächtigen Werten :fresse:


Sollen dort auch die leistung die die karte ziehen darf über den bus u die stecker selbst erhöht werden?

Ich hoffe doch nicht u es geht bei pcie 3.0 ausnahmsweisse mal [COLOR="Red"]nur[/COLOR] um die bandbreite:haha:
#26
customavatars/avatar44491_1.gif
Registriert seit: 08.08.2006
SN
Moderator
Beiträge: 32927
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...

Zitat PCZeus;11993780
€dit: wäre es nicht möglich, eine GPU so zu konstruieren, dass sie bestimmte Teile innerhalb des Chips deaktivieren kann? Unterschiedlich Takt-domains sind ja schon gang und gebe.


Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.
#27
customavatars/avatar17222_1.gif
Registriert seit: 02.01.2005
in deinem PC
Moderator
[online]-Redakteur
Kontrolletti vom Dienst
Beiträge: 9754
Zitat fdsonne;11993824
Ne eben nicht, ich weis nicht, was ihr da alle dran findet?
Wie gesagt, 6800Ultra auf 7800GTX gabs fast 100% Mehrleistung, von 7800GTX auf 7900GTX nochmal gut 30%, zur 7950GX2 sogar mehr als 100%
Aber von ner 7950GX2 oder ne X1950XTX auf ne 8800GTX gab es weniger als 100% Leistungszuwachs, keine Ahnung, aber das ist und war nix besonderes.

Bei THG gibts in den GPU Charts von Q3/2008 nen recht aktuellen Vergleich, dort zeigt sich auch, das ne GX2 oder X1950XTX nichtmal halb so lahm wie ne GTX G80 ist.



Aber gut, egal, zu dem anderen Fakt, das ist wohl alles eine Frage der Zeit, aber man kann eben nicht von jetzt auf gleich den Markt mit neuen Modellen und 100%+ Mehrleistung abdecken und gleichzeitig die Stromaufnahme um ein vielfaches drücken, geht einfach nicht.
Wenn wir nur einen Hersteller hätten, könnte man dessen Machenschaften sicher ein wenig anzweifeln, aber es sind nunmal 2, welche sich mit ihren Produkten so gut wie möglich platzieren wollen, so einfach wie man es sich denkt, ist es leider dann doch nicht...



Machbar ist sicher vieles...
Vllt gehen die Hersteller ja auch früher oder später den weg, eine dedizierte Onboardlösung oder in CPU integrierte Lösung für den 2D Betrieb zu nutzen und die Karte gänzlich zu deaktivieren... Waren ja schon mal Ansätze zu sehen.


die 7950GX2 ist ein Sonderfall :fresse:
ich ging bei meiner Betrachtung von der 7900GTX aus; dafür war das revolutionär!

In puncto Stromaufnahme drastisch reduzieren und dabei auch noch mehr Lesitung bereit stellen: es geht, technisch ist das für die Entwickler kein Problem (wenn sie an einer Karte 5 Jahre basteln könnten :d )
Nur wird das am Markt nicht bezahlt; also stellt sich der Hersteller auf den Markt ein, der recht kurzlebig ist. Wenn rein theoretisch jeder 2.te Kunde nach einer stromsparenden und schnellen Graka schreien würde, so wären nVidia und ATi (vllt. auch Intel) daran bemüht schnellstmöglich diesen Markt zu bedienen...
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Von ASUS bis ZOTAC: Vier Modelle der GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/NVIDIA-GTX1050TI-ROUNDUP/NVIDIA_GTX1050TI_4ER_ROUND_UP-TEASER

Seit Ende Oktober gibt es die aktuelle Pascal-Generation von NVIDIA auch für unter 200 Euro. Tatsächlich bekommt man hier nicht nur viel Leistung fürs Geld, sondern obendrein einen sehr effizienten 3D-Beschleuniger, wie unser Launch-Test zur NVIDIA GeForce GTX 1050 Ti pünktlich zum Marktstart... [mehr]

Zwei Modelle der NVIDIA GeForce GTX 1050 Ti im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX-1050TI-SC/EVGA_ZOTAC_GTX1050TI_AUFMACHER

Am vergangenen Dienstag rundete NVIDIA sein Pascal-Aufgebot nach unten hin ab und kündigte mit der GeForce GTX 1050 Ti und GeForce GTX 1050 die bislang kleinsten Ableger unter den Pascal-Grafikkarten an. Ab heute werden die neuen Einsteiger-Karten zu Preisen ab 125 bzw. 155 Euro im Handel... [mehr]

MSI GeForce GTX 1060 Gaming X im Test

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/MSI-GTX-1060-GAMING-X/MSI_GEFROCE_GTX_1060_GAMING_X-TEASER

Ob von ASUS, EVGA, Inno3D oder Gigabyte – von nahezu allen großen Grafikkarten-Herstellern konnten wir bereits ein oder mehrere Modelle auf Basis der GeForce GTX 1060 testen. Gefehlt in unserer Liste hat allerdings noch MSI. Das holen wir nun mit einem Test zur MSI GeForce GTX 1060 Gaming X... [mehr]

Ab Werk die schnellste: ZOTAC GeForce GTX 1080 Ti AMP! Extreme Edition im Test

Logo von IMAGES/STORIES/LOGOS-2017/ZOTAC-GTX1080TI-EXTREME-LOGO

Einige Modelle der GeForce GTX 1080 Ti konnten wir uns ja bereits anschauen und damit lässt sich auch ein erster Eindruck zusammenfassen: Die GeForce GTX 1080 Ti ist in der Founders Edition eine gute Karte, die Custom-Modelle beschleunigen sie noch etwas und bieten zudem eine bessere und leisere... [mehr]

AMD Radeon RX Vega 64 und RX Vega 56 im Test

Logo von IMAGES/STORIES/2017/AMD_RADEON_RX_VEGA_64_56_TEST

Nun endlich ist es soweit: Was vor gut einem Jahr mit einer ersten Ankündigung begann und ab Ende 2016 konkret wurde, findet nun sein finales Ende in den ersten Tests der Radeon RX Vega 64 und RX Vega 56. AMD ist als einziger Konkurrent zu NVIDIA geradezu zum Erfolg verdonnert. Die Ansprüche an... [mehr]

EVGA GeForce GTX 1060 Gaming im Kurztest

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/2016/EVGA-GTX1060-GAMING/EVGA_GTX1060_KURZTEST-TEASER

Während der letzten Tage hatten wir uns zahlreiche Custom-Modelle der NVIDIA GeForce GTX 1060 näher angeschaut und viele verschiedene Modelle von ASUS, Gigabyte, MSI und Inno3D auf den Prüfstand gestellt. Mit der GeForce GTX 1060 SC Gaming war darunter auch ein Ableger von EVGA, welcher mit... [mehr]