• Hallo Gast!
    Noch bis zum 20.07. kannst Du an unserer Umfrage zum Hersteller des Jahres teilnehmen! Als Gewinn verlosen wir unter allen Teilnehmern dieses Mal eine Grafikkarte Eurer Wahl für bis zu 1.000 EUR - über eine Teilnahme würden wir uns sehr freuen!

HD2900XTX im Anmarsch/Erste Benchmarks

Die Karte ist doch Schutt. Bei DX10 Games ist der Ofen aus. Genauso wie nVidia mit ihrer 5er Serie abgekackt hat, genauso werden sie mit ihrer 8er Serie abkacken. Ist ja nichts neues mehr.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Zitat von GS " Weniger zurückhaltend ist der Energiehunger – unter Volllast genehmigt sich die Platine unglaubliche 325 Watt."

Die Platine, ist doch nicht das System


P.S. ich weiß selbst das GS und auch andere wie immer Mist testen ist ja nichts neues.:)

wie willst du aber 325w verbraten wenn nur maximal 225 aus den leitungen kommen? :angel:

DelSol schrieb:
Die Karte ist doch Schutt. Bei DX10 Games ist der Ofen aus. Genauso wie nVidia mit ihrer 5er Serie abgekackt hat, genauso werden sie mit ihrer 8er Serie abkacken. Ist ja nichts neues mehr.

dazu schreib ich mal lieber nicht mehr als "die zeit wird zeigen wie es wird".
alles andere wäre nur provokant...
 
Ahja, ein XTX Crossfire Gespann ist also 109% schneller als ein GTX SLI Gespann... :hmm:
Lass mich raten, es wurde Vista verwendet, da funzt SLI nämlich noch gar nicht richtig. Aber halt, da wurde ja gar nichts bezüglich OS, Treiber, etc. angegeben.
Sorry aber so ist das für die Tonne!

MfG :cool:

Ich endschuldige mich für den Frevel nicht nvidia-fanboy zu sein und damit jeden Benchmark, in dem Nvidia unterliegt, von Grund auf anzuzweifeln.
Ich werde umgehend Selbstmord begehen.
In einer Welt, in der Dx10 und vista nur existieren, um Nvidia zu schaden, kann ich nicht leben. :(
 
Friede sei mit Dir. ;o)
 
wow was ein dämliches fanboy gespamme.

mal ganz wertungslos:

8800 GTS < 2900 XT < 8800 GTX

mehr gibts dazu doch nich zu sagen. und die angebliche xtx existiert ja eh nich. also close plz
 
Also mal erstmal zu Thema, ich weis net was die dort gebencht haben, aber 16k Punkte mit der R600CF könnte unter umständen schon hinkommen, aber ein GTX SLI macht auf Garantie nicht nur 4k weniger Punkte, so wie es dort steht. Denn das erreicht selbst ne Singlekarte ohne OC.

Und nein es ist keine XTX Karte sondern imho nur ne XT mit 1GB GDDR4. Der Link ist auch schon bekannt gewesen, taucht imho auch schon mal in einem der R600 Threads auf und stammt noch aus der Zeit wo alle glaubten die 1GB heist XTX und nicht XT 1GB.

Und zum Gamestar Stromverbrauchslink da der 8800Ultra, das geht imho gar net, denn die Karte kann theoretisch nur 225W an Strom ziehen.
Gamestar schrieb:
Weniger zurückhaltend ist der Energiehunger – unter Volllast genehmigt sich die Platine unglaubliche 325 Watt
 
ja, allerdings unter einsatz einer starkstrohm leitung :lol: :lol: :lol:

ich sage ja auch nciht, dass NV besser ist!

alle multicore system verbruachen unmengen energie, bringen aber nur einen kleinen vorteil. zumindest für "normale" gamer ;)
das ist ja so:
doppelter energieaufwand
1/3 mehr Leistung

und sorry, das ich hier für so ein aufsehen gesorgt habe!
 
:lol: du verwechselst da Watt mit Volt :lol:
Oder ich verstehe deine Ironie nicht ;)

Pisa....

Erstens haben wir 230Volt hierzulande, zweitens hat das überhaupt nichts damit zu tun, was die Grafikkarte bekommt.

Zweitens sind die 225W=75W(PCIe)+75W(Stecker0)+75W(Stecker1)

Immerhin ein gewisses Mass an Selbstzweifel, das lässt hoffen.
 
Also mal erstmal zu Thema, ich weis net was die dort gebencht haben, aber 16k Punkte mit der R600CF könnte unter umständen schon hinkommen, aber ein GTX SLI macht auf Garantie nicht nur 4k weniger Punkte, so wie es dort steht. Denn das erreicht selbst ne Singlekarte ohne OC.

Und nein es ist keine XTX Karte sondern imho nur ne XT mit 1GB GDDR4. Der Link ist auch schon bekannt gewesen, taucht imho auch schon mal in einem der R600 Threads auf und stammt noch aus der Zeit wo alle glaubten die 1GB heist XTX und nicht XT 1GB.

Und zum Gamestar Stromverbrauchslink da der 8800Ultra, das geht imho gar net, denn die Karte kann theoretisch nur 225W an Strom ziehen.


Du Träumst, nen System mit nem von; Q6600@ 3500 Mhz und ner 8800 Ultra die 720/1200 hat macht 15.400 Punkte also nix mit 16k ohne OC:hmm:
Aber 2x 2900 1GB können auch net nur 16 k bringen, ich hatte zum Test 2x 512 MB drin und die haben ohne OC 18600 Punkte gebracht ( eine Karte 13900 Punkte mit meine System und Vista 64 Bit).
Kann ja sein das sie gebencht haben mit nem normalen C2D, aber für solche Karten sollte nen Quadcore pflicht sein denke ich oder ?
Aber PCGH hat auch schon berichtet das 2x 2900XT 1GB schneller sind als 2 8800GTX.
http://www.pcgameshardware.de/?article_id=605401
 
Die Karte ist doch Schutt. Bei DX10 Games ist der Ofen aus. Genauso wie nVidia mit ihrer 5er Serie abgekackt hat, genauso werden sie mit ihrer 8er Serie abkacken. Ist ja nichts neues mehr.

nur gut, dass deine glaskugel funktioniert ;) :haha:
bei der 5er serie von nvidia hat doch gar nicht soo abgeloost, war doch bestenfalls die fx5600 (usw.), aber 5950 war doch auf 9800Pro niveau, also was soll das ständige schlechgerede von dir :confused: bist du schonmal nicht gegen irgendetwas gewesen!?
http://www.computerbase.de/artikel/...6800_gt_ultra/15/#abschnitt_performancerating
Hinzugefügter Post:
Hab seit Dezember ne 8800er (erst GTS, jetzt Ultra) und ausser den anfänglichen Problemen mit Source-Spielen noch nie irgendein Treiberproblem gehabt.
Wenn du selbst keine hast solltest du vorsichtig bei solchen Aussagen sein ;)

sli oder auch cf ist für mich eh nur was zum benchen, für nen spieler-pc würde ICH mir das nie antun.

:bigok: sehe ich genauso!

bei sli/cf sollte man mal ausrechnen, was im winter billiger kommt, pc laufen lassen oder heizung anschalten *hust*
 
Zuletzt bearbeitet:
Du Träumst, nen System mit nem von; Q6600@ 3500 Mhz und ner 8800 Ultra die 720/1200 hat macht 15.400 Punkte also nix mit 16k ohne OC:hmm:
Aber 2x 2900 1GB können auch net nur 16 k bringen, ich hatte zum Test 2x 512 MB drin und die haben ohne OC 18600 Punkte gebracht ( eine Karte 13900 Punkte mit meine System und Vista 64 Bit).
Kann ja sein das sie gebencht haben mit nem normalen C2D, aber für solche Karten sollte nen Quadcore pflicht sein denke ich oder ?
Aber PCGH hat auch schon berichtet das 2x 2900XT 1GB schneller sind als 2 8800GTX.
http://www.pcgameshardware.de/?article_id=605401

Also wenn du schon sagst, ich träume, dann lies du bitte aber auch was ich geschrieben hab. Denn lesen schafft Vorteil.
Ich schrieb, das laut dem Artikel das GTX SLI über 4k Punkte weniger als das CF Gespann macht... Des weitern schrieb ich das diesen Wert (also die 16k minus die 4k) schon von der einzellnen GTX erreicht werden können. Nicht mehr und nicht weniger...

Und doch, 16k kann gut sein mit nem CF der R600 Karten ohne OC bei nem 3,5GHz Quad. Vor allem wenn irgend ein grottiges Mobo mit 16x/4x Anbindung genommen wurde...

Und wer weis was die dort für Treiber verwendet haben, am Anfang funzte ja CF wie gesagt noch nicht soo wirklich, zumahl ja wie gesagt die Seite schon lange bekannt ist und es somit keine neuen Treiber sein können

Und wozu brauch man bitte nen Quadcore bei so ner Karte?
Mindestens zwei Cores langweilen sich nahezu immer, außer beim 3DMark CPU Test...
 
Zuletzt bearbeitet:
Ich hab doch geschrieben, mit meinem System wo mein Board auh 16/4x anbindung hat hab ich stock 18 k gehabt;)
 
Ich hab doch geschrieben, mit meinem System wo mein Board auh 16/4x anbindung hat hab ich stock 18 k gehabt;)

Du hast aber jetzt vor kurzen erst getestet, den ihre Tests sind schon sonst wie alt, mitte Juni ist der Artikel erschienen, das heist, die haben mit dem Betatreiber der 1GB Karten gebenched, wie gesagt, anfangs funkte CF noch nicht richtig ...

Und wie gesagt, es ist eigentlich auch total hupe was du mit deinem Sys erreicht hast für Werte, denn das ändert nix an der Tatsache, das die dort Müll gebencht haben...
Übrigens, kurz nach Release der R600 war ich mit einer R600 Karte noch mit 12k Punkten auf Platz 5 aller eingetragenen R600 Karten, die schnellste war ein CF aus zwei Karten mit 15,5k Punkten... Falls dus net glaubst, ich erwähnte es im Sammelthread damals schon mal... kannst gerne danach suchen
 
glaub ich dir schon, aber jetzt sieht es anders aus mit neuen Treibern, und der 7.8 Beta hat auch noc mal ganz schn was raus gehauen, im Benchmark nicht viel aber in Games dafür ne menge.
 
glaub ich dir schon, aber jetzt sieht es anders aus mit neuen Treibern, und der 7.8 Beta hat auch noc mal ganz schn was raus gehauen, im Benchmark nicht viel aber in Games dafür ne menge.

Das mag sein, aber das hab ich ja auch nie abgestritten, ich sagte nur das wenn man das alter des Beitrages da beachtet, die 16,6k durchaus realistisch sein können...
 
glaub ich dir schon, aber jetzt sieht es anders aus mit neuen Treibern, und der 7.8 Beta hat auch noc mal ganz schn was raus gehauen, im Benchmark nicht viel aber in Games dafür ne menge.

link`?
 
Pisa....

Erstens haben wir 230Volt hierzulande, zweitens hat das überhaupt nichts damit zu tun, was die Grafikkarte bekommt.

Zweitens sind die 225W=75W(PCIe)+75W(Stecker0)+75W(Stecker1)

Immerhin ein gewisses Mass an Selbstzweifel, das lässt hoffen.

Ist ja gut, werd mal net so frech ;)
Ist mit schon klar, dass die Spannung nicht der maximalen Leistungsaufnahme entspricht... Ich hab ja auch nie das Gegenteil behauptet... Ich hab nur fälschlicherweise gedacht, dass da epY was verwechselt hat *schäm*
btw: nach zweitens kommt drittens ;)


Den Thread kann man übrigens ruhig schließen, da er keine Neuigkeiten bringt.
 
Zuletzt bearbeitet:
nur gut, dass deine glaskugel funktioniert ;) :haha:
bei der 5er serie von nvidia hat doch gar nicht soo abgeloost, war doch bestenfalls die fx5600 (usw.), aber 5950 war doch auf 9800Pro niveau, also was soll das ständige schlechgerede von dir :confused: bist du schonmal nicht gegen irgendetwas gewesen!?
http://www.computerbase.de/artikel/...6800_gt_ultra/15/#abschnitt_performancerating

hmm... genau. Die 5er Serie war so kacke, das sie sogar bei Source den DX9 Pfad deaktiviert haben weil die Framerates und die Leistung mist waren.
 
hmm... genau. Die 5er Serie war so kacke, das sie sogar bei Source den DX9 Pfad deaktiviert haben weil die Framerates und die Leistung mist waren.

naja der dx9 pfad ist auch auf einer fx 5900 gut spielbar. das dieser bei fx karten deaktivert worden ist liegt wohl eher daran das gabe newell in ati verliebt war.
 
naja der dx9 pfad ist auch auf einer fx 5900 gut spielbar. das dieser bei fx karten deaktivert worden ist liegt wohl eher daran das gabe newell in ati verliebt war.


Genug Tests und Benchmarks haben belegt das die 5er Serie unter DirectX9 total eingebrochen ist. Sogar die ganzen Steamforen sind voll von solchen Berichten gewesen. Da hat sogar noch eine kastrierte 9800SE mehr Leistung gehabt. Die Entwickler der Source Engine sind meiner Meinung nach einfach ein Haufen sehr begabter Programmierer die das letzte aus der Grafikhardware holen können - bestes Beispiel dafür ist, das sie auf PixelShader 2.0 Karten (i.e. X800 oder 9800er) HDR Effekte aktivieren und in der Source Engine nutzen konnten, jeder andere aber Stocksteif behauptet, das solche Effekte auf diesen Karten nicht möglich sind, und sogar Spiele (i.e. Rainbow Six Vegas) nicht mit solchen Karten starten.
 
Zuletzt bearbeitet:
Die FX war so schlecht in DX9, weil NV da auf irgendwie was eigenes Gesetzt hat... aber MS spielte da nicht so richtig mit was DX9 anging. Aber so richtig weis ich das auch net mehr.
 
hmm... genau. Die 5er Serie war so kacke, das sie sogar bei Source den DX9 Pfad deaktiviert haben weil die Framerates und die Leistung mist waren.

cool, damals gabs nur source :fresse: :lol:
bist ja ein schwarzseher, nur weil sie einmal so nen fehler gemacht haben...gut, und sie haben damals keine versprochenen 3dfx-treiber mehr gebastelt, wir wissen es, aber das ist doch wohl schnee von vorgestern! ;) :wink:
 
cool, damals gabs nur source :fresse: :lol:
bist ja ein schwarzseher, nur weil sie einmal so nen fehler gemacht haben...gut, und sie haben damals keine versprochenen 3dfx-treiber mehr gebastelt, wir wissen es, aber das ist doch wohl schnee von vorgestern! ;) :wink:

Was ist eigentlich dein Scheißproblem? Hör auf mich ständig irgendwie schräg anzumachen - das zieht sich schon durch ein paar Threads mittlerweile. Bis wohl ein Schuljunge und hast zuviel Zeit in deinen Ferien?! Ich sage lediglich tatsachen in bezug auf die 5er Serie - und die war ein Flop von nVidida wie JEDER ausser DU anscheinend weiss. Das mit den Treibern gehört erstens gar nicht hier her, zweitens ist auch das ein Teil meiner Meinung in einem anderen Thread gewesen.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh