D
DelSol
Guest
Die Karte ist doch Schutt. Bei DX10 Games ist der Ofen aus. Genauso wie nVidia mit ihrer 5er Serie abgekackt hat, genauso werden sie mit ihrer 8er Serie abkacken. Ist ja nichts neues mehr.
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: this_feature_currently_requires_accessing_site_using_safari
Zitat von GS " Weniger zurückhaltend ist der Energiehunger – unter Volllast genehmigt sich die Platine unglaubliche 325 Watt."
Die Platine, ist doch nicht das System
P.S. ich weiß selbst das GS und auch andere wie immer Mist testen ist ja nichts neues.![]()
DelSol schrieb:Die Karte ist doch Schutt. Bei DX10 Games ist der Ofen aus. Genauso wie nVidia mit ihrer 5er Serie abgekackt hat, genauso werden sie mit ihrer 8er Serie abkacken. Ist ja nichts neues mehr.
dazu schreib ich mal lieber nicht mehr als "die zeit wird zeigen wie es wird".
alles andere wäre nur provokant...
Ahja, ein XTX Crossfire Gespann ist also 109% schneller als ein GTX SLI Gespann...![]()
Lass mich raten, es wurde Vista verwendet, da funzt SLI nämlich noch gar nicht richtig. Aber halt, da wurde ja gar nichts bezüglich OS, Treiber, etc. angegeben.
Sorry aber so ist das für die Tonne!
MfG![]()
wie willst du aber 325w verbraten wenn nur maximal 225 aus den leitungen kommen?![]()
Lies doch was ich unten geschrieben habeDer Test ist fürn.....so wie der Fred hier.
Gamestar schrieb:Weniger zurückhaltend ist der Energiehunger – unter Volllast genehmigt sich die Platine unglaubliche 325 Watt
ja, allerdings unter einsatz einer starkstrohm leitung![]()
![]()
![]()
du verwechselst da Watt mit Volt
![]()
Oder ich verstehe deine Ironie nicht![]()
Also mal erstmal zu Thema, ich weis net was die dort gebencht haben, aber 16k Punkte mit der R600CF könnte unter umständen schon hinkommen, aber ein GTX SLI macht auf Garantie nicht nur 4k weniger Punkte, so wie es dort steht. Denn das erreicht selbst ne Singlekarte ohne OC.
Und nein es ist keine XTX Karte sondern imho nur ne XT mit 1GB GDDR4. Der Link ist auch schon bekannt gewesen, taucht imho auch schon mal in einem der R600 Threads auf und stammt noch aus der Zeit wo alle glaubten die 1GB heist XTX und nicht XT 1GB.
Und zum Gamestar Stromverbrauchslink da der 8800Ultra, das geht imho gar net, denn die Karte kann theoretisch nur 225W an Strom ziehen.
Die Karte ist doch Schutt. Bei DX10 Games ist der Ofen aus. Genauso wie nVidia mit ihrer 5er Serie abgekackt hat, genauso werden sie mit ihrer 8er Serie abkacken. Ist ja nichts neues mehr.
Hab seit Dezember ne 8800er (erst GTS, jetzt Ultra) und ausser den anfänglichen Problemen mit Source-Spielen noch nie irgendein Treiberproblem gehabt.
Wenn du selbst keine hast solltest du vorsichtig bei solchen Aussagen sein
sli oder auch cf ist für mich eh nur was zum benchen, für nen spieler-pc würde ICH mir das nie antun.
Du Träumst, nen System mit nem von; Q6600@ 3500 Mhz und ner 8800 Ultra die 720/1200 hat macht 15.400 Punkte also nix mit 16k ohne OC![]()
Aber 2x 2900 1GB können auch net nur 16 k bringen, ich hatte zum Test 2x 512 MB drin und die haben ohne OC 18600 Punkte gebracht ( eine Karte 13900 Punkte mit meine System und Vista 64 Bit).
Kann ja sein das sie gebencht haben mit nem normalen C2D, aber für solche Karten sollte nen Quadcore pflicht sein denke ich oder ?
Aber PCGH hat auch schon berichtet das 2x 2900XT 1GB schneller sind als 2 8800GTX.
http://www.pcgameshardware.de/?article_id=605401
Ich hab doch geschrieben, mit meinem System wo mein Board auh 16/4x anbindung hat hab ich stock 18 k gehabt![]()
glaub ich dir schon, aber jetzt sieht es anders aus mit neuen Treibern, und der 7.8 Beta hat auch noc mal ganz schn was raus gehauen, im Benchmark nicht viel aber in Games dafür ne menge.
glaub ich dir schon, aber jetzt sieht es anders aus mit neuen Treibern, und der 7.8 Beta hat auch noc mal ganz schn was raus gehauen, im Benchmark nicht viel aber in Games dafür ne menge.
link`?
Das mag sein, aber das hab ich ja auch nie abgestritten, ich sagte nur das wenn man das alter des Beitrages da beachtet, die 16,6k durchaus realistisch sein können...
Pisa....
Erstens haben wir 230Volt hierzulande, zweitens hat das überhaupt nichts damit zu tun, was die Grafikkarte bekommt.
Zweitens sind die 225W=75W(PCIe)+75W(Stecker0)+75W(Stecker1)
Immerhin ein gewisses Mass an Selbstzweifel, das lässt hoffen.
Lies doch was ich unten geschrieben habeDer Test ist fürn.....so wie der Fred hier.
böhser onkel schrieb:Ich hab nur fälschlicherweise gedacht, dass da epY was verwechselt hat *schäm*
nur gut, dass deine glaskugel funktioniert![]()
![]()
bei der 5er serie von nvidia hat doch gar nicht soo abgeloost, war doch bestenfalls die fx5600 (usw.), aber 5950 war doch auf 9800Pro niveau, also was soll das ständige schlechgerede von dirbist du schonmal nicht gegen irgendetwas gewesen!?
http://www.computerbase.de/artikel/...6800_gt_ultra/15/#abschnitt_performancerating
hmm... genau. Die 5er Serie war so kacke, das sie sogar bei Source den DX9 Pfad deaktiviert haben weil die Framerates und die Leistung mist waren.
naja der dx9 pfad ist auch auf einer fx 5900 gut spielbar. das dieser bei fx karten deaktivert worden ist liegt wohl eher daran das gabe newell in ati verliebt war.
hmm... genau. Die 5er Serie war so kacke, das sie sogar bei Source den DX9 Pfad deaktiviert haben weil die Framerates und die Leistung mist waren.
cool, damals gabs nur source![]()
![]()
bist ja ein schwarzseher, nur weil sie einmal so nen fehler gemacht haben...gut, und sie haben damals keine versprochenen 3dfx-treiber mehr gebastelt, wir wissen es, aber das ist doch wohl schnee von vorgestern!![]()
![]()