Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
B2 sind ramsch Chips und werden nur auf den 260 verbaut, die bringen kein mehr Takt und haben keinen geringeren Verbrauch, da kann man gleich den 65nm nehmen.
B1 gibt es als Retail nicht.
jo kenn ich, da wird aber nicht quad sli gemeint.
@ X2
Wer will schon die Karte, komplette OC Krücke da muss man richtig viel glück haben um eine brauchbar Karte zu bekommen und nicht mal die laufen gut...
Es ist einfach so, soll ja leute geben die so was nicht merken aber ich bin in dem bereich sehr empfindlich, ich muss meine 60FPS mit dem 3-Way SLI haben unter 50FPS ist es für mich schon nicht mehr Spielbar!
na es geht mir nur um Crysis und da läuft Quad SLI eben schon ganz gut :love:
und ich bin mir sicher das man die GTX295 mega gut Takten kann, also besser gesagt ich weis es ;)
klar die 285 gehen sicher etwas höher, aber halt eine GPU weniger...
echt krass, also kommt der G200 B3 wohl doch noch auf seinen verdienten Takt :wink:
Was da wohl noch geht? Gerade beim Shader, da waren meine Infos mit 1800MHz+ Shader Takt mit WaKü wohl doch war :d
Schon mal was von nForce 730i gehört? Es gibt Aktuell keinen bessere IGP, das ding pasiert schon auf den NV AMD Chipsatz der 800 Serie die bald kommt.
Es gibt wohl schon einen grund wie so die Hersteller alle diesen Chipsatz haben wohlen und jetzt kommt der ja auch noch für den ATOM.
Der G92 hat kein 8xAA problem, das problem liegt viel eher darin das für den G92 und seiner Leistung zb. 9800GX2 512MB einfach zu wenig sind und die Bandbreite hat sicher auch noch etwas beigetragen, im grunde sind G92 und G200 im dem Bereich aber gleich ausser das der G200 natürlich viel mehr...
und ich sage nein, wenn man bedenkt das die GPU um die 2TeraFlops haben wird und schon die GTX 285 160GB/s Bandbreit hat dürfte 256Bit auch mit GDDR5 recht wenig sein.
Zudem vergessen wohl auch einige immer wieder das GDDR5 im Vergleich zu GDDR3 bis zu ca. 30% ineffizienter ist! Also Vergleiche...