Wirklicher Wert einer 6800GS AGP...

Zu Palit:

Es heisst ja Xpertvision Palit únd Palit hat immherhin Gainward aufgekauft.

Joe21, Glückwunsch

aber wie kommst du darauf, dass es eine freigeschaltete sein könnte?
Wenn du's genau nimmst, sind ALLE x800XL freigeschaltet, weil alle
Pipes laufen. Oder meinst du, die kaufen auf 12/5 reduzierte Chips bei ATI,
testen ob sie auf 16/6 laufen und bauen dann X800XL-Karten damit? ;)

X800XL lassen sich grundsätzlich nicht sehr weit übertakten, wäre eine Über-
raschung wenn's jetzt anders wäre. Aber wozu? Läuft ja auch so wohl schnell genug.


zu meiner 6800GS

erste Taktversuche gingen bis 490/1260. Damit ist sie ne Ecke schneller wie
eine 6800 Ultra. 3dM05 auf SockelA Barton 3200+ = fast 5900 ist ja sogar über 7800GS-niveau :d

Aber ich lass sie sonst auf Standard laufen, sind immer noch 5400 und in Spielen was feines. Endlich HDR bei Oblivion :d

h.
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
@hartcore
Wieso soll sich die X800XL nicht übertakten lassen? Die Standard 400/490 können doch nicht die Grenze sein!

Wie bist Du eigentlich mit der Lautstärke der 6800GS zufrieden?

Ich schwanke noch zwischen der X800XL und er 6800GS.
 
Ja...
zum Review kann ich leider i.m. nicht allzu viel machen da ich übernächste Woche Abitur Schreibe und eigentlich die ganze Zeit lernen sollte...hmmm...

Also sagen wir mal so...Ich würds auf alle Fälle wieder tun...Das Geld war gut angelegt und der Shop ist auch super!

Original läuft der Lüfter auf 54%. Geräusch bei offenem Gehäuse kaum zu hören... :) :) :) Genau das richtige für mich.

Bei geschlossenem Gehäuse nur noch minimalst zu hören....auch nur wenn man wirklich drauf aufpasst!!!

Und dazu muss ich sagen: ICH BIN EIN ABSOLUTER SILENT FAN! Das war der Hauptgrund für meine Wasserkühlung im PC....
Also dieser Punkt ist sehr sehr zu empfehlen...
Desweiteren lässt sich der Lüfter sogar noch auf 40%Regeln ohne das die Temperaturen steigen...
Im 3D wirds etwas lauter aber auch nicht unangenehm (bei offenem Gehäuse) bei geschlossenem hört man ihn wiederum auch nur minimal...ungefähr so wie 2D bei offenem Gehäuse...nur etwas höher von der frequenz hald...
PASST SO WIRKLICH
Und wem selbst dies noch zu laut ist der kann ja den Lüfter wieder runterregeln...muss derjenige hald mit höheren Temperaturen leben.

Übertaktung:
Naja. Wie soll ich sagen...Wie hartcore schon geschrieben hat sind und waren die XL Karten noch nie der Überflieger.die in der low-k Fertigung sind da einfach besser.
Original: 400/490
Übertaktet: 430/555

Dazu muss ich sagen das ich da das Ati Tool nur mal kurz angetestet hab...mit den neuestem hat sich der PC immer regebootet also musste ich ein älteres benutzen 0.23 (glaub ich).Könnte sein dass dies auch nicht richtig funktioniert. Ich werde das im Laufe der Woche per Hand testen und gebe dann nochmal bescheid!!!

Kurzer Anhaltspunkt:
3D Mark 05 original Takt 4870Punkte

Ansonsten hab ich nur mal Silent Hunter 3 HL2 BF2 CSS Cod2 und Oblivion angespielt da ich ja nicht allzu viel Zeit hab (leider wegen Abi) Kurz gesagt alles ruckelfrei auf 1024x768 mit allen Details und mind. 2AA + 4AF (im Treiber) Ausser Oblivion...Oblivion hab ich bisher nur ohne AA und AF probiert aber sonst auch alles an...RUCKELFREI....:)

Übertaktet hab ich das noch nicht probiert...Wie gesagt mir fehlt die Zeit aber das werd ich nachholen und bescheid geben!Auch wie weit die Karte wirklich geht... (Aber ehrlich gesagt: Wegen 20Mhz mehr Takt schrotte ich die Grafikkarte ganz gewiss nicht! Macht eh fast keinen Unterschied)


Verpackung ist Retail mit YStromkabel, TV Kabel und Adapter, Install Guide, Treiber CD und Power DVD 5.

Insgesammt bin ich sehr zufrieden damit unter anderem wegen der Lautstärke! Auch wenn sie sich nicht übermäßig übertakten lässt kann ich jedem der 150 als Maximalgrenze gesetzt hat diese Karte empfehlen! Und auch den Shop der extremst schnell liefert! Jedenfalls per Nachnahme...

Warum ich nicht zur GS gegriffen hab (obwohl die von hartcore übertaktet bestimmt noch etwas schneller ist als meine XL)...Nunja...Hab irgendwie bammel davor wenn man in den Spielen SM3 nicht manuell auswählen kann bzw. abschalten kann wenn die Leistung nicht mehr reicht. Da gehts lieber nur mit SM2 aber dafür etwas schneller... (Hab in den meisten Benchmarks gefunden das SM3 abgeschaltet wurde um die Leistung besser vergleichen zu können und die NVidia Karten nicht benachteiligt werden).

Naja.

Meine Empfehlung lautet jedenfalls zugreifen für denjenigen der nicht mehr ausgeben will! Leistung Lautstärke Ausstattung passen sehr gut für diesen Preis!

gruss
euer joe!

edit:
Ich muss dazu sagen dass ich Windows noch nicht neu installiert hab und deswegen evtl. mit Ati Tool und auch mit dem Treiber am Anfang etwas schwierigkeiten hatte/habe...(evtl.wegen ATi Tool usw.)
Auf dem Windows hatte ich Anfangs die FX5800 dann die Radeon 9800Pro und jetz die X800XL.Ohne dass ich irgendwelche tools wie den DriverCleaner oder so benutzt hab.
edit:
kurzer Anhaltspunkt für die Leistung meiner restlichen Komponenten für den besseren Vergleich:
Pentium 4 Mobile 1.9Ghz@3Ghz(Northwood), Asus P4P800@SE, 1GB Dualchannel Kit Corsair Value Select @200fsb @2.5-3-3-7 T?, dürfte eigentlich alles wichtige gewesen sein...


nochmal edit: :) @hartcore

dachte zuerst an ne GTO da auf der Verpackung up to 12 Pixelpipelines stand...Aber meine Zweifel haben sich gelegt da ja sämtliche Aufkleber Seriennummer der Original XL sind... Ausserdem würde sich ne GTO normalerweise besser Takten lassen weil die ja (laut meinen Infos) in der low-k Fertigung gemacht werden...
Nein Nein. Ne GTO wär trotzdem nix! Kostet mehr Geld und man muss wieder Glück haben um 16 Pipes zu haben...wär mir zu riskant... Und das nur für ein paar Mhz mehr Chiptakt wobei die sowieso nix rausreissen wenn das Grundsystem zu Alt und überfordert wird....
 
Zuletzt bearbeitet:
ak68 schrieb:
@hartcore
Wieso soll sich die X800XL nicht übertakten lassen? Die Standard 400/490 können doch nicht die Grenze sein!

Wie bist Du eigentlich mit der Lautstärke der 6800GS zufrieden?

Ich schwanke noch zwischen der X800XL und er 6800GS.

Naja, etwa übertakten lassen sich die X800Xl natürlich auch.

Der Lüfter der 6800GS ist relativ laut im Vergleich zu meinen vorherigen Karten. Für Silent-Fans sicher nicht das wahre zumal momentan noch kein anderer käuflicher Kühler auf die Karte passt.

@joe

nicht zu vergessen der Wiederverkaufswert der X800Xl im Vergleich zur
GTO ( auch freigeschaltet)!

h.
 
Joe21 schrieb:
Ja...
zum Review kann ich leider i.m. nicht allzu viel machen da ich übernächste Woche Abitur Schreibe und eigentlich die ganze Zeit lernen sollte...hmmm...

Also sagen wir mal so...Ich würds auf alle Fälle wieder tun...Das Geld war gut angelegt und der Shop ist auch super!

Original läuft der Lüfter auf 54%. Geräusch bei offenem Gehäuse kaum zu hören... :) :) :) Genau das richtige für mich.

Bei geschlossenem Gehäuse nur noch minimalst zu hören....auch nur wenn man wirklich drauf aufpasst!!!

Und dazu muss ich sagen: ICH BIN EIN ABSOLUTER SILENT FAN! Das war der Hauptgrund für meine Wasserkühlung im PC....
Also dieser Punkt ist sehr sehr zu empfehlen...
Desweiteren lässt sich der Lüfter sogar noch auf 40%Regeln ohne das die Temperaturen steigen...
Im 3D wirds etwas lauter aber auch nicht unangenehm (bei offenem Gehäuse) bei geschlossenem hört man ihn wiederum auch nur minimal...ungefähr so wie 2D bei offenem Gehäuse...nur etwas höher von der frequenz hald...
PASST SO WIRKLICH
Und wem selbst dies noch zu laut ist der kann ja den Lüfter wieder runterregeln...muss derjenige hald mit höheren Temperaturen leben.

Übertaktung:
Naja. Wie soll ich sagen...Wie hartcore schon geschrieben hat sind und waren die XL Karten noch nie der Überflieger.die in der low-k Fertigung sind da einfach besser.
Original: 400/490
Übertaktet: 430/555

Dazu muss ich sagen das ich da das Ati Tool nur mal kurz angetestet hab...mit den neuestem hat sich der PC immer regebootet also musste ich ein älteres benutzen 0.23 (glaub ich).Könnte sein dass dies auch nicht richtig funktioniert. Ich werde das im Laufe der Woche per Hand testen und gebe dann nochmal bescheid!!!

Kurzer Anhaltspunkt:
3D Mark 05 original Takt 4870Punkte

Ansonsten hab ich nur mal Silent Hunter 3 HL2 BF2 CSS Cod2 und Oblivion angespielt da ich ja nicht allzu viel Zeit hab (leider wegen Abi) Kurz gesagt alles ruckelfrei auf 1024x768 mit allen Details und mind. 2AA + 4AF (im Treiber) Ausser Oblivion...Oblivion hab ich bisher nur ohne AA und AF probiert aber sonst auch alles an...RUCKELFREI....:)

Übertaktet hab ich das noch nicht probiert...Wie gesagt mir fehlt die Zeit aber das werd ich nachholen und bescheid geben!Auch wie weit die Karte wirklich geht... (Aber ehrlich gesagt: Wegen 20Mhz mehr Takt schrotte ich die Grafikkarte ganz gewiss nicht! Macht eh fast keinen Unterschied)


Verpackung ist Retail mit YStromkabel, TV Kabel und Adapter, Install Guide, Treiber CD und Power DVD 5.

Insgesammt bin ich sehr zufrieden damit unter anderem wegen der Lautstärke! Auch wenn sie sich nicht übermäßig übertakten lässt kann ich jedem der 150 als Maximalgrenze gesetzt hat diese Karte empfehlen! Und auch den Shop der extremst schnell liefert! Jedenfalls per Nachnahme...

Warum ich nicht zur GS gegriffen hab (obwohl die von hartcore übertaktet bestimmt noch etwas schneller ist als meine XL)...Nunja...Hab irgendwie bammel davor wenn man in den Spielen SM3 nicht manuell auswählen kann bzw. abschalten kann wenn die Leistung nicht mehr reicht. Da gehts lieber nur mit SM2 aber dafür etwas schneller... (Hab in den meisten Benchmarks gefunden das SM3 abgeschaltet wurde um die Leistung besser vergleichen zu können und die NVidia Karten nicht benachteiligt werden).

Naja.

Meine Empfehlung lautet jedenfalls zugreifen für denjenigen der nicht mehr ausgeben will! Leistung Lautstärke Ausstattung passen sehr gut für diesen Preis!

gruss
euer joe!

edit:
Ich muss dazu sagen dass ich Windows noch nicht neu installiert hab und deswegen evtl. mit Ati Tool und auch mit dem Treiber am Anfang etwas schwierigkeiten hatte/habe...(evtl.wegen ATi Tool usw.)
Auf dem Windows hatte ich Anfangs die FX5800 dann die Radeon 9800Pro und jetz die X800XL.Ohne dass ich irgendwelche tools wie den DriverCleaner oder so benutzt hab.
edit:
kurzer Anhaltspunkt für die Leistung meiner restlichen Komponenten für den besseren Vergleich:
Pentium 4 Mobile 1.9Ghz@3Ghz(Northwood), Asus P4P800@SE, 1GB Dualchannel Kit Corsair Value Select @200fsb @2.5-3-3-7 T?, dürfte eigentlich alles wichtige gewesen sein...


nochmal edit: :) @hartcore

dachte zuerst an ne GTO da auf der Verpackung up to 12 Pixelpipelines stand...Aber meine Zweifel haben sich gelegt da ja sämtliche Aufkleber Seriennummer der Original XL sind... Ausserdem würde sich ne GTO normalerweise besser Takten lassen weil die ja (laut meinen Infos) in der low-k Fertigung gemacht werden...
Nein Nein. Ne GTO wär trotzdem nix! Kostet mehr Geld und man muss wieder Glück haben um 16 Pipes zu haben...wär mir zu riskant... Und das nur für ein paar Mhz mehr Chiptakt wobei die sowieso nix rausreissen wenn das Grundsystem zu Alt und überfordert wird....


Keine SM 3.0 Karte zu nehmen weil man evtl SM 3.0 net abschalten kann und benches net vergleichbar sind ist humbug, benches mit sm 3.0 geben Karten ohne deutlich weniger punkte (3d mark 06), also ist das kein argument.
Sollte es mal irgendwann (in 1,2 Jahren) soweit sein das man sm 3.0 only nutzen muss, kannste mit deiner GARNET mehr spielen, d.h. es geht die perfromance bei der 6800 GS in dei knie, während du nichtmal das spiel starten kannst, soyy aber du schreibst nunmal viel blödsinn. :wall:
 
Du bist ja ein oberschlaumeier hier! Tolle Sache die du da schreibst! Laut deiner Aussage könnte man mit ner Geforce3 kein Spiel mehr Spielen oder was? Überleg vorher etwas mit welchem blödsinn DU da ankommst!(Was wird denn immer vorrausgesetzt bei spielen: Grafikkarte: Ati Radeon Serie...Nvidia Geforce Serie.... das ist meistens so und ich denke mal fast alle Spiel sind abwärtskompatibel jedoch kann man es bei so gut wie keinem auswählen bei der Install oder im Menü...das geht automatisch und du MUSST es nutzen wenn dus hast)
Und wenn du die Leistung einer Karte anhand von 3DMark misst dann läuft in deinem HIrn glaub ich was verkehrt! Oder wie erklährst du dir dass manche Karten in dem Shit Benchmark 1000-1500Punkte mehr haben jedoch in real Spielebenchmarks genauso schnell sind wie eben andere die laut dem "Billig Mark" viel langsamer sind???

Wahnsinniger schlaumeier! Am besten du kaufst dir einen alten BMW 320i mit SECHSZYLINDER (edit: egal ob der keinen drücker besser geht als ein Opel Corsa mit ca.80PS und gleichzeitig viel günstiger wär nur damit du auch einen hast...) und baust dir gleich ein Fahrwerk, Dicke Reifen und nen riesigen Auspuff ran! Das wär das richtige für dich...
das ist nämlich ungefähr das gleiche wie ne Grafikkarte wegen der Punkte in 3Dmurks zu kaufen und aufgrund 3dmark rückschlüsse auf die Leistung der karte zu ziehen!
3DMark bietet allenfalls nen Anhaltspunkt ob die Treiber und die Karte richtig funktionieren... Aber nicht wieviel die Karte real Leistet!

Ich denke es ist ungefähr so wie DirectX 8 und DX9 Karten! Was ist denn mit der Geforce4 Ti....Die ist in den Spielen genausoschnell wie die Radeon 9600Serie!Aber auch nur weil die eine Dx8 hat und die andere Dx9! Also man rechne wie lange es die Karten gab und rechnest du von welchen Karten du mehr(länger) was hast/hattest! Und wenn du z.b. bei Computerbase auch mal durchlesen würdest was die schreiben dann wirst du bei fast allen feststellen das SM3 abgeschaltet wurde...z.B. Tests der X800Serie vs. GF6800Serie! Fragt sich nur warum hä? Die schreiben sogar: "damit die Nvidia Serie nicht benachteiligt wird!"
Daraus folgt logischerweise wenn man es nicht MANUELL abstellen kann dann läuft das Spiel automatisch auf SM3 was ja aufwendiger ist als SM2...und damit logischweise auch etwas langsamer (denn der überflieger in neuen games sind die 6800erter nun auch nicht mehr)!
 
Zuletzt bearbeitet:
Moin,

nun mal langsam ihr beiden Heißsporne.

Grundsätzlich: X800XL und die 6800GT (6800GS Palit) nehmen sich in Spielen nicht viel im Performanceunterschied. Natürlich ist es Quark, nur den 3DMark
zum Vergleich ranzuziehen, aber ich denke, so blöd ist hier im Forum niemand.

Hier mal ein Performancerating: http://www.computerbase.de/artikel/...force_6800_gs/18/#abschnitt_performancerating

wobei man bedenken muß, dass nur PCIe-Karten genommen wurde. Aber einen
Eindruck gibts es schon.

Zum Shader-Modell 3.0:

Joe, hier liegst du nicht ganz richtig, dass es bei Anwendung immer Performancenachteile gibt. Neben besonderen Effekten durch 3.0 kann es
auch ( je nach Spieleprogrammierung) die Performance verbessern:

Zitat:http://www.hardtecs4u.com/reviews/2006/msi_nx_6800gs/index3.php
Der weitaus größere Vorteil des Shader Model 3.0 liegt in der Praxis jedoch darin, dass auch herkömmliche Effekte über eine bessere Programmierung durch das Shader-Model 3.0 von höherer Performance profitieren können, was sich natürlich wiederum ebenfalls in einer höheren Gesamtleistung widerspiegelt. Als kleine Untermauerung stehen folgenden Benchmark-Werte aus dem Spiel Far Cry von der Timedemo „Research“. Bei der Umsetzung von Shader Model 3.0 in Far Cry durch den Patch 1.3, wurde nachträglich überwiegend die Performance durch den Einsatz von Shader Model 3.0 verbessert, wodurch es uns geeignet erscheint es beispielhaft für die Veranschaulichung der möglichen Leistungssteigerung heranzuziehen:

Mir persönlich lag viel daran, Oblivion auch mit HDR zocken zu können und ich muß sagen, es gefällt mir.

Und nochmal: Die X800XL ist immer noch eine gute Karte ( zumal für den Preis), genauso wie die 6800GS von Palit.

h.
 
hartcore schrieb:
Moin,

nun mal langsam ihr beiden Heißsporne.

Grundsätzlich: X800XL und die 6800GT (6800GS Palit) nehmen sich in Spielen nicht viel im Performanceunterschied. Natürlich ist es Quark, nur den 3DMark
zum Vergleich ranzuziehen, aber ich denke, so blöd ist hier im Forum niemand.

Hier mal ein Performancerating: http://www.computerbase.de/artikel/...force_6800_gs/18/#abschnitt_performancerating

wobei man bedenken muß, dass nur PCIe-Karten genommen wurde. Aber einen
Eindruck gibts es schon.

Zum Shader-Modell 3.0:

Joe, hier liegst du nicht ganz richtig, dass es bei Anwendung immer Performancenachteile gibt. Neben besonderen Effekten durch 3.0 kann es
auch ( je nach Spieleprogrammierung) die Performance verbessern:

Zitat:http://www.hardtecs4u.com/reviews/2006/msi_nx_6800gs/index3.php


Mir persönlich lag viel daran, Oblivion auch mit HDR zocken zu können und ich muß sagen, es gefällt mir.

Und nochmal: Die X800XL ist immer noch eine gute Karte ( zumal für den Preis), genauso wie die 6800GS von Palit.

h.

Danke für deine Bestätigung, der Herr oben hat viel geschrieben, leider unzusammenhangloser wirrwarr
der hinten und vorne net stimmt, man kann bei sm3.0 karten den sm2.0 modus erzwingen, wobei das aber nicht nötig ist, in zukunft wird es eher game gehen die nur mit 3.0 gehen ,dann zwar lahm auf der 6800 gs, auf der X800 aber GARNET, siehe BF2 und geforce 4 /Radeon 9700 ;)
 
es eher game gehen die nur mit 3.0 gehen ,dann zwar lahm auf der 6800 gs, auf der X800 aber GARNET
Das hast Du bestimmt von einem Grafikkartenhersteller. Ich glaub das nicht!
Meinst Du die Games werden nur entwickelt weil das denen so viel Spass macht? Die wollen damit Kohle verdienen und da wird sich keiner (mit Hirn im Kopf) diese Käuferschicht entgehen lassen!
 
ak68 schrieb:
Das hast Du bestimmt von einem Grafikkartenhersteller. Ich glaub das nicht!
Meinst Du die Games werden nur entwickelt weil das denen so viel Spass macht? Die wollen damit Kohle verdienen und da wird sich keiner (mit Hirn im Kopf) diese Käuferschicht entgehen lassen!

Bei BF2 isses doch genauso ! die Geforce 4 TI die damasl noch viele hatten wurde nichtmehr unterstützt, es wird irgendwann immer dei letzte Version netmehr untersützt, das ist PS 2.0 und net 3.0 :wall:
 
lustigerweise geht BF2 aber auf einer Radeon 8500 ;)

Und bis SM2.b nichtmehr unterstützt wird, dürfte wohl noch was Zeit ins Land gehen und bis dahin sind die SM3.0 Karten auch so lahm, das man eh ne neue kauft...

Wer das als Argument anführt, den kann ich echt nich verstehen
 
Mome schrieb:
lustigerweise geht BF2 aber auf einer Radeon 8500 ;)

Und bis SM2.b nichtmehr unterstützt wird, dürfte wohl noch was Zeit ins Land gehen und bis dahin sind die SM3.0 Karten auch so lahm, das man eh ne neue kauft...

Wer das als Argument anführt, den kann ich echt nich verstehen


es ist kein Argument, sondern sein Geschwaffel widerlegt.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh