Gigabyte Radeon RX 6800 XT Gaming OC im Test

Thread Starter
Mitglied seit
06.03.2017
Beiträge
112.374
gigabyte-6800xt-gaming.jpg
Auf die ersten Custom-Modelle folgt mit der Gigabyte Radeon RX 6800 XT Gaming OC nun eine weitere Interpretation, die früher oder später das beliebte Referenzdesign ablösen soll. Mehr Leistung und eine effizientere Kühlung sind einmal mehr das Hauptziel eines solchen Modells. Aber wie wir wissen, stellen die guten Referenzdesigns eine hohe Hürde an die Custom-Modelle. Ob Gigabyte diese mit der Radeon RX 6800 XT Gaming OC überspringen kann, klären wir auf den folgenden Seiten.
... weiterlesen
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Einfach nur eine bodenlose Frechheit, was Gigabyte hier anbietet.

Die Karte ist kaum schneller als die Referenz, dabei deutlich lauter und soll dafür auch noch satte 200€ mehr kosten als die Referenz. Wie bitte rechtfertigt Gigabyte diesen Preisaufschlag? Einen wirklich großen Entwicklungsaufwand beim Kühler haben sie ja offensichtlich nicht betrieben.
Wobei hier gesagt werden muss, dass die Lüfter ab Werk wieder einmal vollkommen dämlich eingestellt sind. Wenn die Karte unter Last wirklich nur 68°C erreicht, dann zeigt das, dass die Lüfter unnötig schnell drehen. Eine GPU hält deutlich höhere Temperaturen aus.

Schade, dass in kaum einem Graka Test mal jemand Hand an die Lüfterkurve legt um das Potenzial der Kühler wirklich auszuloten.
Ich wette, diese Gigabyte Karte kann auch unter Last sehr leise arbeiten, wenn man nur die Lüfterkurve weniger aggressiv einstellt und ihr unter Last 10°C mehr erlaubt.

Die manuelle Einstellung der Lüfterkurve ist das Erste, was vei mir mit einer neuen Grafikkarte passiert, sofern diese nicht ab Werk schon wirklich leise ist. Letzteres passiert halt so gut wie nie.
 
Auch bei dieser Karte würd emich die Höhe ohne Shroud interessieren. Wie man sieht taugen die Lüfter ja für nix. Hier lässt sich mit einem paar 92er oder 120er Lüfter gut was rausholen.

Könnt ihr das vielleicht auch messen, z.B. bevor ihr den Kühlkörper demontiert? Die Shroud wird doch auch nur von 3-6 Schrauben gehalten. Das wär wirklich klasse! :)
 
Zuletzt bearbeitet:
Kein wirklicher Vorteil zum Referenzdesign und dafür aber ein ordentlicher Aufpreis.
Würde mich nicht wundern, wenn das Teil zum Ladenhüter wird.

Ich hoffe mal, dass das Referenzdesign noch verfügbar ist, wenn die Karten mal günstig werden und auch lieferbar sind.
 
Mal ehrlich, welche custom Karte ist den günstiger?
 
Aktuell ja.
Aber warte mal bis die GPU´s mal wieder in ausreichender Stückzahl verfügbar sind.
Da wird (fast) niemand bereit sein einen solchen Aufpreis für quasi nichts zu zahlen.
Verkaufen lässt sich dann sowas nur noch über den Preis (>Preisanpasung).
 
200€ über UVP der Referenz. Ja ne is klar. :ROFLMAO:
 
Was ein Rotz, genau wie die Ampere Gigabyte Karten. Mit vernünftigen Lüfterkurven haben sie es anscheined gerade nicht so.
 
Es ist im Moment unwahrscheinlich,

dass die Komponenten in den nächsten sechs Monaten großartig günstiger werden, siehe:

https://www.hardwareluxx.de/index.p...mit-einmaligem-produktionsvolumen-update.html

Selbst Igor sagt ähnliches, die Kupferpreise sind doch enorm gestiegen,

dies gilt auch für andere Rohstoffe!

Selbst die Transportkosten haben sich exobitant nach oben entwickelt!
Und vor allem beweisen die Kunden, dass ihnen jeder Preis recht ist und bezahlt wird... Warum also billiger verkaufen...
 
Ich habe gerade mal ein bisschen auf Ebay geschnurkt... 399€ GPUs bei 520€ und die Leute bieten immer noch fleißig.
"Zwei Dinge sind unendlich. Das Universum und die menschliche Dummheit. Nur beim Universum bin Ich mir noch nicht ganz sicher." -Albert Einstein.

Nach wie vor kann man sich jeden GPU Test (außer den von den FEs, damit man einen Richtwert hat) schenken. Da 1. Aktuelle GPUs so gut wie nicht verfügbar und 2. wenn mal verfügbar (6 Monate) es sowieso viel neuere Treiber gibt, die sehr wahrscheinlich das Testergebnis beeinflussen.
 
Hallo,

ich hätte mal grundsätzlich einen Wunsch.
wäre es nicht sinnvoll auch die mittlerweile wahrscheinlich schon etwas mehr verbreitete Auflösung von 3440x1440 zu testen?(21:9)

Gruß

Max
 
Bei einigen Test´s wird die Auflösung berücksichtigt, bei anderen nicht.
Aber die Leistung kann man sich sehr gut annähernd errechnen. Habe die gleiche Auflösung und bei mir hat es immer gepasst.

4K, 3840x2160 = 8.3 Mio Bildpunkte
1440p, 2560x1440 = 3.7 Mio Bildpunkte
3440x1440 = ~ 5 Mio. Bildpunkte

Jetzt bist Du dran, ein bischen Mathe und Dreisatz und schon kannst Du die gewünschte Leistug herausfinden!
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh