Ein Rückblick - reifen Radeon Modelle besser?

TCS

Enthusiast
Thread Starter
Mitglied seit
17.01.2005
Beiträge
1.692
Erstmal Vorweg, versuchen wir bitte eine normale Diskussion zu führen, so wie unter halbwegs normalen und erwachsenen Leuten :wink:
Danke

Im Frühjahr/Sommer 2001 stellte ich meinen ersten PC zusammen, als Grafikkarte viel meine Wahl damals auf eine Asus V8200 Deluxe Geforce 3. Im Sommer des selben Jahres kam die Radeon 8500 auf den Markt. Ich kann mich noch lebhaft an ein Kopf an Kopf Rennen zwischen den beiden von Treiber zu Treiber erinnern.
Und wie ich mich danach geärgert habe, als die 8500er meiner GF3 so langsam aber sicher davon kam, und am Ende war sie doch Knapp 10-20% vor der GF3.

Danach kam der Sprung auf die Radeon 9700@pro, die FX5800U war ja nicht gerade ein Meilenstein, hielt sich über die Zeit aber immer im selben Abstand zur R9700.

Mein nächste Ausflug in die High-End Liga war die GeForce6800GT (Gainward GLH - Ultra-Taktraten) diese baute den Vorsprung gegenüber der X800xt sogar noch aus über die Zeit.

nach ein paar Jahren Mittelklasse (X1800GTO, 8600GTS, HD4850) war meine nächste High-End die 6950. Zu Beginn, war die 6970, 20-25% hinter der GTX580 Ende 2011 zur Vorstellung der 7970 war sie nurmehr ~0-10% dahinter

2012 Rang ich mich dazu durch, die 6950 mit einer 7970 und Fullcover Kühler zu ersetzten, wobei ich ziemlich mit mir rang, eine GPU mit einem >100€ kühler auszustatten. Rückblickend wars nicht so verkehrt -> hätte nie geglaubt, dass die Karte nach fast 4 Jahren noch gut brauchbar ist (FHD). Die Karte war zu beginn 5-10% hinter der GTX680 erst die Ghz war gleichauf. Heute liegen in Witcher 3(!) Knapp 20% zwischen der 7970 und der GTX680.


Rückblickend drängt sich mir der Gedanke auf, dass die Radeons besser über die Zeit "gereift" sind als ihre GeForce Gegenstücke.
Ist das jetzt unbewußtes Cherry-picking meinerseits?
Hab ich oft die "richtige Zeit" einer GPU erwischt, um diese Eindruck zu wecken?
Ist es die Radeon-Stärke in hohen Auflösungen die nach ein paar Jahren vielleicht standard sind?
Sind die Treiber auf der AMD/ATI Seite anfangs soviel schwächer/schlechter optimiert?

Nochmals die Bitte, das Thema sachlich und ohne Anfeindungen zu behandeln.
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Nochmals die Bitte, das Thema sachlich und ohne Anfeindungen zu behandeln.

Verzeih, aber das wird bei einer Diskussion zwischen 2 Lagern in einem Forum kaum funktionieren. Abgesehen davon, was erwartest du für einen Diskussionsverlauf, worauf möchtest du hinaus?
 
Vorab schon einmal als Warnung: bei der kleinsten Entgleisung mache ich hier zu. Sehe in dem Thema nämlich auch viel Konfliktpotential zwischen unseren üblichen Verdächtigen. Seht das als Vorwarnung: nicht sachliche Beiträge führen zur Schließung und zur sofortigen Ermahnung. Überrascht mich und macht eine interessante und respektvolle Diskussion da draus.
 
Quellenangaben für deine Thesen wären gut.

Ich hab mal kurz gegoogelt und gesehen, dass beim Hardwareluxx Benchmark von Witcher 3, die HD 7970 zwar schneller, als die GTX 680 ist, aber nur ca. 10%, keine 20%.

The Witcher 3: Wild Hunt im Benchmark-Check - Hardwareluxx

Man darf auch nicht außer Acht lassen, dass die HD 7970 3GB RAM hat. Das spielt bei manchen Games und machen Settings sicher auch eine Rolle.

Ich möchte dabei anmerken, da ich weder pro AMD noch pro Nvidia bin.
 
Stimmt da hast du Recht, auf meine Quellen hätte ich besser eingehen können

http://www.computerbase.de/2015-05/witcher-3-grafikkarten-test-benchmark-prozessoren-vergleich/
http://www.tomshardware.com/reviews/radeon-hd-7970-ghz-edition-review-benchmark,3232-8.html

Bis vor ein paar Wochen wars nur ein "Gefühl", dann begann ich etwas zu schnüffeln.
Die meisten Angaben hab ich aus den THG Tests Vorstellung + Vorstellung der Nachfolger/VGA-Charts abgeleitet.

Bitte versteht das nicht als wissenschaftliche Analyse, Teils kommen über die Jahre andere Testsysteme zusammen, genauso wie unterschiedlichen Treiber/Bench/OS Versionen.
 
KISS :fresse:

Machen es kurz und knapp und beantworten die Frage des fred Erstellers mit einem unzweideutigem: JA
 
ich muss mal einen Link suchen, hatte den mal in den Favs

da wird genau das beleuchtet

eine 7970 und eine 680 über 10 Generationen Treiber

ja, AMD hat am Ende etwas mehr Zuwachs,
nein, den Wundertreiber gabs bei keinem der 2 Hersteller

und ja, die Releasetreiber sind bei AMD meistens etwas schlechter (das ist aber nur was ich von Reviews so sehe)
 
Zuletzt bearbeitet:
Ich darf mir mal erlauben, hier einen augenzwinkernden Vergleich zu bringen, der hoffentlich keine Wutausbrüche auslöst.

AMD Karten sind wie ein guter Wein, der mit der Reife nur noch besser wird.
NVIDIA Karten verhalten sich hingegen wie eine Flasche Bier, die man schon geöffnet hat: schnell austrinken bevor es schal wird, und ein neues aufmachen.

;)
 
Na, ich würde im Bereich Hardware nicht von reifen sprechen, ob du jetzt mit einer alten AMD Karte 5 FPS mehr hast als mit dem Nvida Pendant, ist spätestens dann irrelevant, wenns am Ende effektiv 15 vs 20 FPS steht:fresse:

Hier können wir dann ja den Verlauf der GTX 970 gegen die R9 290 vergleichen.
 
Ich darf mir mal erlauben, hier einen augenzwinkernden Vergleich zu bringen, der hoffentlich keine Wutausbrüche auslöst.

AMD Karten sind wie ein guter Wein, der mit der Reife nur noch besser wird.
NVIDIA Karten verhalten sich hingegen wie eine Flasche Bier, die man schon geöffnet hat: schnell austrinken bevor es schal wird, und ein neues aufmachen.

;)


Mehr muss dazu nicht mehr gesagt werden :bigok:
 
Es ist durchaus möglich dass die Radeons besser "reifen", da die aktuellen Performancemodelle immer noch die gleichen wie 2013 sind. Nvidia hat eine komplett neue Architektur gebracht, scheint dafür aber seine alten Modelle zu vernachlässigen.
 
Ich darf mir mal erlauben, hier einen augenzwinkernden Vergleich zu bringen, der hoffentlich keine Wutausbrüche auslöst.

AMD Karten sind wie ein guter Wein, der mit der Reife nur noch besser wird.
NVIDIA Karten verhalten sich hingegen wie eine Flasche Bier, die man schon geöffnet hat: schnell austrinken bevor es schal wird, und ein neues aufmachen.

;)
Naja, auf eine Flasche Bier würde ich NVIDIA nicht herab Stufen wollen, eher ein Whisky, kurz und knapp!
Das mit der GTX970 war ja auch so eine Sache... :xmas:
 
Rückblickend drängt sich mir der Gedanke auf, dass die Radeons besser über die Zeit "gereift" sind als ihre GeForce Gegenstücke.
Ist das jetzt unbewußtes Cherry-picking meinerseits?
Hab ich oft die "richtige Zeit" einer GPU erwischt, um diese Eindruck zu wecken?
Ist es die Radeon-Stärke in hohen Auflösungen die nach ein paar Jahren vielleicht standard sind?
Sind die Treiber auf der AMD/ATI Seite anfangs soviel schwächer/schlechter optimiert?

Neja, ich sag mal so, es kommt halt immer drauf an, was genau verglichen wird, wie realitätsnah die Vergleiche sind (also welchen Sinn der Vergleich damit auch hat -> Vergleiche in Titeln, die unspielbare FPS Regionen zeigen, sind unsinnig -> da nutzt auch der Vorteil des einen Herstellers nix) und was vor allem auch die Hersteller sich mit ihren Produkten dabei gedacht haben.

Was klar bei AMD/damals ATI noch erwähnt werden muss, bis heute verbaut AMD idR die größere Rohpower im direkten Vergleich nakter Zahlen. Das hat eigentlich grundsätzlicher damit angefangen, als der R600 bei AMD kam und war im Jahr 2007. Davor waren die Modelle vom Hardwareaufbau wohl durchaus eher vergleichbar. Es sollte also auch nicht wirklich verwundern, dass die AMD Modelle mit der Zeit im Vergleich etwas aufholen... Um da mal ein paar Zahlen zu nennen, ne R600 HD2900XT hat 64 VLIW5 Einheiten und eine G80 8800GTX hat "nur" 128 Einheiten mit deutlich weniger Breite (1D). Bei den Nachfolgern zieht sich das quasi 1:1 durch die ganze Palette und mit quasi jeder Generation wurde die Lücke zwischen der Einheiten Anzahl bei AMD und NV immer kleiner. (bis zum Thaiti aka GCN HD7000) -> die letzte Instanz, also die HD6000er Reihe bot 384 VLIW4 Einheiten und GF110 kam mit "nur" 512 ihrer bekannten "1D" Units. AMD hat also das Verhältnis durchaus verkürzt, was natürlich im Vergleich potentiell auch bedeutet, dass die Karten damit "länger" halten im direkten Vergleich, vor allem, wenn die Auslastung besser wird und man mehr Effizienz aus den Einheiten quetschen kann. Allerdings ist bspw. mit Maxwell der Schritt wieder etwas größer geworden. Während Kepler zu GCN noch (290X vs. 780TI) ähnlich hohe Anzahl an Rechenwerken boten, haut Fiji mit 4096 ALUs ziemlich viel raus, GM200 mit 3072 braucht aber "nur" 3/4 der reinen Anzahl um das abzufangen. -> so hat Maxwell eine Steigerung der Pro "Einheit" Performance erfahren.

Auf der anderen Seite muss man im Nachgang definitiv aufpassen, was man vergleicht! So simple Vergleiche von alten Generationen untereinander können viele Monate nachdem diese Generationen aktuell waren, auch schnell mal exklatante Details vermissen lassen. Bspw. gab es reihen weise Probleme bei einigen Modellen. Die AF-Filterqualität bei AMD war bis einschließlich der HD6000er Reihe nicht auf dem Niveau von NV, welches man mit dem G80 eingeführt hat. (Ein Vergleich von AF HQ bei beiden ist also ungerecht, da die BQ nicht ansatzweise gleich ist) Weswegen man sich bei den Redaktionen dann irgendwann mal dazu entschieden hat, anstatt mit default Einstellungen bei AMD mit HQ zu vergleichen wärend NV noch einen besseren, weil optisch hübscheren Modus bot. Die AMD Karte also etwas Leistung verlor, die BQ aber wenigstens ansatzweise vergleichbar war. Vor dem G80 waren die Vorzeichen geanau andersrum, die Filterqualität der 7000er NV Reihe ggü. den X19xx Karten war unterirdisch usw.
Auch ist die Spieleauswahl immer so eine Sache -> bspw. beim Vergleich X800 vs. NVs 6000er Reihe -> die 6000er können "schon" SM3 aka DX 9.0c, die X800er von ATI nicht -> Performancevorteil für ATI, aber eben BQ Nachteil (später auch gar keine Lauffähigkeit) bei einigen Titeln...


Kurzum, über so einen riesigen Zeitrahmen eine Pauschale Aussage tätigen zu können, halte ich für schwierig. Bis einschließlich der Geforce 2-3 Karten hatte NV ggü. ATI die Nase etwas vorn, auch in der Haltbarkeit. Dann spätestens mit der eher unbekannten Radeon 8500, definitiv aber mit dem R300 Chip von ATI (9700/9800 Pro) war ATI vorn, mit dem G80 hat sich das Blatt wieder gewendet zugunsten NVs bis zur aktuellen GCN Reihe im Jahr 2012. Denn seit diesen Modellen sind beide Kontrahenten ca. gleichauf... AMD Karten haben allerdings aktuell den leichten Vorteil, mehr Rohpower und teils auch mehr VRAM zu haben (bis auf neueste Fiji Modelle) und damit für die Zukunft die Nase vorn zu haben...
Auch würde ich bspw. unterschreiben, dass die AMD Modelle spätestens seit GCN etwas mehr Allrounder für die Zukunft sind, wärend die Geforce Modelle etwas kürzer konzipiert sind. Der Vergleich mir dem Bier oben passt eigentlich ganz gut würde ich sagen. Allerdings hat das halt auch ggf. Gründe. Wenn AMD seit 2011 an der gleichen Technik rumschraubt, sind die Modelle womöglich soweit im Optimum, dass man damit die von NV nicht mehr voll optimierte alte Generation in die Tasche packen kann. Dafür gibts für den potentiellen Kunden an der Stelle halt auch keinen Grund, zu wechseln ;) Ne HD7970 gekauft im Jahr 2012 und selbst heute bekommst du in dieser Region (380X) nix, was schneller ist...
 
Wobei der aktuelle "Stillstand" auch darin begründet ist das sowohl AMD als auch NV immernoch auf dem 28nm Prozess rumkrebsen.
Natürlich sind da keine riesen Innovationen mehr zu erwarten bzw. Nvidia hat sich sogar dazu entschlossen vorallem an der Effizienz zu schrauben.

Ansonsten volle Zustimmung.
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh