Erstmal Vorweg, versuchen wir bitte eine normale Diskussion zu führen, so wie unter halbwegs normalen und erwachsenen Leuten
Danke
Im Frühjahr/Sommer 2001 stellte ich meinen ersten PC zusammen, als Grafikkarte viel meine Wahl damals auf eine Asus V8200 Deluxe Geforce 3. Im Sommer des selben Jahres kam die Radeon 8500 auf den Markt. Ich kann mich noch lebhaft an ein Kopf an Kopf Rennen zwischen den beiden von Treiber zu Treiber erinnern.
Und wie ich mich danach geärgert habe, als die 8500er meiner GF3 so langsam aber sicher davon kam, und am Ende war sie doch Knapp 10-20% vor der GF3.
Danach kam der Sprung auf die Radeon 9700@pro, die FX5800U war ja nicht gerade ein Meilenstein, hielt sich über die Zeit aber immer im selben Abstand zur R9700.
Mein nächste Ausflug in die High-End Liga war die GeForce6800GT (Gainward GLH - Ultra-Taktraten) diese baute den Vorsprung gegenüber der X800xt sogar noch aus über die Zeit.
nach ein paar Jahren Mittelklasse (X1800GTO, 8600GTS, HD4850) war meine nächste High-End die 6950. Zu Beginn, war die 6970, 20-25% hinter der GTX580 Ende 2011 zur Vorstellung der 7970 war sie nurmehr ~0-10% dahinter
2012 Rang ich mich dazu durch, die 6950 mit einer 7970 und Fullcover Kühler zu ersetzten, wobei ich ziemlich mit mir rang, eine GPU mit einem >100€ kühler auszustatten. Rückblickend wars nicht so verkehrt -> hätte nie geglaubt, dass die Karte nach fast 4 Jahren noch gut brauchbar ist (FHD). Die Karte war zu beginn 5-10% hinter der GTX680 erst die Ghz war gleichauf. Heute liegen in Witcher 3(!) Knapp 20% zwischen der 7970 und der GTX680.
Rückblickend drängt sich mir der Gedanke auf, dass die Radeons besser über die Zeit "gereift" sind als ihre GeForce Gegenstücke.
Ist das jetzt unbewußtes Cherry-picking meinerseits?
Hab ich oft die "richtige Zeit" einer GPU erwischt, um diese Eindruck zu wecken?
Ist es die Radeon-Stärke in hohen Auflösungen die nach ein paar Jahren vielleicht standard sind?
Sind die Treiber auf der AMD/ATI Seite anfangs soviel schwächer/schlechter optimiert?
Nochmals die Bitte, das Thema sachlich und ohne Anfeindungen zu behandeln.
Danke
Im Frühjahr/Sommer 2001 stellte ich meinen ersten PC zusammen, als Grafikkarte viel meine Wahl damals auf eine Asus V8200 Deluxe Geforce 3. Im Sommer des selben Jahres kam die Radeon 8500 auf den Markt. Ich kann mich noch lebhaft an ein Kopf an Kopf Rennen zwischen den beiden von Treiber zu Treiber erinnern.
Und wie ich mich danach geärgert habe, als die 8500er meiner GF3 so langsam aber sicher davon kam, und am Ende war sie doch Knapp 10-20% vor der GF3.
Danach kam der Sprung auf die Radeon 9700@pro, die FX5800U war ja nicht gerade ein Meilenstein, hielt sich über die Zeit aber immer im selben Abstand zur R9700.
Mein nächste Ausflug in die High-End Liga war die GeForce6800GT (Gainward GLH - Ultra-Taktraten) diese baute den Vorsprung gegenüber der X800xt sogar noch aus über die Zeit.
nach ein paar Jahren Mittelklasse (X1800GTO, 8600GTS, HD4850) war meine nächste High-End die 6950. Zu Beginn, war die 6970, 20-25% hinter der GTX580 Ende 2011 zur Vorstellung der 7970 war sie nurmehr ~0-10% dahinter
2012 Rang ich mich dazu durch, die 6950 mit einer 7970 und Fullcover Kühler zu ersetzten, wobei ich ziemlich mit mir rang, eine GPU mit einem >100€ kühler auszustatten. Rückblickend wars nicht so verkehrt -> hätte nie geglaubt, dass die Karte nach fast 4 Jahren noch gut brauchbar ist (FHD). Die Karte war zu beginn 5-10% hinter der GTX680 erst die Ghz war gleichauf. Heute liegen in Witcher 3(!) Knapp 20% zwischen der 7970 und der GTX680.
Rückblickend drängt sich mir der Gedanke auf, dass die Radeons besser über die Zeit "gereift" sind als ihre GeForce Gegenstücke.
Ist das jetzt unbewußtes Cherry-picking meinerseits?
Hab ich oft die "richtige Zeit" einer GPU erwischt, um diese Eindruck zu wecken?
Ist es die Radeon-Stärke in hohen Auflösungen die nach ein paar Jahren vielleicht standard sind?
Sind die Treiber auf der AMD/ATI Seite anfangs soviel schwächer/schlechter optimiert?
Nochmals die Bitte, das Thema sachlich und ohne Anfeindungen zu behandeln.