AMD Radeon HD 6970 - alle technischen Daten (Update 2)

Status
Für weitere Antworten geschlossen.
Ganz so abwegig ist das nicht... Denkt doch nicht dran, das die Kunden hier das Update machen müssen. Sondern viel eher, das die Boardpartner hier eventuell noch was bringen könnten...

Aber unwarscheinlich halte ich es dennoch ein wenig...

Was mich aber wundert, für was die mehr Transistoren...
...

OK, daran habe ich nicht gedacht.
Aber trotzdem kann ich mich nicht wirklich mit der These anfreunden.

Ich halte die Karten für keinen Fehlschlag, nur für etwas spät dran bzw. fehlt mir das "MustHave-Kaufargument".


Allerdings lese ich die Folien und die Previews und mir stellt sich auch die Frage, woran happerts bzw. wozu die Änderungen und was haben sie letztendlich gebracht.
Vor dem Release der GTX5xx-Karten hätten die AMDs wohl positiver auf die potentiellen Käufer gewirkt.

Wenn nicht die volle Anzahl an möglichen Shadern verfügbar ist, muss das ja einen Grund haben.
Weshalb eingeschränkte Produkte auf den Markt werfen, wenn man bei Kunden und Presse hätte mehr auffallen können und auch das Produktimage hätte steigern können?


Ich weiss nicht ob ich es nur nicht raffe oder ob es tatsächlich unlogisch ist.
Um mich selbst nicht emotional zu verletzen bin ich stark für letzteres ... :d
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
ääh, das gejammer geht einem echt auf den sack....gut der performance sprung war jetzt nicht riesig, aber das wird schon seinen grund haben.

ich denke das AMD einfach nicht mehr aus der aktuellen architektur rausquetschen kann ohne das der verbrauch zu sehr steigt.

trotzdem sind das ganz gute karten....und nicht jeder hat schon eine 5870 zuhause.

manchmal glaube ich, das gejammer kommt von usern die sich um den grund zum wechseln neuer hardware beraubt fühlen....obwohl sie das eigentlich garnicht nötig hätten :fresse:
 
Ich glaube eher, das mit Vollausbau an Shader, eine Verbrauchsexplosion statt gefunden hätte.
Und wie ein zu hoher Verbrauch abgestraft wird sieht man an der GTX 470/480 Reihe.
 
Ich glaube eher, das mit Vollausbau an Shader, eine Verbrauchsexplosion statt gefunden hätte.
Und wie ein zu hoher Verbrauch abgestraft wird sieht man an der GTX 470/480 Reihe.

So ein haufen Transistoren benötigt nun mal eine Menge Strom. Da ändert man nichts daran. Ich denke, dass AMD sich genau wie nV bei der GTX 480 dazu entschieden hat, die restl. Transistoren erstmal ruhen zu lassen. Nur ergibt das erst mehr Sinn wenn man DIE Shots sieht. Falls AMD vor hätte, dieses restliche Potential freizuschalten, so würde man der HD 5970 ein Stückchen näher kommen. Ob das so gewollt ist?
 
...

trotzdem sind das ganz gute karten....und nicht jeder hat schon eine 5870 zuhause.

manchmal glaube ich, das gejammer kommt von usern die sich um den grund zum wechseln neuer hardware beraubt fühlen....obwohl sie das eigentlich garnicht nötig hätten :fresse:


Sehe ich sehr ähnlich.

Das ist sicherlich ein Grund.
Da nehme ich mich auch gar nicht vollständig aus.
Mit meiner "alten" Graka lief alles was ich spiele und ich spiele wirklich selten.
Trotzdem habe ich mir eine neue Karte zugelegt.
Ich bin jemand der bei Technik auch gern mal was neues ausprobiert um sich eine eigene Meinung zu bilden und gern schaut, was kann ich mit dem Kram alles anstellen.
So wird es in den, nennen wir sie mal Enthusiasten-Foren, einigen geben.



Allerdings sehe ich es auch so, dass die Hersteller ständig etwas neues oder etwas scheinbar neues am Markt haben müssen.
Viele Käufer haben keinen oder nur wenig Überblick, wen wundert es bei dem Chaos, so dass ein neues Produkt schon mal gleich mit (besser, aktuellste Technik, etc.) assoziiert wird.
Die Produktnamen tragen ja auch ihren Teil dazu bei ...



Lange Rede kurzer Sinn, müssen tun wohl viele nicht, aber haben wollen schon ...


*EDIT*
Ein für mich gutes Beispiel ist die GTX480 und die GTX 580.
Die 480er hat häufig einen sehr schlechten Ruf und die 580er einen deutlich besseren.
So viel Ersparnis habe ich mit einer 580er gegenüber einer 480er aber sicherlich nicht, die paar Watt fallen zumindest aus Kostengünden (man beachte mittlerweile auch die Preisdifferenz zwischen den beiden Karten) nicht ins Gewicht.

Dennoch kenne ich Leute die trotz Durchlaufkühler und Scheissegaleinstellung zum Stromverbrauch exakt immer wieder die Gründe als Argument nehmen für den Wechsel von 480 auf 580-SLI.

...
 
Zuletzt bearbeitet:
So enttäuschend find ich die Karten nun auch nicht.

Es zeigt sich nur, daß der 40nm-Prozeß bei AMD und Nvidia einfach ausgereizt ist, was die sinnvolle Weiterentwicklung angeht.
Beide Firmen hätten ihre neuen Derivate auch als 400er oder 5000er Serie weiter laufen lassen können mit neuen Nummern. Wäre wahrscheinlich das Klügste gewesen.
Auf die Tour kann man im Weihnachtsgeschäft natürlich nochmal den Unbedarften abziehen. :)

Man kann auch letztlich den Schluß ziehen, daß beide Hersteller ziemlich genau auf Augenhöhe bei der Technologie agieren. Auch AMD könnte die Performance einer GTX580 anbieten, wenn man den Chip etwas aufgeblasen hätte. Dann hätte man wahrscheinlich ziemlich ähnliche Verbrauchswerte wie Nvidia, aber auch ähnliche Performance. Hier liegts wohl eher wieder an der Wirtschaftlichkeit bei der Ausbeute. Da geht man wohl lieber auf Nummer sicher.
Was Tesselation und AF angeht: Das liegt einfach by Design an der Architektur des R600 respektive bis zum R900. Tesselation wurde drangeklatscht und die TMUs sind noch die gleichen wie bei der HD2900 bis auf Optimierungen.
Da Northern Islands ja im Prinzip noch nen Hybrid aus R600 und Southern Island ist, war doch eh nur ein Funken Hoffnung, daß sich hier etwas ändert.
Und ob man hier radikal was zur HD 7000 ändert, können wir auch nur hoffen. Aber zumindest kann man davon ausgehen, daß beide Firmen auch im 28nm Prozess beide auf Augenhöhe liegen werden, da man die vorliegenden Architekturen zu 99% erstmal nur shrinken wird. (Vielleicht ist bei AMD noch etwas mehr zu erwarten) :)
Ich bin mal gespannt, ob Southern Island eigentlich wirklich fundamentale Änderungen bieten wird. Bis auf eine Umstrukturierung der Shader haben wir ja noch nicht viel gesehen.
Aber AMD weiß zumindest jetzt mal wieder wo die ärgsten Probleme bei der Architektur liegen. Ich sehe die 6900er eher als Testlauf ähnlich wie damals der HD4770er 40nm-Pipecleaner. Hier hat man aber wohl erstmal die Shaderstruktur erprobt.
 
Ich glaube eher, das mit Vollausbau an Shader, eine Verbrauchsexplosion statt gefunden hätte.
Und wie ein zu hoher Verbrauch abgestraft wird sieht man an der GTX 470/480 Reihe.

Das wird wohl auch so sein... Vergleicht man direkt Messungen der Karten bei ht4u.net sieht man beispielsweise, das die alten 5D GPUs in Gaminglast zu Furmark Volllast einen gewaltigen Sprung gemacht haben.
Nimmt man jetzt den Cayman, so sieht man hingegen, das der Sprung weit weniger groß ausfällt.

Das heist unterm Strich also in meinen Augen, die Leistungsaufnahme der alten AMD Karten war wirklich nur so gut, weil die ALUs nur teilweise richtig ausgelastet wurden.
AMD selbst gibt was von 3,5/5 an im Schnitt. Für die 4D Einheiten soll die Auslastung etwas höher liegen...
Das würde erklären, warum die Leistungsaufnahme nun höher ist als vorher... Denn man hat die gleiche Leistung wie vorher bzw. etwas mehr, aber eine höhere Auslastung, doppelten Stromfressenden hochtakteten GDDR5 RAM und mehr TMUs und Co.
 
Ich denk wenn man ne 6970 beim OC auf den Verbrauch ner 580 jagt mehmen die sich nichts. Tools wirds sicher bald geben mit denen das geht.
 
Bin überlegen ob ich mir nun eine 6870er oder eine 6950 leisten soll...

die 560GTX gibts ja noch nicht...

mfg
 
wie ist das eigentlich bei ati?

funktionieren die spiele die mit einer nvidia in 3d gehen auch mit einer ati in 3d?

ich überlege mir nämlich einen 3d tv zu holen und an den pc anzuschliessen um in 3d zu zocken.
 
Hab mir den Test von HWLuxx mal angeschaut(sehr guter Test wie ich finde) und soo schlimm wie es hier einige machen ist es ja wohl ned! Klar hätten sich alle nen 580er Killer gewünscht, aber mit der 570er kann die 6970 sehr gut mithalten, ist sogar besser im grossen und ganzen wie ich finde! Die Bildquali mag zwar entäuschen, aber eben, das fällt eh 90% nicht wirklich auf! Zudem verliert ja die Grakka nicht wirklich viel FPS wenn es um EQAA vs AA geht und die EQAA wird eigentlich überall gelobt! Heut morgen war ich entäuscht, aber mittlerweile muss ich sagen, wenn die Preise evtl noch bischen runtergehen kann es sehr gut sein, dass bald mal ne 6970er in meinem Pc anschaffen geht! *g*
 
Zuletzt bearbeitet:
wie ist das eigentlich bei ati?

funktionieren die spiele die mit einer nvidia in 3d gehen auch mit einer ati in 3d?

ich überlege mir nämlich einen 3d tv zu holen und an den pc anzuschliessen um in 3d zu zocken.

Dafür brauchst du dann am besten Tridef 3D welcher einen so guten 3D effekt zaubert wie mans im kino gewohnt ist!
Iz3D würde ich auf keinen fall nutzen da der 3D effekt einfach nicht das wahre ist!
 
Aber AMD weiß zumindest jetzt mal wieder wo die ärgsten Probleme bei der Architektur liegen. Ich sehe die 6900er eher als Testlauf ähnlich wie damals der HD4770er 40nm-Pipecleaner. Hier hat man aber wohl erstmal die Shaderstruktur erprobt.

Das war auch mein Gedanke.
 
Dafür brauchst du dann am besten Tridef 3D welcher einen so guten 3D effekt zaubert wie mans im kino gewohnt ist!
Iz3D würde ich auf keinen fall nutzen da der 3D effekt einfach nicht das wahre ist!

dankeschön! könntest du mir noch sagen ob der umfang der spiele bei ati genauso ist wie bei nv? weil nvidia ja sagt das über 345 spiele in 3d gehen.
 
Bei Tridef, meinte ich gelesen zu haben auch was mit dem Dreh mit 345.

HAT HWLUXX EIGENTLICH AUCH SCHON 3D TESTS GEMACHT MIT DEN NEUEN GRAKKAS????
 
Hätte ich nicht das Step-up bei EVGA gemacht, wäre es wohl nach längerer Zeit mal wieder eine ATI geworden.
Und was ich bei ATI sehr loben muss, ist die Architektur.
Erinnert ein wenig an die 1950 XTX. Am Anfang nicht so beliebt, aber mit der Zeit immer stärker geworden. Die war Ihrer Zeit einfach voraus.
 
dankeschön! könntest du mir noch sagen ob der umfang der spiele bei ati genauso ist wie bei nv? weil nvidia ja sagt das über 345 spiele in 3d gehen.
Du kannst die 14Tage Demoversion von Tridef auch mit deiner nvidia mal testen ob dir das qualitativ zusagt - mir selbst gefällt 3D Vision besser als das kostenpflichtige Tridef.
 
Bei Tridef, meinte ich gelesen zu haben auch was mit dem Dreh mit 345.

HAT HWLUXX EIGENTLICH AUCH SCHON 3D TESTS GEMACHT MIT DEN NEUEN GRAKKAS????

Nein, hatten wir bisher noch keine Gelegenheit zu. Aber bei NVIDIA hat das auch etwas gedauert, bis man es nicht nur auf dem Papier beworben hat ;)
 
Ich bin mal so frei und mache hier einfach zu. Diskussionen bitte in den neuen Sammelthread vortführen - bei Fragen -> PN. :)
 
Status
Für weitere Antworten geschlossen.
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh