AMD Radeon HD 7900: Die Gerüchte zum neuen Transistoren-Monster auseinandergenommen - Update

Stegan

Redakteur
Hardwareluxx Team
Thread Starter
Mitglied seit
16.12.2005
Beiträge
16.199
Ort
Augsburg
AMD Radeon HD 7900: Die Gerüchte zum neuen Transistoren-Monster auseinandergenommen - Update

<img style="margin: 10px; float: left;" alt="amd_radeon_neu" src="images/stories/logos/amd_radeon_neu.jpg" height="100" width="100" />Man soll ja nicht alles glauben, was die Spatzen von ihren Dächern pfeifen. Ein Funken Wahrheit ist aber wohl immer mit dabei. Mit Sicherheit auch bei den neusten Spekulationen rund um <a href="http://www.amd.com/de/pages/amdhomepage.aspx" target="_blank">AMD</a>s kommende Grafikkarten. Wäre es aber danach gegangen, so wären die ersten Ableger der Radeon-HD-7000-Familie schon zu Beginn des Monats in den Handel gekommen. Doch bekanntlich ist "Southern Islands" dort nie angekommen. Man kann allerdings davon ausgehen, dass der Start der neuen Grafikkarten nicht mehr in allzu weiter Ferne liegt. Nicht umsonst scheinen sich die Gerüchte in diesen Tagen...<p><a href="/index.php?option=com_content&view=article&id=20803&catid=38&Itemid=101" style="font-weight:bold;">... weiterlesen</a></p>
 
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Naja dann hoffe ich mal das meine HD6990 noch ne Zeit mithalten kann xD
 
Hui, das klingt äußerst lecker. Damit könnte dieses Baby ein durchschlagendes Computing-Monster werden. Bei dieser Rohleistung sollten einige Devs wach werden und die Entwicklung von Berechnungsalgos auf GPU-Basis nach vorne treiben. Stichwort FFTs, Threadoptimierte (für GPU) Sachen und natürlich Vektorberechnungen. So langsam könnte es sich lohnen sich mal das Buch "OpenCL für Dummies" zu besorgen *g*
 
@N30S
na hoffentlich nicht.
4,5Mrd ist mal eine Ansage. Finde ich richtig geil!
Aber Strom wird die wohl auch wieder ordentlich ziehen und ob sie schneller ist als zwei Cayman chips im Crossfire, darf man auch bezweifeln.
Mal sehen was die Zeit so bringt und mal sehen wie locker das Geld in Zukunft sitzt ^^

Eine 28nm Karte mit 2,6Mrd Transistoren ala Cayman wäre wohl mal echt sparsam. Aber dann hat man ja wieder leider nicht das stärkste Pferd im Stall. ^^

Davon ein dual GPU 'HD6990 refresh'.
Mensch, wenn 28nm echt so sparsam wäre, dann hätte man glatt den Stromverbrauch einer 6970 aber die Leistung von zweien mit 28nm Cayman refresh GPUs. Aber wer zahlt schon so einen Preis nur um Abwärme und Stromverbrauch in den Griff zu bekommen? Es wird oft nur das nächst schnellere gekauft.
 
Dafür gibt es ja die 7870 REDFROG - eine 6970 in 28 Nanometern (ungefähr).
 
aber die 7770 wird ein klassischer evergreen :d 5770=6770=7770?
dann gibts bestimmt die Rdaeon HD7777 Special Edition :d
 
AMD soll die Transistoren vorher aber lieber nochmal zählen.... nicht das wieder fast ne MIlliarde fehlt :fresse:
 
Haben die dann noch VGA oder mittlerweile schon einen DVI anschluß?
 
geile frage :)

dvi geh ich stark von aus
 
Wobei, die Ati Shaderarchitektur ( 1:5/1:4 ) ja nur rel. wenig ihr Potenzial ausspielen konnte, da brauchte es angepasste Programmierung.
Bei der monströsen Anzahl der Tranistoren wäre es durchaus denkbar mit 1D Shadern.
 
Rein namentlich und von dem, was man über diese Karte bis jetzt hört, scheint sie ja sehr interessant zu sein. Was sie für MICH persönlich allerdings wirklich erst richtig interessant machen würde, ist wenn man sie richtig OC kann und auch ohne OC schon mindestens 40% über der 580 3GB liegt. Sonst bleibt meine 5870 drin, die mir bis jetzt alles, was ich zu hause liegen habe,ohne Einschränkungen mindestens spielbar auf den Bildschirm zaubert.
 
Eine AMD Radeon HD 6790 bringt es immerhin auf 2,7 GFlops (SP

Zahlendreher, es muss 6970 heissen :)
 
so könnte tatsächlich ein 384 Bit breites Speicherinterface zur Verfügung stehen, gefolgt von insgesamt 3072 MB Speicher.

ich dachte 2 oder 4 GB, dann wird es als Sparmaßname dann 1,5GB bei kleineren Modellen geben !??
 
japp... Wobei es schon bei NV mal Karten gab, die auf "krummen" Speicherinterfaces noch krummere RAM Größen beherbergten. Also zum Beispiel 8x128MB Chips + 4x256MB Chips. Würde 384Bit SI (12 Chips) und 2GB ergeben. Mit dem Nachteil, das das eine Teil der 2GB eben nur mit halbem Speed laufen würde.
 
Kann man jetzt zu den daten den theoretischen Leistungsanstieg etwas sagen?

Sind 500 Euro gerechtfertigt?
 
Schwierig. Im 3DC wird 20-25% über der GTX580, in Extremfällen 30-35% geschätzt. 500 Euro wäre dafür etwas viel, aber aufgrund der bestimmt schlechten Verfügbarkeit und dem 3GB-Bonus verständlich.

Ihr springt gleich alle auf die Folie an, aber da sind gleich drei Sachen falsch:

1. 3W idle Power ist total unrealistisch
2. Angabe der Rechenleistung ist falsch
3. R bei Embago fehlt

Selbst wenn Praktikanten bei AMD die Folie gemacht hätten, wären da nicht so viele Fehler drin.
 
Zuletzt bearbeitet:
Naja, der Preis liegt wohl auch daran das man "weiß" vor NV auf dem Markt zu sein. Das wird sich dann wohl ändern wenn Kepler das Feld betritt.
 
Also jetzt ganz sicher, AMD bringt mit der Tahiti 1D Shader ( GCN ), deswegen auch diese hohe Anzahl Transistoren;
AMD präsentiert die "Graphics Core Next" Grafikchip-Architektur | 3DCenter.org
Also der Punkt wäre geklärt, ein Monstrum mit über 2000 Shadern. :asthanos:

Klar ist erst einmal, daß AMD mit dem Verzicht auf die VLIW Shader-Einheiten und dem Wechsel zu "1D" Shader-Einheiten stärker zu nVidia vergleichbar wird

Tjo da hat wohl Klein Dudilein wieder mal voll in die braune Brühe gegriffen bei seiner "16 Vectoren " Vorhersage
 
Zuletzt bearbeitet:
An die 1D Beführworter: einmal anschauen. Riesengroß in der Mitte. Kleiner Tip da stehen vier SIMD Parts mit Vector Units!! (nach Adam Ries ergeben 4x SIMD * 16fach Vector Unit * 32 CUs in Summe 2048 ALUs)
2011-06jun-17cznje7.jpg
 
Schwierig. Im 3DC wird 20-25% über der GTX580, in Extremfällen 30-35% geschätzt. 500 Euro wäre dafür etwas viel, aber aufgrund der bestimmt schlechten Verfügbarkeit und dem 3GB-Bonus verständlich.

20-35% schneller als ne GTX580 wird auch nicht NVs Next Gen sein...
Gleicher Preisrahmen, na da wird ein interessanter Kampf entstehen zwischen den Lagern.
Schaun wir mal wer das bessere Paket haben wird.

Was die Rechenleistung anbelangt..3,5 TFLOPS :fresse: Laut PCGH sollten es sogar 4 TFLOPS sein und bei NV wurde was von 5TFLOPS gemunkelt und Maxwell später mit Verdreifachung von 15 TFLOPS :fresse2:....soooo groß war der Fisch den ich gefangen habe ;):d
Abwarten und Tee trinken.
 
Also jetzt ganz sicher, AMD bringt mit der Tahiti 1D Shader ( GCN ), deswegen auch diese hohe Anzahl Transistoren;
AMD präsentiert die "Graphics Core Next" Grafikchip-Architektur | 3DCenter.org
Also der Punkt wäre geklärt, ein Monstrum mit über 2000 Shadern.
Ach Leute, denkt doch erstmal nach. Wenn auf den Folien eindeutig "Vector ALU" steht, dann können es keine "1D" Shader sein. Tut mir leid, aber was Leonidas da schreibt, ergibt keinen Sinn. Wie man ausgehend von 16-fach Vektoreinheiten auf insgesamt 2048 Shader kommt, hat fdsonne ja bereits vorgerechnet.

Nach bisherigem Stand ist GCN nicht wirklich mit Fermi vergleichbar. Also erspart uns bitte diese Quervergleiche. Da bringt auch solches Spekulieren nichts. Der Aufbau der Shader erinnert eher etwas an Larrabee. Dort hatte Intel ebenfalls 16-fach Vektoreinheiten (512-bit) inklusive SMT implementiert.
 
Ach Leute, denkt doch erstmal nach. Wenn auf den Folien eindeutig "Vector ALU" steht, dann können es keine "1D" Shader sein. Tut mir leid, aber was Leonidas da schreibt, ergibt keinen Sinn. Wie man ausgehend von 16-fach Vektoreinheiten auf insgesamt 2048 Shader kommt, hat fdsonne ja bereits vorgerechnet.

Ich gehe sogar soweit, das man sich zu Anfang eher von dem Skalareintrag für die CU blenden lassen hat. Es scheint ja im Moment noch vollkommen unklar, für was das Teil da ist. Und in der Zählweise der spekulierten 2048 ALUs taucht es auch nicht auf ;)
 
Ach Leute, denkt doch erstmal nach. Wenn auf den Folien eindeutig "Vector ALU" steht, dann können es keine "1D" Shader sein. Tut mir leid, aber was Leonidas da schreibt, ergibt keinen Sinn. Wie man ausgehend von 16-fach Vektoreinheiten auf insgesamt 2048 Shader kommt, hat fdsonne ja bereits vorgerechnet.

Nach bisherigem Stand ist GCN nicht wirklich mit Fermi vergleichbar. Also erspart uns bitte diese Quervergleiche. Da bringt auch solches Spekulieren nichts. Der Aufbau der Shader erinnert eher etwas an Larrabee. Dort hatte Intel ebenfalls 16-fach Vektoreinheiten (512-bit) inklusive SMT implementiert.

Öhm..kannste mir Dummbeutel mal erklären was Leo da schreibt und was keinen Sinn ergibt? Oder haste nicht alles gelesen?
 

Ähnliche Themen

Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh